월간조선일보: ‘인공지능도 인간처럼 말실수할 수 있다’, 고려대 언어학과 박사과정 신운섭씨 연구로 밝혀
인공지능도 말실수를 할까. 할 수 있다는 연구 결과가 최근 발표됐다. 고려대 언어학과에서 박사과정을 밟고 있는 신운섭 씨가 인공지능의 언어를 분석한 결과다.
최근 심층학습(Deep learning) 기반의 인공지능이 사람과 쉽게 구별하기 어려운 성능을 보여주며 화제가 되고 있다. 인공지능이 발전하면서 정말 언어 구조를 이해하고 말하는걸까, 라는 인문학적 질문도 제기돼 왔다.
예를 들어, 오픈 에이아이(OpenAI)가 공개한 인공지능 ‘ChatGPT’는 인간을 대신해 연설문이나 신문기사를 그럴듯하게 작성할 수 있지만, 종종 질문의 의도와 다른 틀린 답변을 반복한다. 사용자들은 아직 인공지능의 내부 작동 방식을 알지 못한다. 인공지능에게 다양한 입력값을 제시하고 출력값을 체계적으로 평가하는 것이 중요한 이유다.
연구진은 영어의 규칙적 현상인 ‘부정극어 인허’를 인공지능에게 입력했다. 인간이 말을 하거나 글을 쓸 때, 허용되지 않는 표현이 있다. 예를 들면 ‘아무도 밥을 먹었다’ 같은 말이다. 이 때 쓰인 ‘아무도’가 바로 부정극어다. ‘아무도 밥을 먹었다’고 말하면 밥을 먹은 건지, 안먹은건지 알아들을 수 없다. 의사소통을 제대로 하려면 부정극어는 부정어 표현이나 문맥이 반드시 같이 쓰여야한다. 보편적인 문법 현상이며, 인간의 고유한 언어 능력을 분석할 수 있는 중요한 문법 현상이다.
분석에 사용된 인공지능인 양방향 트랜스포머 인코더 모형(Bidirectional Encoder Representations from Transformers; 이하 BERT)은 언어 규칙을 위반하는 부정극어 인허를 인간과 유사한 수준으로 매우 정확하게 포착하는 것으로 나타났다.
특히, 인간의 인지 기제(cognitive mechanism)와 깊은 연관이 있는 문법적 착시(grammatical illusion) 현상을 확장하여, BERT가 인간처럼 문장 처리 오류를 보이는지 분석했다. 분석 결과, BERT는 인간처럼 문법적 착시를 보였다. 인공지능이 인간의 인지 기제를 모방할 수 있는 잠재력을 갖고 있다는 걸 알 수 있었다.