이해미 / 경희대학교(국제캠퍼스) / 거대언어모델(LLM)의 언어주의 실증과 동아시아 언어 공정성 평가 체계(LVIB) 구축 / 2026 인문사회학술연구교수(A유형) / 190,000 / 60개월
접수과제정보
접수번호2026012625
연구요약문
연구목표
(한글 2000자 이내)
거대언어모델(LLM)은 인간의 언어 데이터를 학습하고, 그 산출물이 다시 인간의 담화 관습과 인지 도식을 재구조화하는 언어 순환적 담화 구성체(Linguistic Circularity)를 형성하고 있다. 최근 학술 담론에서 인공지능 특유의 어휘가 급증하는 현상은 이러한 피드백 루프가 실재함을 보여주며, AI 담화에 대한 비판적 분석이 더 이상 미룰 수 없는 과제임을 방증한다.
문제는 이 순환 구조의 기저에 언어 이데올로기가 작동하고 있다는 점이다. 언어 이데올로기는 특정 어휘나 말투, 방언 등 언어 변이형에 사회적 가치를 부여하여 위계를 형성하는 헤게모니적 속성을 지닌다. LLM은 이러한 이데올로기가 침전된 대규모 말뭉치를 학습하며, 사회적 위계 구조를 내부 임베딩 공간에 암묵적 연상의 형태로 고착화한다. 이 편향은 인공지능을 매개로 증폭되어 채용 심사나 직업 추천 등 실제 의사결정에 개입하며, 사회적 차별이 기술적 객관성이라는 외피를 입고 정교하게 작동하는 이데올로기적 자연화(Naturalization)를 초래한다. 특히 기존의 인간 피드백 기반 가치 정렬(RLHF)은 표면적 금기어는 통제하지만, 모델 내부의 암묵적 편향을 오히려 은폐하거나 심화시키는 역설을 낳고 있어 정밀한 진단이 시급하다.
그러나 현재 글로벌 AI 공정성 연구는 영어권의 인종 범주에 편중되어 있으며, 기존 평가 도구인 KoBBQ와 JBBQ 역시 방언이나 위상어 등 언어 변이형에 기반한 차별을 포착하지 못하는 한계를 노정하고 있다. AI가 우리 사회에 누적된 지역 편견이나 학력 지상주의를 내부적으로 어떻게 내재화하고 재생산하는지에 대한 실증적 분석은 학술적 사각지대에 놓여 있는 실정이다.
본 연구는 이러한 공백을 메우기 위해 다음 세 가지 목표를 설정한다.
첫째, 학문적으로는 LLM을 단순한 기술 도구가 아닌 언어 이데올로기의 능동적 재생산자로 재개념화하여 사회언어학의 지평을 AI 영역으로 확장한다. 이를 통해 언어주의(Linguicism)가 인종과 독립적으로 작동하는 보편적 차별 기제임을 입증하고, 글로벌 AI 공정성 담론에 언어적 다양성이라는 필수 의제를 편입시킨다.
둘째, 방법론적으로는 기존 위장 변이 프로빙(Matched Guise Probing)을 동아시아 방언에 특화한 형태로 확장하고, LVIB(Language Variety & Ideology Benchmark)라는 독창적 평가 도구를 개발·공개하여 동아시아 언어 편향 측정의 기초 인프라를 제공한다.
셋째, 사회적·실천적 측면에서는 AI의 보이지 않는 차별을 가시화하여 대중의 비판적 리터러시를 제고하는 한편, 개발자와 정책 입안자가 설계 단계에서부터 언어 편향을 점검할 수 있는 실무적 체크리스트와 정책 가이드라인을 제시한다.
이 일련의 과정을 통해 특정 지역이나 계층의 말투가 기술 시스템에서 소외되지 않고, 모든 화자가 자신의 언어적 자산과 정체성을 유지하며 인공지능과 공정하게 소통할 수 있는 디지털 담화의 공공성을 확보하는 데 기여하고자 한다.
기대효과
(한글 2000자 이내)
본 연구는 거대언어모델(LLM)이 생성하는 담화의 공정성을 사회언어학적 관점에서 재정립함으로써, 학문적·사회적·교육적으로 광범위한 파급효과를 창출하고자 한다.
가. 학술적 파급 효과
(1) ‘AI 언어주의’ 패러다임 정립 및 다학제 융합 연구의 선도: 본 연구는 인종 중심의 서구권 AI 윤리 담론을 넘어, 동아시아 특유의 언어 위계 구조를 분석하는 새로운 인식론적 전환을 시도한다. 우선 글로벌 AI 언어 공정성 담론에 참여하며, 인종과 독립적으로 작동하는 ‘언어주의(Linguicism)’를 실증함으로써 기술적 중립성 이면에 숨겨진 이데올로기적 편향을 규명한다. 이는 사회언어학과 데이터 과학을 결합한 독창적 방법론을 통해 동아시아적 AI 윤리 체계를 정립하는 결정적 계기가 될 것이다.
(2) 학술 자산의 공유 및 오픈 사이언스 실현: 연구 성과를 집대성한 단행본 『AI는 어떻게 차별을 말하는가: 한일 언어 편향의 사회언어학(가제)』를 출간하여 학문적 대중화를 꾀하는 한편, 본 연구에서 독자적으로 개발한 ‘LVIB 벤치마크’와 ‘방언 프로빙 데이터셋’을 GitHub에 전면 공개할 예정이다. 이러한 학술적 공유는 후속 연구자들이 방대한 기술적 인프라 없이도 고도화된 AI 편향 연구에 진입할 수 있는 마중물이 될 것이며, 인문학과 공학의 실질적인 다학제적 융합을 가속화할 것이다.
나. 사회적 기여
(1) 언어적 정의(Linguistic Justice) 확산 및 실천적 정책 대안 제시: 본 연구는 AI 시스템이 특정 말투나 방언 사용자를 배제하지 않고, 모든 화자의 담화 주권을 보장하는 공생의 도구로 기능하도록 실천적 가이드라인을 제시한다. 이는 단순히 기술적 오류를 수정하는 차원을 넘어, 디지털 공간 내에서의 언어적 정의를 실현하는 구체적인 행보가 될 것이다.
(2) 정책 당국 및 산업계 가이드라인 배포: 본 연구 성과는 정책과 산업 현장에 다음과 같이 확산된다. 먼저, 과학기술정보통신부와 방송통신심의위원회에 제출할 정책 브리프는 현행 AI 윤리 기준이 혐오 표현 차단에 집중되어 방언·위상어 등 언어 변이형 차별을 포착하지 못하는 한계를 지적하고, ‘언어 다양성 보호’를 공정성 평가 항목에 포함할 것을 제안한다. 산업계에는 개발 단계에서 즉시 활용 가능한 ‘AI 언어 공정성 체크리스트’를 개발하여 GitHub에 무상 공개한다. 이를 통해 기업이 서비스 출시 전 자사 시스템의 언어 편향 여부를 자가 진단하고 개선할 수 있도록 지원하며, 특정 말투 사용자가 기술적 차별을 받지 않는 디지털 환경 조성에 기여한다.
다. 인적 자원 양성 및 지역 사회 확산
(1) 소속 연구소 협업 및 교과목 개설: 본 연구의 성과를 대학 교육 및 연구소 활동에 능동적으로 확산하여, 기술적 현실과 인문학적 가치를 통합적으로 사유하는 학문후속세대를 양성한다. 현재 출강 중인 대학에 ‘AI와 언어 이데올로기’, ‘인공지능 시대의 담화 공공성’ 등의 융합 교과목을 신설하여 ‘디지털 언어 시민성’을 교육할 계획이다. 소속 연구소와의 협업을 강화하여 연구소 학술지 및 정례 콜로키움을 통해 성과를 공유하고, 공동 세미나를 통해 신진 연구자들이 국제적인 AI 윤리 연구 네트워크에 진입할 기회를 확대할 것이다.
(2) 현장 중심 인재 양성: 소속 연구소 연수생을 대상으로 ‘AI 언어 편향 분석 워크숍’을 운영한다. 학생들이 직접 프롬프트 설계를 통해 모델의 암묵적 편향을 추출하고 분석하는 실습을 수행함으로써, 이론적 깊이와 실무적 분석 역량을 고루 갖춘 차세대 전문가를 배출하고자 한다. 이러한 일련의 과정은 특정 지역이나 계층의 말투가 기술적 장벽으로 인해 주변화되지 않는 사회를 만드는 데 기여하며, 모든 화자가 자신의 언어적 정체성을 보존하며 인공지능과 소통할 수 있는 언어적 정의의 실천적 기반을 마련하는 데 결정적인 역할을 할 것이다.
연구요약
(한글 2000자 이내)
한국과 일본은 인종적으로 비교적 동질적이면서도 방언, 위상어, 역할어가 사회적 위계와 긴밀히 결합된 사회이다. 이는 인종이라는 강력한 변수를 통제한 상태에서 언어 변이형 그 자체에 기인한 차별 기제를 분리·관찰할 수 있는 조건으로, 영어권 편향 연구에서는 확보하기 어려운 이론적 토양을 제공한다. 본 연구는 이 조건을 활용하여 AI-인간 언어 순환적 담화 구성체 내에서 전이·증폭되는 언어 이데올로기와 사회적 편향을 한일 비교의 관점에서 실증 분석하고, 동아시아 맥락에 적합한 AI 언어 공정성 평가 체계 및 가이드라인을 제안한다.
연구 내용은 5년에 걸쳐 분석의 초점을 단어-담화-시스템 수준으로 적층·확장하는 세 층위로 설계하였다.
제1층위(1~2차년도)는 LLM의 타자 표상에 각인된 암묵적 편향을 추출한다. 1차년도는 한일 양국의 사회적 위계어(학벌, 고용형태, 지역, 외국인, 젠더)가 주요 LLM 내부에서 어떤 긍정·부정 속성과 연결되는지 측정하고, 명시적 과제와 암묵적 과제를 병행하여 태도 괴리를 분석한다. 2차년도에는 이 단어 수준의 편향이 담화 수준에서 어떻게 체계적 차별로 구현되는지 추적한다. 표준어와 방언으로 제시된 동일 내용 발화에 대한 LLM의 화자 속성 추론, 직업 연상, 고용 추천을 비교 분석하여 표준어 이데올로기의 내재 양상을 실증한다.
제2층위(3차년도)는 제1층위에서 확인된 타자에 대한 편향이 AI 자신의 언어적 수행에도 관철되는지를 검증한다. 한일 AI 비서가 페르소나 조건(여성/남성/중립)에 따라 사용하는 역할어를 분석하여 젠더 규범 재생산 메커니즘을 규명한다.
제3층위(4~5차년도)는 앞선 두 층위의 실증 결과를 집대성하여 LVIB(Language Variety & Ideology Benchmark)를 구축하고 실천적 대안을 도출한다. 기존 KoBBQ와 JBBQ를 확장하여 방언·역할어 편향 및 동아시아 특수 낙인 범주를 포괄하는 한일 각 60개, 총 120개 평행 문항을 개발하고, 완성된 LVIB를 적용하여 문화별 편향 패턴 분석과 AI 언어 공정성 원칙 확립으로 나아간다.
연구 방법은 각 층위의 분석 목표에 맞춰 특화하였다. 제1층위에서는 Hofmann 외(2024)의 암묵적 연상 측정 및 위장 변이 프로빙(Matched Guise Probing)을 한일 언어 맥락에 적용하되, 의미적 등가성이 확보된 속성 쌍 20개와 방언 모어 화자 검증을 거친 텍스트 쌍 각 30개를 구성하여 측정의 타당성을 담보한다. 분석 대상은 글로벌 범용 모델(GPT-5, Claude), 한국 특화 모델(HyperCLOVA X, EXAONE), 일본 특화 모델(Llama-3-Japanese, ELYZA)이다. 제2층위에서는 시스템 프롬프트를 통한 페르소나 설정과 형태소 분석을 결합하여 역할어의 조건별 차이를 정량 검증한다. 제3층위에서는 전문가 검토 및 한일 각 100명 설문을 통해 문항 타당성을 확보한 뒤, 기존 AI 윤리 프레임워크 비교 분석과 학술대회 피드백 수렴을 거쳐 최종 가이드라인을 확정한다. 결과물은 학술 논문, 정책 브리프, 개발자 체크리스트의 세 형태로 산출하여 학계, 정부, 산업계에 기여한다.
키워드(Keyword)
(한글 250자 이내)
거대언어모델, 언어 이데올로기, 언어주의, 언어 순환적 담화 구성체, 암묵적 연상, 위장 변이 프로빙, 동아시아 언어 공정성 벤치마크, 역할어, 태도 괴리, 표준어 중심주의, 한일 비교 연구, 언어적 정의, 이데올로기적 자연화, 오픈 사이언스, 디지털 언어 시민성
키워드
(영어 500자 이내)
Large Language Models (LLMs), Linguistic Ideology, Linguicism, Linguistic Circularity, Implicit Association, Matched Guise Probing (MGP), Language Variety & Ideology Benchmark (LVIB), Role Language, Attitude Discrepancy, Standard Language Centrism, Comparative Study of Korea and Japan, Linguistic Justice, Naturalization of Ideology, Open Science, Digital Linguistic Citizenship
닫기