이다연 / 한국연구재단 / 중국 고전시 비평 언어에 대한 AI 학습 방법론 / 2026 인문사회학술연구교수(B유형) / 20,000 / 12개월

연구요약문
연구목표
(한글 2000자 이내)
본 연구는 대규모 언어모델(LLM)에게 詩話 지식과 비평문(평어) 데이터를 학습시켜 고전시 비평 언어를 가르치는 방법론을 제시한다. 시화는 시론부터 시인에 대한 평가 등 시와 시인에 대한 정보들을 가지고 있는 문헌이며, 시 비평문은 함축적인 비평어로 작성되어 있어 전문 연구자도 이해하는 데 많은 시간과 노력이 필요한 자료지만, 이는 모두 고전시를 이해하는 데 직접적으로 도움이 되는 정보다. 그러나 현대인들이 이러한 문헌들을 모두 읽는 것이 사실상 불가능하고, 현대 언어를 주로 학습한 LLM을 도움을 받더라도 LLM은 이러한 정보 없이 시를 해석하기 때문에 시를 이해하는 데 어려움을 겪는다.
이를 해결하기 위하여 본 연구는 시화 데이터와 비평문 데이터를 언어모델에 학습시켜 고대 비평 언어를 내재화시켜 고대 비평가의 관점에 보다 가까이 접근하는 방법을 제시한다. 이를 통해 시화 지식이 고전시를 이해하는 데 얼마나 도움이 되는지를 검증하고 비평문이 없는 시 작품에 대하여 비평문을 생성하여 시 감상에 이해를 돕는다.
본 연구는 AI 시대에 고전문학 분야의 구체적인 문제를 기술로 해결하는 방법을 제시한다. 이는 향후 고전시 학습을 위한 AI 보조 도구를 개발하는 데 기반이 되는 연구로서 고전시에 대한 진입장벽을 낮추고 인문학과 AI 기술의 융합 연구의 모범 사례가 될 것이다.
기대효과
(한글 2000자 이내)
(1) 학제 간 협업 촉진
본 연구와 같이 고전시 지식과 AI 기술을 융합한 연구의 성과를 인공지능 관련 분야의 학회에서 발표하게 된다면, 공학 연구자들까지 고전시를 잠재력 있는 연구 분야로 인식하고 학제 간 협업이 활성화될 수 있다. 나아가 기술 분야에서도 고전시 연구자가 자연스럽게 양성되어 연구자가 부족한 현실적인 문제까지 해결할 수 있다.
(2) 기술 방법론의 확장 및 후속 연구 촉발
본 연구는 고대 중국시 비평에 한정하였으나 서양의 작품에도 적용 가능하다. 현대어로 쓰인 문학 작품이라면 LLM의 정교한 임베딩을 활용하여 더 고품질의 결과를 얻을 수 있을 것이다. 본 연구를 재현 가능하도록 만들기 위해 깃허브에 코드를 공개할 예정이므로 다른 연구자들이 이를 자신의 연구에 사용할 수 있다.
(3) 교육 현장 및 인문학 시장에서 선도
본 연구는 현재 기술의 수준을 파악하고 인문학자들의 판단이 필요한 지점을 고찰하여 AI 시대에 인문학을 어떻게 교육하고 학습해야 하는지 논의의 토대를 세운다. 연구 종료 후에는 훈련된 AI 모델을 대학이나 일반인 교육 기관에서도 교육 보조 도구로 사용할 수 있다. 이를 통해 개인 학습자들도 시 감상에 도움을 받아 고전시의 진입장벽이 낮아지는 효과를 거둘 수 있다.
연구요약
(한글 2000자 이내)
(1) 데이터셋 수집 및 전처리
비평문 데이터는 각 시인의 서적에서 직접 추출한다. 詩話 데이터는 중국 고전시 전문 디지털 아카이브인 搜韻에서 제공하는 총 93종을 사용한다. 시–비평문 데이터는 비평문이 함께 수록된 출판물을 대상으로 수집하며, 당송대 주요 시인의 작품 가운데 비평이 확인되는 작품 3,000편을 확보하는 것을 목표로 한다.
(2) 데이터 탐색적 분석(EDA)
전처리를 통해 정제된 비평문 데이터 및 시화 데이터에 대하여 전통적인 텍스트 마이닝 기법을 활용하여 탐색적 분석을 수행한다. 자주 등장하는 비평 용어를 추출하고, 연구자의 검토를 거친다. 추출된 비평 용어들은 전문 비평 서적을 참조하여 그 의미와 용례를 검토한다.
(3) 모델에게 지식 학습
첫 번째 단계는 지속적 사전학습(Continual pre-training. CPT)를 사용하여 시화 데이터의 언어적 특성과 지식을 모델에게 가르치는 것이다. 두 번째 단계에선 시-비평문 데이터를 모델에 지도 미세조정(Supervised Fine-tuning. SFT)시킨다. 이때 테스트 데이터는 별도로 분리하여 이후 진행될 평가 단계에서 사용하고 학습에는 학습 데이터셋만 사용한다. 지도 미세조정은 일반 미세조정(full fine-tuning)과 LoRA 두 가지 방식으로 실험한다. 정량적 평가 지표는 s-bert 기반의 코사인 유사도를 사용한다. 이는 길이에 무관하며 전체 의미를 파악한다는 점에서 본 연구의 데이터의 특성에 적합하다. BERTScore는 핵심 비평어가 포함되어 있는지 확인하기 위해 재현율로 판단할 것이다. 정성적 평가 지표는 LLM-as-a-judge를 활용한다.
(4) 조합 비교(Ablation Study)
본 연구의 가설을 검증하기 위해 방법론을 조합하여 비교 실험을 수행한다. 각 조합에 테스트 데이터셋을 적용하고 평가 지표로 성능을 측정한다. 각 조합은 Baseline, Baseline + CPT, Baseline + SFT, Baseline + CPT + SFT으로 구성된다.
(5) 비평 추론 방법론을 연구한 논문 집필 및 학술 대회 참가 준비
최종 실험 성과는 학술 대회에 참가하여 발표할 예정이다. 무엇보다도 학제 간 연구자들과 학술적인 교류를 통해 인문학과 인공지능의 융합 연구 가능성을 제시하는 것이 학술대회 발표의 가장 중요한 목적이다.
(6) 클라우드 서비스의 활용
모델 학습 단계에서는 안정적인 고성능 GPU 환경이 필수적이다. 고성능 GPU를 직접 구매하기에는 개인 연구자가 감당하기 어려운 수준이기에, 클라우드 서비스를 활용하여 필요한 시점에만 GPU를 사용해서 다소 경제적인 비용으로 실험을 진행하고자 한다.
(7) 연구의 한계점
고대 중국어는 극도로 자원이 부족한 희소 언어로서 가장 좋은 방법론을 찾더라도 완벽한 성능을 기대하기는 어렵다. 그러나 희소 언어 환경을 극복하는 방법들이 활발하게 개발되고 있으므로 본 연구 또한 기술적 발전과 함께 성능이 개선될 가능성이 크다.
키워드(Keyword)
(한글 250자 이내)
중국고전시, 문학 비평, 시화, 지속적(계속적) 사전 학습, 지도학습 미세조정, 희소 언어, 대규모 언어모델
키워드
(영어 500자 이내)
Chinese classical poetry, Literary Criticism, Shi-hua, Continual Pre-training, Supervised Fine-tuning, Low-resource Language, Large Language Model

댓글 남기기