김상수 / 육군사관학교 / AI 기반 전쟁에서의 도덕적 책임 아키텍처 연구 — 하이브리드 행위체계에서의 책임 설계와 제도적 귀속 / 2026 중견연구자지원사업 / 41,384 / 24개월

김상수 / 육군사관학교 / AI 기반 전쟁에서의 도덕적 책임 아키텍처 연구 — 하이브리드 행위체계에서의 책임 설계와 제도적 귀속 / 2026 중견연구자지원사업 / 41,384 / 24개월

접수과제정보
접수번호2026011690
연구요약문
연구목표
(한글 2000자 이내)

  1. 연구목표
    ○ 본 연구의 목표는 인공지능(AI) 기반 전쟁 환경에서 도덕적 책임 문제를 사후적 귀속의 문제가 아니라, 전쟁 수행 체계 전반에 걸쳐 사전에 설계되어야 할 규범적·제도적 구조의 문제로 재정식화하고, 이를 ‘도덕적 책임 아키텍처(moral responsibility architecture)’의 개념으로 체계화하는 데 있다.
    ○ 최근 자율무기체계, 군집드론, AI 기반 의사결정 지원체계의 확산은 전쟁 수행 방식을 인간과 기계, 조직과 기술이 결합된 하이브리드 행위체계로 재구성하고 있다. 이러한 변화는 전통적 전쟁윤리가 전제해 온 개별 인간 행위자 중심의 책임 귀속 구조에 근본적인 도전을 제기한다. 그럼에도 기존 논의는 주로 책임 간극(responsibility gap)의 존재를 지적하거나, 문제 발생 이후 책임을 추적·귀속하는 사후적 논의에 머물러 왔다. 이로 인해 AI 기반 전쟁에서 책임이 왜 반복적으로 공백 상태에 놓이는지에 대한 구조적 설명과, 책임을 제도적으로 어떻게 구성해야 하는지에 대한 규범적 설계 논의는 충분히 발전하지 못하였다.
    ○ 본 연구는 이러한 한계를 극복하기 위해, AI 기반 전쟁에서 도덕적 책임을 개인의 의도나 통제 능력에 환원하지 않고, 인간·AI·조직·지휘체계가 결합된 하이브리드 행위체계 전체를 분석 단위로 설정한다. 이를 통해 책임 문제를 “누가 책임을 져야 하는가”라는 귀속의 질문에서, “책임은 어떤 구조 속에서 사전에 배치·작동해야 하는가”라는 설계 중심의 질문으로 전환한다. 특히 본 연구는 집단적 책임 이론과 사회기술적 책임 논의를 전쟁윤리의 맥락에서 재해석하고, UN, NATO, 미 국방부 등 국제 규범 문헌이 반복적으로 요구하는 ‘책임 있는 인간 통제’의 윤리적 의미를 철학적으로 정식화하는 것을 핵심 목표로 삼는다.
    ○ 구체적으로 본 연구는 첫째, AI 기반 전쟁 수행 체계를 하이브리드 행위성의 관점에서 윤리적으로 재구성하고, 둘째, 책임 간극 논의가 지닌 구조적·제도적 한계를 분석하며, 셋째, 집단적 책임 이론에 기초하여 도덕적 책임이 설계자–개발 조직–지휘관–운용자–군 조직–국가로 이어지는 다층적 구조 속에서 어떻게 배치·이동되어야 하는지를 체계적으로 제시한다. 이를 통해 전쟁 수행의 단계별(설계–획득–검증–배치–운용–사후 평가) 책임 구조와 책임 작동 조건을 통합한 도덕적·제도적 책임 아키텍처 모델을 제안하는 것을 최종 목표로 한다.
    ○ 본 연구는 AI 기반 전쟁에서 윤리적 판단이 실제로 기능할 수 있는 구조적 조건을 제시함으로써, 전쟁윤리 이론의 확장과 더불어 국제 규범과 군사 제도의 윤리적 정당화에 기여하는 것을 지향한다. 이는 국내에서는 아직 충분히 축적되지 않은 AI 전쟁윤리 연구의 지평을 확장함과 동시에, 국제적 논의와 접속 가능한 이론적 기반을 제공하는 것을 궁극적 목표로 한다.
    기대효과
    (한글 2000자 이내)
    ○ 본 연구는 AI 기반 전쟁에서의 도덕적 책임 문제를 기존의 사후적 귀속 중심 논의에서 사전적 설계 중심 논의로 전환함으로써, 학문적·제도적 차원 모두에서 의미 있는 성과를 창출할 것으로 기대된다. 특히 국제적으로는 활발히 논의되고 있으나 국내에서는 아직 체계적으로 정식화되지 못한 AI 기반 전쟁의 책임 구조 문제를 윤리학적으로 분석·구조화함으로써, 관련 연구 분야의 지식 증진과 논의 지평 확장에 실질적으로 기여할 것이다.
  2. 학문적 기대효과.
    ○ 첫째, 전쟁윤리 및 AI 윤리 연구의 이론적 지평을 확장한다. 본 연구는 책임 간극(responsibility gap), 집단적 책임, 사회기술적 책임 논의를 종합하여, 전쟁윤리를 사후적 평가의 윤리에서 사전적 설계의 윤리로 확장한다. 이를 통해 기존 전쟁윤리 이론이 충분히 설명하지 못했던 AI 기반 전쟁 수행의 도덕적 구조를 분석할 수 있는 새로운 이론적 틀을 제시하며, 전쟁윤리·도덕적 책임 이론·기술윤리 간의 학제적 연구를 활성화하는 기반을 제공한다.
    ○ 둘째, 국제 규범 논의에 대한 윤리학적 기여이다. UN, NATO, 미 국방부 문헌은 자율무기체계와 군사 AI의 책임성(accountability)과 인간 통제의 중요성을 반복적으로 강조하지만, 책임이 어떠한 주체에게 어떤 구조 속에서 작동해야 하는지에 대한 윤리적 설명은 충분히 제시하지 않는다. 본 연구는 이러한 국제 규범이 전제하고 있는 책임 개념을 철학적으로 해명하고, 이를 ‘도덕적 책임 아키텍처’라는 개념으로 구조화함으로써 국제 규범 논의를 이론적으로 보완한다.
    ○ 셋째, 후속 연구 발전 가능성이다. 본 연구에서 제시하는 책임 아키텍처 모델은 자율무기체계뿐 아니라 AI 지휘결심 지원체계, 인지전, 군집드론 등 다양한 군사 기술 영역으로 확장 적용이 가능하다. 이는 향후 AI 기반 군사기술 윤리, 군사 거버넌스, 책임 설계 연구로 이어질 수 있는 이론적 플랫폼을 제공한다.
  3. 사회적·제도적 활용방안
    ○ 첫째, 국내 군 윤리 및 정책 논의에 대한 기여이다. 본 연구는 AI 기반 전쟁 수행에서 책임이 어떻게 설계되어야 하는지를 윤리학적으로 구조화함으로써, 향후 군 차원의 AI 윤리 가이드라인, 윤리 교육 교재, 정책 검토 자료로 활용될 수 있는 이론적 근거를 제공한다. 이는 책임 문제를 기술적 통제나 법적 규율에만 의존하지 않고, 윤리적 판단의 기준을 제도적으로 보완하는 데 기여한다.
    ○ 둘째, 국제 학술·정책 담론과의 연계이다. 본 연구는 국제적으로 활발히 논의되는 LAWS, 책임성, 인간 통제 논의에 대해 윤리학적 관점에서 구조화된 분석을 제시함으로써, 향후 국제 학술회의 발표, 국제 공동연구, 정책 자문 논의에 활용될 수 있다. 이를 통해 국내 연구 성과의 국제적 가시성을 제고하는 효과도 기대된다.
    ○ 셋째, 윤리 설계 연구의 확산이다. 본 연구가 제시하는 책임 아키텍처 접근은 군사 영역을 넘어, AI 기반 의사결정 시스템, 공공 행정, 고위험 기술 영역 전반에 적용 가능한 윤리 설계 모델로 확장될 수 있다. 이는 윤리학 연구가 추상적 규범 논의에 머무르지 않고 실제 제도 설계와 정책 판단에 기여할 수 있음을 보여주는 사례가 될 것이다.
  4. 연구 성과(중간·최종 결과물) 및 국제 학술지 투고 계획
    ○ 본 연구는 연차별 연구 성과를 바탕으로 도덕적 책임 아키텍처 개념의 정식화, 책임 구조 분석 모형, 국제 규범–윤리 이론 연계 분석 결과를 단계적으로 도출할 예정이다. 이러한 연구 성과는 국내 학술지 논문뿐 아니라, AI 윤리 및 전쟁윤리 분야의 국제 학술지에 최소 2편 이상의 논문으로 투고·게재하는 것을 목표로 한다. 이를 통해 본 연구는 학문적 성과의 국제적 확산과 함께, AI 기반 전쟁 윤리 연구 분야에서 한국 연구의 이론적 기여를 분명히 제시할 것이다.
    연구요약
    (한글 2000자 이내)
  5. 연구내용
    ○ 본 연구는 AI 기반 전쟁에서의 도덕적 책임 문제를 기존의 사후적 귀속(attribution) 중심 논의로 한정하지 않고, 제도·조직·기술의 설계 단계에서 사전에 구성되어야 할 규범적·제도적 구조의 문제, 즉 ‘도덕적 책임 아키텍처(moral responsibility architecture)’ 설계 문제로 정식화하는 것을 핵심 연구내용으로 한다. 이는 연구책임자가 그간 수행해 온 전쟁윤리, 도덕적 책임, 자율무기체계 관련 연구 성과를 종합·발전시키는 방향에서 설정된 연구 주제이다.
    ○ 첫째, 본 연구는 AI 기반 전쟁 수행 체계와 하이브리드 행위성을 윤리적으로 재구성한다. 연구책임자는 이미 「하이브리드 전쟁에서 도덕적 책임의 정당화에 관한 연구」(2023)를 통해, 인간·기술·조직이 결합된 전쟁 수행 환경에서 행위 주체성과 책임 구조가 분산·중첩된다는 점을 분석한 바 있다. 본 연구는 이를 확장하여, 미 국방부 DoD Directive 3000.09(2023), NATO 개정 AI 전략(2024), UN 보고서(2024) 등 국제 규범 문헌이 전제하는 책임성·인간 통제 원칙을 하이브리드 행위체계의 관점에서 윤리적으로 재해석한다. 이를 통해 AI 기반 전쟁을 단일 인간 행위자 중심의 책임 구조에서 벗어나, 구조적 책임 분석의 대상으로 재개념화한다.
    ○ 둘째, 책임 간극(responsibility gap) 논의의 구조적 한계를 분석한다. 연구책임자는 「치명적 자율무기체계의 도덕적 책임 문제 연구」(2023)와 「자율무기체계(AWS)의 도덕적 책임 귀속에 대한 고찰」(2024)을 통해, 책임 간극 논의가 기술적 자율성이나 예측 불가능성에 과도하게 초점을 맞추고 있음을 비판하고, 책임 문제가 반복적으로 발생하는 원인을 전통적 개인 책임 모델의 한계에서 찾은 바 있다. 본 연구는 이러한 기존 연구 성과를 이론적 출발점으로 삼아, Matthias, Sparrow 이후의 책임 간극 논의와 2020년대 이후의 확장 논의를 체계적으로 검토하고, 국제 규범이 요구하는 수준의 구조적·제도적 책임 설계로 나아가지 못한 이유를 분석한다.
    ○ 셋째, 집단적 책임 이론에 기초한 도덕적·제도적 책임 아키텍처를 설계한다. 연구책임자는 「Reductive Collectivism and Complicitous Liability in War」(2023)을 통해 환원적 개인주의가 전쟁 수행의 도덕적 책임을 충분히 설명하지 못한다는 점을 논증하고, 집단적 책임 이론의 필요성을 철학적으로 정식화하였다. 본 연구는 이 성과를 French(1984), List & Pettit(2011)의 집단 행위자 이론과 결합하고, UN·NATO·미 국방부 문헌에서 반복적으로 요구되는 책임성(accountability) 원칙과 연결함으로써, 국제 규범이 전제하지만 명확히 설명하지 않는 책임 구조를 윤리학적으로 재구성한다. 이를 통해 책임 주체의 다층적 구조, 전쟁 수행 전 과정의 단계별 책임 배치, 책임 유형과 작동 조건을 통합한 도덕적·제도적 책임 아키텍처 모델을 제시한다.
  6. 연구방법론
    ○ 본 연구는 연구책임자의 기존 전쟁윤리·책임 이론 연구를 토대로, 국제 규범–윤리 이론–책임 아키텍처의 삼층 구조를 방법론적 기본 틀로 설정하고, 1차년도와 2차년도에 걸쳐 단계적으로 수행된다.
    ○ 1차년도에는 국제 규범 및 정책 문헌(DoD, NATO, UN)에 대한 규범 분석과 책임 이론에 대한 문헌·개념 분석을 통해, AI 기반 전쟁에서 책임 문제가 발생하는 구조적 조건을 이론적으로 해명한다. 이 과정에서 연구책임자가 축적해 온 자율무기체계, 집단적 책임, 전쟁윤리 연구 성과를 이론적 연결 고리로 활용하여, 책임 아키텍처 설계를 위한 핵심 개념 요소를 정식화한다.
    ○ 2차년도에는 1차년도 연구 성과를 바탕으로, 전쟁 수행 전 과정에 적용 가능한 도덕적 책임 아키텍처를 구체적으로 설계하고 정합성을 검증한다. 단계별 책임 배치 분석, 책임 유형 간 관계 조정, 책임 작동 조건의 체계화를 통해 책임 간극을 완화·예방할 수 있는 구조적 모델을 제시하고, AI 기반 전쟁 수행 시나리오를 활용하여 기존 책임 귀속 중심 이론과의 설명력 차이를 비교·검토한다.
    키워드(Keyword)
    (한글 250자 이내)
    도덕적 책임 아키텍처, AI 기반 전쟁, 하이브리드 행위자, 자율무기체계의 책임문제, 집단적 책임
    키워드
    (영어 500자 이내)
    Moral Responsibility Architecture, AI-Enabled Warfare, Hybrid Agency, Responsibility of Autonomous Weapon Systems, Collective Responsibility
    닫기

댓글 남기기