핵심 요약 (Executive Summary)
인공지능(AI)과 로봇 공학의 발달로 전장의 패러다임이 변화하면서 자율살상무기(LAWS)의 도입이 안보 환경의 주요 변수로 부상하고 있다. LAWS는 군사적 효용성에도 불구하고, 국제인도법(IHL) 준수 가능성과 윤리적 책임의 귀속 문제에 있어 중대한 도전 과제를 제기한다. 현재 국제연합(UN)을 중심으로 법적 규범을 마련하기 위한 논의가 진행되고 있으나, 강대국 간의 안보 딜레마와 전략적 이해관계의 차이로 인해 구속력 있는 합의에 도달하는 데 어려움을 겪고 있다. 본 보고서는 자율살상무기의 개념과 국제법적·윤리적 쟁점을 짚어보고, 국제사회의 대응 동향을 객관적 관점에서 분석한다.
1. 자율살상무기(LAWS)의 개념과 기술적 성격
자율살상무기(Lethal Autonomous Weapon Systems, 이하 LAWS)에 대해 국제사회에서 통용되는 단일한 법적 정의는 아직 확립되지 않았다. 그러나 통상적으로 일단 작동이 시작되면 인간의 추가적인 개입이나 지시 없이 스스로 주변 환경을 인식하고, 표적을 선정하여 교전을 수행할 수 있는 무기 체계를 지칭한다.
[참고 자료]UN ODA: Lethal Autonomous Weapon Systems 개념과 현황
자율성(Autonomy)을 가진 무기가 완전히 새로운 개념은 아니다. 목표물이 접근하면 자동으로 작동하는 지뢰나, 날아오는 미사일을 요격하는 함정의 근접방어무기체계(CIWS) 등 방어 목적의 제한적 자율 무기는 수십 년 전부터 존재해 왔다. 그러나 최근 논의의 중심이 되는 것은 고도화된 인공지능(AI) 기술이 결합되어 ‘판단’의 영역까지 수행하는 체계다.
실례로, 일정 지역을 배회하다가 목표물을 자체적으로 탐지하여 타격하는 배회 대기형 탄약(Loitering Munition)은 현대전에서 이미 제한적으로 사용되고 있다. 2020년 리비아 내전 당시 튀르키예의 카르구-2(Kargu-2) 드론이 인간의 통신망 연결 없이 표적을 추적했다는 유엔(UN)의 보고서 내용은, 인간의 결정권이 기계로 이양되는 과정의 잠재적 위험성을 보여주는 사례로 자주 인용된다.
2. 국제법적 쟁점: 국제인도법(IHL) 준수의 한계
LAWS 도입에 있어 가장 우려되는 부분은 무력 충돌 시 민간인과 비전투원을 보호하기 위해 마련된 **국제인도법(International Humanitarian Law, IHL)**을 기계가 온전히 준수할 수 있는가 하는 점이다. 국제인도법의 근간인 1949년 제네바 협약과 그 추가 의정서들은 인간의 이성과 맥락적 이해를 전제로 설계되었기 때문이다.
- 구별의 원칙(Principle of Distinction): 교전권자(전투원)와 민간인을 엄격히 구별하여 공격 대상을 한정해야 한다는 원칙이다. 그러나 전장 환경은 가변적이다. 군복을 입지 않은 게릴라 병력, 항복 의사를 밝히거나 부상을 입어 전투 의지를 상실한 군인 등을 알고리즘 기반의 센서가 완벽히 식별해 내는 데에는 상당한 기술적 한계가 존재한다.
- 비례성의 원칙(Principle of Proportionality): 무력 사용으로 기대되는 군사적 이익이 민간인의 생명이나 재산에 미치는 부수적 피해(Collateral Damage)보다 커야 한다는 원칙이다. 이는 정량적 계산보다는 상황 전반을 고려한 정성적이고 윤리적인 가치 판단을 요구한다. 데이터를 수학적으로 연산하는 기계가 생명의 무게와 작전의 중요성을 비교 교량하기는 어렵다는 지적이 제기된다.
- 마르텐스 조항(Martens Clause): 1899년 제1차 헤이그 평화회의에서 처음 등장한 법 규정으로, 조약에 명시적 규정이 없더라도 무기의 사용은 ‘인류의 보편적 양심’과 ‘인도주의의 원칙’에 위배되어서는 안 된다는 보완적 규정이다. 생명 박탈의 결정을 기계에 위임하는 행위 자체가 인간의 존엄성과 보편적 양심에 어긋난다는 법철학적 논쟁이 활발히 진행 중이다.
3. 윤리적 및 정치적 쟁점: ‘책임의 공백’과 안보 딜레마
윤리 및 법 집행의 관점에서 LAWS가 지닌 취약점은 ‘책임의 공백(Accountability Gap)’이다. 만약 자율무기가 민간인을 오인 타격하여 국제법을 위반했을 때, 그 법적 책임을 누구에게 물어야 하는가에 대한 명확한 해답이 부재하다.
[참고 자료]Lieber Institute: Legal Accountability for AI-Driven Autonomous Weapons
기계 자체는 형사 처벌이나 도덕적 비난의 주체가 될 수 없다. 시스템을 설계한 프로그래머나 제조사는 교전 상황의 모든 변수를 예측할 수 없었음을 이유로 책임을 부인할 수 있으며, 무기를 현장에 배치한 지휘관에게 ‘지휘 책임(Command Responsibility)’을 묻는 것 역시 쉽지 않다. 최신 AI는 도출 결과의 원인을 역추적하기 어려운 ‘블랙박스(Black Box)’ 특성을 지니기 때문이다. 지휘관이 기계의 연산 과정을 완전히 이해하거나 통제할 수 없다면, 오작동에 대한 책임을 묻기 위한 법리적 요건을 충족하기 까다로워진다.
이러한 부작용에도 불구하고 주요국들이 LAWS 기술 확보에 전략적 우선순위를 두는 이유는 명확하다. 자율무기체계는 아군의 인명 피해를 최소화하면서 전투 효율을 극대화할 수 있는 강력한 비대칭 전력이기 때문이다. 미국 국방부가 2023년 8월에 발표한 ‘리플리케이터 구상(Replicator Initiative)’은 다수의 저비용 자율무기를 배치하여 잠재적 적성국의 수적 우위를 상쇄하겠다는 전략적 의도를 담고 있다. 이는 한 국가의 무장이 경쟁국의 불안을 자극해 전체적인 군비 경쟁을 초래하는 전형적인 ‘안보 딜레마(Security Dilemma)’를 형성하고 있다.
4. 국제사회의 대응 현황과 규범 마련을 위한 노력
국제사회는 2014년부터 유엔(UN)의 특정재래식무기금지협약(CCW) 산하 정부전문가그룹(GGE)을 구성하여 LAWS 규제 방안을 모색해 왔다. 핵심 의제는 무기 체계의 작동 과정에 인간이 어떻게 개입할 것인가를 다루는 ‘의미 있는 인간의 통제(Meaningful Human Control, MHC)’ 원칙의 확립이다.
안토니오 구테흐스 UN 사무총장은 2023년 평화 의제(New Agenda for Peace)를 통해, 인간의 통제가 불가능한 LAWS를 2026년까지 법적 구속력 있는 조약으로 금지할 것을 촉구했다. 오스트리아, 뉴질랜드 등 120여 개국은 전면적인 금지 조약의 필요성을 주장하고 있다. 반면 기술력을 보유한 미국, 러시아, 중국 등의 강대국은 구속력 있는 조약보다는 비구속적인 ‘행동 규범(Code of Conduct)’의 도입이 더 현실적이라는 입장을 유지하고 있다.
참고로, 1996년 국제사법재판소(ICJ)는 ‘핵무기 사용의 적법성’에 관한 권고적 의견에서 “어떠한 신무기도 기존 국제인도법 원칙의 지배를 받는다”고 판시한 바 있다. 비록 LAWS에 대한 직접적인 판례는 아니나, 이 원칙은 향후 자율무기체계의 적법성을 판단하는 중요한 법적 근거로 작용할 전망이다.
5. 결론: 신중한 통제와 다면적 책임 체계의 필요성
자율살상무기의 도입은 현대 안보의 불가피한 흐름으로 보이나, 기술의 발전 속도가 법적·윤리적 제도의 성숙도를 추월하는 현상은 의도치 않은 군사적 충돌과 대규모 민간인 피해의 위험을 내포하고 있다. 불안정한 안보 환경이 거시 경제에 미치는 영향에 대해서는 [Intelligence Report] 이란 전쟁이 당겨온 경기침체의 시간표를 참고하라.
따라서 무기의 치명적 결정 단계(Kill Chain)에 반드시 인간의 확인 절차를 거치도록 하는 설계 표준(Design Standards)을 합의하는 등 점진적인 접근이 요구된다. 아울러 사고 발생 시 개발자, 제조사, 운용 주체 전반에 책임을 묻는 ‘다면적 책임 체계(Multi-faceted Responsibility System)’를 확립함으로써, 기술적 효율성 추구 과정에서도 인류의 보편적 도덕성을 잃지 않도록 하는 제도적 정비가 병행되어야 할 것이다.
📘 Editor’s Pick: AI 패권 전쟁과 전장의 미래를 읽는 추천 도서
인공지능이 바꾸는 전쟁의 실상과 그 이면에 숨겨진 기술적·정치적 메커니즘을 통찰하기 위한 전문가 추천 도서입니다.
- 인간 없는 전쟁: 두려움도 분노도 없는 AI 전쟁 기계의 등장전쟁의 주체가 인간에서 기계로 대체되는 과정을 역사적·철학적으로 분석합니다. AI가 인간의 역할 자체를 대체하며 야기할 윤리적 딜레마와 ‘AI 시대의 인간다움’에 대해 묵직한 질문을 던집니다.
- 팔란티어 시대가 온다: AI 패권 전쟁의 승자데이터가 실질적인 힘을 가지는 시대, 팔란티어의 핵심 기술인 고담과 파운드리가 전술·전략 시스템을 어떻게 재편하는지 해부합니다. AI 기술을 활용한 데이터 비즈니스와 군사적 활용의 현재를 보여줍니다.
- 피지컬 AI 패권 전쟁: 미국과 중국이 촉발한 제2의 냉전스크린 속 AI를 넘어, 로봇과 같은 ‘신체’를 부여받은 피지컬 AI 패권 전쟁을 다룹니다. 중국의 국가 CEO형 전략과 이에 대응하는 대한민국의 K-피지컬 AI 생존 전략을 현장 전문가의 시선으로 제시합니다.
* 이 포스팅은 제휴마케팅이 포함된 광고로 커미션을 지급 받습니다.
작성자: 과학기술팀 에디터
작성일: 2026년 4월 9일
