18.217.181.166
18.217.181.166
close menu
KCI 등재
인공지능 시대의 전쟁자동화와 인권에 관한 소고 - 국제법상 자율살상무기의 규제를 중심으로 -
A Study on the Dehumanization of Warfare and Human Rights in the Era of Artificial Intelligence - Focusing on the Regulation of Autonomous Weapons in International Law -
임예준 ( Ye Joon Rim )
고려법학 92권 265-302(38pages)
DOI 10.36532/kulri.2019.92.265
UCI I410-ECN-0102-2019-300-001388247

4차 산업혁명으로 인한 전쟁자동화와 관련하여 국제사회에서 가장 논란이 되고 있는 것은 자율무기체계의 도입이다. 자율무기란 활성화가 된 이후, 추가적인 인간의 개입 없이 통합정보 및 사전 프로그램 통제 아래 독립적으로 목표를 선택하여 공격할 수 있는 무기체계를 의미한다. 이글은 자율무기의 개념 및 현황과 관련된 국제사회의 논의를 살펴보고, 자율무기의 국제법적 쟁점에 관해 국제인도법을 중심으로 검토한 후, 이를 바탕으로 자율무기의 규제의 필요성과 규제방안을 살펴봄을 목적으로 한다. 자율무기가 신무기로서 적법하기 위해서는 국제인도법의 일반적인 규칙과 특정 무기 또는 전투수단을 금지하거나 이들의 사용방식을 제한하는 국제인도법의 특정한 규칙에 부합해야 한다. 또한 이러한 신무기는 배치되기 이전에 인도의 원칙과 공공양심의 명령에 부합하는지를 검토해야 한다. 자율무기가 국제인도법의 기본원칙을 준수할 수 있는지 여부는 사용되는 환경과 기술수준의 발전에 따라 달라질 수 있다. 그러나 예측불가능한 상황의 연속인 전장에서의 모든 가능한 시나리오를 프로그래밍 하여 국제인도법에 부합하는 결정 및 행위를 할 수 있도록 자율무기체계를 만드는 것은 분명 어려운 일일 것이다. 설령 기술수준의 발전에 따라 국제인도법의 기본원칙을 준수할 수 있다 하더라도, 무기체계가 인간의 통제를 넘어 자율적으로 무력을 사용해 인간을 살상하게 된다는 것은 기본적으로 공공양심의 명령에 부합하지 않는다. 자율무기의 핵심은 인명 살상을 위한 무력사용에 있어 인간의 판단이 배제된다는 것에 있다. 인간의 판단이 부재한 상황에서 인간의 생사가 알고리즘에 기초해 결정된다는 것은 그 자체로서 인간존엄성에 반할 수 있으며, 생명권에 대한 경시로 이어질 수 있다. 또한 국제인도법 및 국제인권법 위반 사안이 발생하였을 때 책임소재가 불분명해지는 자율무기는 그 자체로서 인권 보호의 장애가 될 수 있다. 따라서 인간의 존엄성과 인권을 보장하기 위해서는 공격목표물의 선정과 타격에 관한 결정의 이유를 설명할 수 있는 인간의 통제가 반드시 있어야 할 것이다. 국제사회는 무력사용에 관한 무기체계 개발에 있어서는 최소한 일정 정도의 인간통제는 반드시 필요함을 확인하고, 자율무기 개발로 인해 발생할 수 있는 문제에 대해 선제적으로 대처해야 할 것이다.

One of the critical issues of the dehumanization of warfare in the context of the Fourth Industrial Revolution is the introduction of autonomous weapons systems. This term refers to a weapons system that, once activated, can select and engage targets without further intervention by a human operator. This article examines the definition and the current discussion regarding autonomous weapons in international society, and their legality from the perspective of international humanitarian law. Against this backdrop, it explores the necessity for regulation of autonomous weapons systems and the direction of such regulation. As a new weapon, an autonomous weapon must ensure its legality through complying with the relevant rules including the general rule of international humanitarian law applying to all weapons, means and methods of warfare, as well as particular rules of international humanitarian law and international law prohibiting the use of specific weapons and means of warfare or restricting the methods by which they can be used. Such a new weapon must also be in accord with the principles of humanity and the dictates ofpublic conscience. Compliance with the basic principles of international humanitarian law is a priori dependent upon the context of deployment as well as development at a technical level. However, it is questionable whether it is technically possible to build all possible scenarios into the system to ensure compliance with basic principles of international humanitarian law in the unpredictable circumstances of warfare. And, even if this were technically possible, machine killing beyond human control would still be unacceptable under the Martens Clause. The core of this debate over autonomous weapons is exclusion of human judgment in using lethal force. Determination of life and death based on algorithms would violate the very notion of human dignity, which also leads to disrespect contempt for the right to life. Moreover, autonomous weapons would raise ambiguous accountability issues, as accountability could not be transferred to machines. Therefore, meaningful human control must remain in all weapons systems, such as could explain the reasoning behind determinations based on algorithms. The international community needs to ensure meaningful human control in developing autonomous weapons, while preparing measures to confront potential problems raised by such weapons.

Ⅰ. 서론
Ⅱ. 자율무기의 개념 및 국제사회의 관련 논의
Ⅲ. 자율무기의 국제법상 쟁점
Ⅳ. 자율무기 규제의 필요성 및 방향
V. 결론
[자료제공 : 네이버학술정보]
×