[군사대로]'킬러 로봇시대' 개막…軍 인공지능, 전쟁 촉발 우려
대선후보 앞 다퉈 軍 인공지능 도입 공약인공지능-무인 무기 체계, 인간 한계 넘어인공지능, 윤리적 판단 없이 적 행위 오판
이 영화가 흥행에 성공한 뒤 터미네이터 속 슈퍼컴퓨터이자 무자비한 인공지능인 스카이넷은 공포의 상징이 됐다. 이 영화를 본 이들은 언젠가는 인공지능이 반란을 일으켜 인류를 위험에 빠뜨릴 수 있다는 걱정을 하게 됐다. 그리고 그 걱정은 점차 현실로 다가오고 있다. 인공지능이 군사 영역에 도입되는 사례가 속속 등장하고 있어서다. 합동참모본부는 지난 7월 미래 전쟁 양상 변화에 대비해 인공지능 기반 무인전투체계를 적용하겠다고 밝혔다. 터미네이터 영화에서 미군이 인공지능을 전 영역에 확대 적용하던 장면을 떠올리게 한다. 대통령 선거 후보들도 군사 분야 인공지능 도입을 앞 다퉈 공약하고 있다. 이재명 더불어민주당 후보는 무인 감시·정찰 체계와 유·무인 복합전투체계 전력화를, 윤석열 국민의힘 후보는 2040년까지 인공지능 기반의 무인 전투체계로의 전환을 약속했다. 어느 후보가 당선되든 인공지능 도입은 기정사실화되는 분위기다. 인공지능이 군사 분야에 가져오는 변화는 예상보다 훨씬 클 전망이다. 군사 전문가들은 인공지능으로 인해 미래 전장 환경이 급변할 것이라 전망한다. 김영수 한국국방연구원 연구위원은 세종연구소 발간 학술지 '국가전략' 여름호에 기고한 '인공지능을 활용한 미래 항공우주 지휘통제체계 발전방안 연구: 공역통제, 지휘결심지원, 사이버 보안 기능을 중심으로' 논문에서 미래 전장을 예상했다.
특히 무인 비행체는 인간 한계를 초월한 기동을 한다. 화학적인 오염에도 영향을 받지 않는다. 인공지능 성능에 따라서는 무인 비행체가 인간 조종사보다 더 뛰어난 전투 성과를 달성할 수 있다. 인공지능 분야의 세계적 석학인 토비 월시(Toby Walsh) 호주 뉴사우스웨일스 대학(UNSW) 교수는 이미 2017년에 "공격 목표만 설정해주면 사람의 조작이나 명령 없이 스스로 전투를 할 수 있는 '자율 살상 무기(LAWS)', 즉 킬러 로봇의 시대가 열리고 있다"고 짚었다. 한국군이 이 같은 흐름을 읽고 미리 준비해야 한다는 게 김영수 위원의 조언이다. 김 위원은 "우수한 성능의 AI 시스템을 만들기 위해서는 다년간 축적해야 하는 다량의 고품질 학습 데이터가 필요하다"며 "따라서 지금부터라도 구축하고자 하는 AI 항공우주 지휘통제체계를 그려보고 그에 해당하는 고품질의 빅데이터를 차근차근 축적해야 한다"고 말했다. 이처럼 군은 인공지능을 마음먹은 대로 활용할 수 있을 것으로 보고 있다. 하지만 터미네이터 속 스카이넷처럼 인공지능이 오작동을 하거나 의도적으로 핵전쟁을 일으킬 가능성을 배제할 수 없다는 지적이 나오기 시작했다.
인공지능은 핵 시설과 관련된 사이버 문제를 오작동이 아닌 사이버 공격으로 인식할 가능성이 있다. 또 인공지능 알고리즘은 의사결정에 대한 명확하고 구체적인 기준이 없는 경우가 많다. 설사 기준을 갖더라도 편향된 데이터를 머신러닝 학습 자료로 활용할 수 있다. 핵 관련 사안에서 인공지능이 적성국 행위에 대응하는 과정에서 오판을 할 가능성을 배제할 수 없다. 전장 상황은 산술적으로 계산해 판단할 수 없다. 양적 효율성 차원에서만 결정할 수도 없다. 인간의 생명과 관련된 질적·윤리적 차원의 평가는 종합적인 판단, 즉 법률적·정치적·외교적 판단을 필요로 한다. 현재 인공지능은 그런 판단 능력을 갖추지 못하고 있다. 미국 역시 인공지능의 위험성을 파악하고 있다. 미국 국방부는 'humans in the loop(HITL)'이라는 형태로 자동화된 무기의 의사결정 과정 중 최종적인 결정 단계에서 인간이 개입해야 한다고 강조하고 있다. 같은 맥락에서 미국은 중국 정부의 움직임에 우려를 표하고 있다. 중국이 미국을 견제하기 위해 인공지능과 자율무기체계에 의존도를 높이고 있다는 것이다.
이에 따라 인공지능으로 인한 우발적 전쟁이 벌어지는 것을 막기 위해 인공지능 기술에 대한 통제 필요성이 커질 전망이다. 송 교수는 "지역과 국제적 차원에서 AI 알고리즘 자체를 수출통제하는 것은 어렵겠으나 AI 칩이나 AI 칩을 제조하는 기술, 클라우드 인프라에 대해 규제하는 방법, 또는 AI 기술의 작동을 지원하는 음성이나 영상 기술 등 특정 애플리케이션에 대해 규제하는 방법이 제시되고 있다"고 설명했다. 그는 "국가 차원에서는 국가 법령을 통해 군사 분야 AI 어플리케이션의 국내 사용자, 공급자, 개발자들 즉 군사 분야 AI 어플리케이션 개발, 시험 및 사용 등 AI 프로그램의 전체 주기에 개입되는 관련 행위자들에게 뚜렷한 수준에서의 책임을 지우고 공통의 인식을 갖도록 해야 한다는 논의가 진행되고 있다"고 소개했다. ◎공감언론 뉴시스 [email protected] |