정치 > 정치일반

[군사대로]'킬러 로봇시대' 개막…軍 인공지능, 전쟁 촉발 우려

등록 2022-02-06 09:00:00   최종수정 2022-02-07 10:13:10
  • 크게
  • 작게
  • 페이스북
  • 트위터
  • 카카오스토리
  • 이메일
  • 프린트

대선후보 앞 다퉈 軍 인공지능 도입 공약

인공지능-무인 무기 체계, 인간 한계 넘어

인공지능, 윤리적 판단 없이 적 행위 오판

associate_pic
[서울=뉴시스] 터미네이터 제니시스 속 한 장면. 2015.0703. (사진=뉴시스DB)
[서울=뉴시스] 박대로 기자 = 할리우드 영화 터미네이터 시리즈는 인공지능이 일으킨 '심판의 날' 핵전쟁으로 인류가 멸망 위기에 처하는 상황을 그린다. 핵전쟁 후 돌이킬 수 없을 정도로 큰 타격을 입은 인류는 생존을 위해 기계 군단과 싸워야 하는 저항군 처지가 된다.

이 영화가 흥행에 성공한 뒤 터미네이터 속 슈퍼컴퓨터이자 무자비한 인공지능인 스카이넷은 공포의 상징이 됐다. 이 영화를 본 이들은 언젠가는 인공지능이 반란을 일으켜 인류를 위험에 빠뜨릴 수 있다는 걱정을 하게 됐다.

그리고 그 걱정은 점차 현실로 다가오고 있다. 인공지능이 군사 영역에 도입되는 사례가 속속 등장하고 있어서다. 합동참모본부는 지난 7월 미래 전쟁 양상 변화에 대비해 인공지능 기반 무인전투체계를 적용하겠다고 밝혔다. 터미네이터 영화에서 미군이 인공지능을 전 영역에 확대 적용하던 장면을 떠올리게 한다.

대통령 선거 후보들도 군사 분야 인공지능 도입을 앞 다퉈 공약하고 있다. 이재명 더불어민주당 후보는 무인 감시·정찰 체계와 유·무인 복합전투체계 전력화를, 윤석열 국민의힘 후보는 2040년까지 인공지능 기반의 무인 전투체계로의 전환을 약속했다. 어느 후보가 당선되든 인공지능 도입은 기정사실화되는 분위기다.

인공지능이 군사 분야에 가져오는 변화는 예상보다 훨씬 클 전망이다. 군사 전문가들은 인공지능으로 인해 미래 전장 환경이 급변할 것이라 전망한다.

김영수 한국국방연구원 연구위원은 세종연구소 발간 학술지 '국가전략' 여름호에 기고한 '인공지능을 활용한 미래 항공우주 지휘통제체계 발전방안 연구: 공역통제, 지휘결심지원, 사이버 보안 기능을 중심으로' 논문에서 미래 전장을 예상했다.

associate_pic
[서울=뉴시스] 터미네이터 제니시스 속 한 장면. 2015.0703. (사진=뉴시스DB)
김 위원에 따르면 앞으로는 우주와 공중, 지상, 해상, 사이버 공간을 막론하고 무인과 자동화, 로봇 중심 작전 수행이 일상이 된다. 현재와는 비교할 수 없을 정도로 많은 유·무인 전투수행 개체가 전장에 투입된다. 작전 수행 속도 역시 비약적으로 빨라진다. 이 같은 전장 환경은 인간의 지적 능력을 초월하는 수준이 될 전망이다.

특히 무인 비행체는 인간 한계를 초월한 기동을 한다. 화학적인 오염에도 영향을 받지 않는다. 인공지능 성능에 따라서는 무인 비행체가 인간 조종사보다 더 뛰어난 전투 성과를 달성할 수 있다.

인공지능 분야의 세계적 석학인 토비 월시(Toby Walsh) 호주 뉴사우스웨일스 대학(UNSW) 교수는 이미 2017년에 "공격 목표만 설정해주면 사람의 조작이나 명령 없이 스스로 전투를 할 수 있는 '자율 살상 무기(LAWS)', 즉 킬러 로봇의 시대가 열리고 있다"고 짚었다.

한국군이 이 같은 흐름을 읽고 미리 준비해야 한다는 게 김영수 위원의 조언이다. 김 위원은 "우수한 성능의 AI 시스템을 만들기 위해서는 다년간 축적해야 하는 다량의 고품질 학습 데이터가 필요하다"며 "따라서 지금부터라도 구축하고자 하는 AI 항공우주 지휘통제체계를 그려보고 그에 해당하는 고품질의 빅데이터를 차근차근 축적해야 한다"고 말했다.

이처럼 군은 인공지능을 마음먹은 대로 활용할 수 있을 것으로 보고 있다. 하지만 터미네이터 속 스카이넷처럼 인공지능이 오작동을 하거나 의도적으로 핵전쟁을 일으킬 가능성을 배제할 수 없다는 지적이 나오기 시작했다.

associate_pic
[서울=뉴시스] 터미네이터 제니시스 속 한 장면. 2015.0706. (사진=뉴시스DB)
송태은 국립외교원 외교전략센터 교수는 최근 '신기술 무기의 안보적 효과와 주요 쟁점' 논문에서 "AI 알고리즘은 전장의 전략적 우위를 인간과 다르게 판단, 평가해 위기안정성을 심각하게 훼손시키는 의사결정을 내릴 수 있다"고 우려했다.

인공지능은 핵 시설과 관련된 사이버 문제를 오작동이 아닌 사이버 공격으로 인식할 가능성이 있다. 또 인공지능 알고리즘은 의사결정에 대한 명확하고 구체적인 기준이 없는 경우가 많다. 설사 기준을 갖더라도 편향된 데이터를 머신러닝 학습 자료로 활용할 수 있다.

핵 관련 사안에서 인공지능이 적성국 행위에 대응하는 과정에서 오판을 할 가능성을 배제할 수 없다. 전장 상황은 산술적으로 계산해 판단할 수 없다. 양적 효율성 차원에서만 결정할 수도 없다. 인간의 생명과 관련된 질적·윤리적 차원의 평가는 종합적인 판단, 즉 법률적·정치적·외교적 판단을 필요로 한다. 현재 인공지능은 그런 판단 능력을 갖추지 못하고 있다.

미국 역시 인공지능의 위험성을 파악하고 있다. 미국 국방부는 'humans in the loop(HITL)'이라는 형태로 자동화된 무기의 의사결정 과정 중 최종적인 결정 단계에서 인간이 개입해야 한다고 강조하고 있다.

같은 맥락에서 미국은 중국 정부의 움직임에 우려를 표하고 있다. 중국이 미국을 견제하기 위해 인공지능과 자율무기체계에 의존도를 높이고 있다는 것이다.

associate_pic
【서울=뉴시스】 터미네이터 시리즈 네번째 ‘터미네이터: 미래전쟁의 시작’ 장면./윤근영기자 [email protected]
송태은 교수는 "자율무기체제의 의사결정과 관련해 미 국방부가 중국에 대해 우려하는 바는 중국이 적에 대해 전장에서 전투속도의 우위를 갖기 위해 자율무기의 완전한 자율성에 대해 보다 개방적인 접근법을 취하고 있다는 점"이라고 짚었다.

이에 따라 인공지능으로 인한 우발적 전쟁이 벌어지는 것을 막기 위해 인공지능 기술에 대한 통제 필요성이 커질 전망이다.

송 교수는 "지역과 국제적 차원에서 AI 알고리즘 자체를 수출통제하는 것은 어렵겠으나 AI 칩이나 AI 칩을 제조하는 기술, 클라우드 인프라에 대해 규제하는 방법, 또는 AI 기술의 작동을 지원하는 음성이나 영상 기술 등 특정 애플리케이션에 대해 규제하는 방법이 제시되고 있다"고 설명했다.

그는 "국가 차원에서는 국가 법령을 통해 군사 분야 AI 어플리케이션의 국내 사용자, 공급자, 개발자들 즉 군사 분야 AI 어플리케이션 개발, 시험 및 사용 등 AI 프로그램의 전체 주기에 개입되는 관련 행위자들에게 뚜렷한 수준에서의 책임을 지우고 공통의 인식을 갖도록 해야 한다는 논의가 진행되고 있다"고 소개했다.


◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지
  • 페이스북
  • 트위터
  • 카카오스토리
  • 이메일
  • 프린트
  • 리플
위클리뉴시스 정기구독 안내