[넷플 '정이'로 본 AI 윤리①]킬러로봇 실전투입 초읽기?
인간의 뇌 복제해 만든 AI 전투용병 '정이'2018년 카이스트, 킬러로봇 개발 해프닝전세계 학자들 킬러로봇 반대했지만…AI 개발 윤리도 산업 논리엔 소용없나우크라-러시아 킬러로봇 상용화 임박 관측
[서울=뉴시스] 오동현 기자 = # 22세기 지구. 인류는 급격한 기후 변화로 폐허가 된 지구를 떠나 우주에 새로운 터전인 '쉘터'를 마련한다. 위기를 피해 이주한 쉘터에서 평화롭게 살았으면 좋았을 법도 하지만, 인류는 전쟁을 일으키고 만다. 과학자들은 수십 년째 이어지는 전쟁을 끝내기 위해 전설적인 용병으로 불리는 사람의 뇌를 복제해 인공지능 전투 용병을 만든다. 넷플릭스에서 공개된 한국형 SF 영화 '정이'의 이야기다. 이 영화에서는 사람처럼 생각하고 말하는 AI 휴머노이드(인공지능 인간 로봇) 등장한다. 인간의 복제된 뇌가 심어진 휴머노이드는 스스로를 사람이라고 믿는다. 영화 속 인류는 복제 뇌를 통해 영생을 누릴 수 있을 것처럼 보이지만, 실상은 복제 인간에 불과한 것으로 묘사된다. 게다가 휴머노이드 개발사 회장조차 자신의 복제 뇌를 심은 휴머노이드는 자신이 아니라며 소모품 취급한다. 게다가 영화 속 주인공은 자신이 인간인지 AI인지 증명하는 윤리 테스트를 받는다. 그 과정에서 질병을 발견한 의사는 그에게 시한부 판정을 내리고 뇌를 복제해 인공육체에 심는 상품을 권한다. 심지어 복제 뇌를 인공육체에 이식할 때 드는 비용에 따라 인간의 존엄성을 유지할지 말지 결정하게 한다. 이는 영화 속 상상일뿐, 현실에선 AI 개발 윤리 통념상 기준을 어긋나는 일이다. 전 세계 학자들 사이에서 인간의 존엄성을 위협하는 연구 활동은 하지 않는 게 불문율이다. 하지만 어디까지나 연구자의 양심에 맡겨야 하는 부분이다. 특히 '정이'와 같은 AI 킬러로봇의 등장은 인간의 생명을 위협할 수 있다는 점에서 AI 개발 윤리 정립의 중요성에 대한 경각심을 다시금 일깨운다. ◆韓 킬러로봇 개발 시도했다?…세계적 학자들 비판 성명도 국내에서도 'AI 킬러로봇’ 개발 의혹이 불거진 바 있다. 지난 2018년 한국과학기술원(카이스트)이 AI 킬러로봇을 개발 중이라는 언론 보도에 전 세계 29개국 57명의 AI 연구자들이 카이스트에 대한 보이콧(거부)을 선언한 사건이다. AI 분야의 개척자로 불리는 영국 출신의 제프리 힌튼 교수, 딥러닝 분야의 권위자 요슈아 벤지오 캐나다 몬트리올대 교수, 스위스 달르몰 AI연구소(IDSIA) 소장 유르겐 슈미트후버 등 유명 학자들이 보이콧에 대거 참여했다. 특히 보이콧을 주도한 토비 월시 호주 뉴사우스웨일즈대 교수는 성명에서 "미국, 중국, 러시아 등이 이미 자동화 무기 시제품 개발에 성공했을 정도로 살상용 로봇 개발 경쟁이 치열하다"면서 "카이스트의 결정은 군비 경쟁을 가속할 뿐"이라고 비판했다. 이에 카이스트는"살상용 로봇 개발은 사실무근이며, 학문기관으로서 인권을 중시하고 매우 높은 도덕적 기준을 갖고 있다"고 해명했다. 결국 카이스트의 킬러로봇 개발 논란은 보이콧 철회로 일단락됐다. 신성철 당시 카이스트 총장은 국내 언론과의 인터뷰에서 "(방산기업)한화시스템과 함께 국방인공지능융합연구센터를 설립한 것을 한 국내 영자지가 'AI 무기(weapon) 연구소'로 잘못 번역해 내보내면서 불거진 것"이라며 "항의 서한을 보낸 모든 학자들에게 해명서를 보내면서 오해가 풀렸다"고 설명했다. 그해 한국을 방문한 월시 교수도 “카이스트가 학자들의 공개 보이콧 선언 이후 즉각 답변을 줬다. 카이스트는 AI 연구를 이어가되 인간이 통제 가능한 범위 내에서만 진행하겠다고 약속했다. 이는 유엔의 권고 사항을 충분히 고려한 답변"이었다고 평했다. 유엔(UN)은 AI 자율 살상 무기 사용 금지를 권고하고 있다. 월시 교수는 2015년 7월 AI 국제회의(IJCAI)에서도 군사용 자율 로봇 상용화에 반대하는 서한 작성을 주도한 인물이다. 이 서한에는 2587명의 AI 로봇 개발자와 일론 머스크 테슬라 최고 경영자, 스티브 워즈니악 애플 공동 창업자, 고(故) 스티븐 호킹 교수 등 1만7972명의 유력 인사가 동의했다.
하지만 최근 AI 킬러로봇의 등장이 현실화되고 있다. 일부 군사 전문가들은 우크라이나-러시아 전쟁이 장기화될수록 '완전 자율 전투로봇'의 등장은 시간 문제라고 관측한다. 두 정부 역시 이를 부인하지 않고 있다. AP통신에 따르면 미하일로 페도로프 우크라이나 디지털혁신부 장관도 완전 자율 킬러 무인기 개발에 대해 "논리적이고 필연적인 다음 단계"라며 "우크라이나는 이 방향으로 많은 연구개발을 해 왔다. 앞으로 6개월 안에 완전 자율 전투 로봇이 등장할 가능성이 크다고 생각한다"고 말했다. 이미 우크라이나는 후방에서 사람이 조종하거나 사격 명령을 내리는 자율 무기 체계(Autonomous Weapon System·AWS)로 러시아군을 상대했는데, 앞으로는 인간의 개입이 필요 없는 수준까지 끌어올리겠다는 것이다. 블라디미르 푸틴 러시아 대통령 역시 지난 2017년 AI 기술을 지배하는 국가가 세계를 지배할 것이라고 전망했고, 지난해 12월 21일 연설에서는 "가장 효과적 무기 시스템은 자동 모드로 신속하고 실질적으로 작동하는 시스템"이라며 러시아 무기 산업이 전쟁 기계에 AI를 탑재할 수 있을 것으로 자신한다고 밝혔다. 문제는 AI 킬러로봇이 전장에 나선 군인뿐만 아니라 민간인까지 적으로 간주해 해칠 가능성이 있다는 점이다. 아직 AI 기술이 군인과 민간인을 스스로 판별할 만큼 완벽하지 않아서다. 대표적으로 자율주행차 사고를 들 수 있다. 미국 도로교통안전국은 2021년 7월부터 2022년 5월까지 약 10개월 간 미국에서 완전 자율 주행 운전 시스템이 장착된 차량의 충돌 사고가 총 130건 발생했다고 발표한 바 있다. 특히 완벽한 AI 기술이 개발되더라도, 이를 산업 논리에 따라 악용할 가능성이 존재한다. AI 기술은 어떤 용도로 활용되느냐에 따라 완전히 다른 산업이 된다. 노벨이 안전한 산업용 폭약으로 개발한 다이너마이트와 마찬가지로 인간의 의지에 따라 선하게도, 악하게도 쓰일 수 있다. 예컨대 영화 '정이'에서도 AI 휴머노이드가 처음엔 군수용으로 개발됐다가, 나중에 가정용과 성인용으로 활용 목적을 변경하는 검토 장면이 나온다. 임태호 호서대 정보통신공학부 교수는 "연구자들은 국가연구개발 시 불법적인 연구는 물론, 인간 존엄성에 대한 연구윤리 교육을 기본적으로 이수해야 한다"면서 "연구자 입장에선 AI 기능을 최적화하는 게 임무다. 이를 어떻게 활용할 지는 기업이나 정부의 결정에 따라 완전히 달라진다. 산업적 논리에 따라 AI 기술이 부정적인 용도로 활용되는 것을 방지하기 위한 정책이나 제도가 마련돼야 한다"고 강조했다. ◎공감언론 뉴시스 [email protected] |