IT > IT

[신년특집-AI 3.0 시대④]오픈AI 사태로 본 윤리 논쟁…'착한 AI' 화두

등록 2024-01-02 13:00:00   최종수정 2024-01-02 15:15:29
  • 크게
  • 작게
  • 페이스북
  • 트위터
  • 카카오스토리
  • 이메일
  • 프린트

아이언맨 VS 터미네이터…착한 AI 개발 중요성 커져

개발론자 VS 파멸론자…오픈AI 헤게모니 다툼?

'AI 안전' 국제 공조 본격화…韓 "인간의 자유·후생 확대에 기여해야"

한국·미국·EU, AI 규범 정립 중…"AI가 국가 경쟁력"

associate_pic
[서울=뉴시스] 오동현 기자 = 고도로 발전한 인공지능(AI)은 인류에게 아이언맨(자비스)일까, 터미네이터(스카이넷)일까. AI가 보고 듣고 말하는 것에서 나아가 인간 고유의 영역인 창작까지 침범하면서 '착한 AI' 개발의 중요성이 커지고 있다.

특히 인류에게 안전하고 유익한 AI를 개발한다는 취지로 2015년 출범한 오픈AI가 '챗GPT'를 공개하면서 AI 윤리에 대한 논쟁을 세간에 끌어들였다. 거짓 정보를 마치 사실인 것처럼 생성하는 할루시네이션(환각) 현상을 극복하지 못한 미완의 AI였지만, 지금까지 경험하지 못한 놀라운 성능을 보이며 세계 각국의 AI 패권 경쟁에 불을 지폈다.

AI 윤리 논쟁의 중심에는 AI 개발의 목적과 목표가 자리하고 있다. 일각에서는 AI를 기술 발전과 경제 성장을 위한 수단으로만 바라보는 반면, 다른 한편에서는 AI가 인류의 삶을 윤택하게 하고 사회 문제를 해결하기 위한 도구로 활용돼야 한다고 주장한다.

AI는 의료, 교육, 제조 등 다양한 분야에서 활용되며 우리 삶에 큰 영향을 미칠 것으로 예상되는 만큼, 전 세계 국가들이 윤리적 문제에 대한 대비책을 마련하고 있다. 우리 정부도 지난 9월 디지털권리장전을 국제사회에 발표했고, 국회에선 AI 관련 입법을 예고한 상황이다.

◆'부머' VS '두머', 헤게모니 다툼의 축소판

AI 윤리 논쟁은 지난해 오픈AI 이사회의 샘 알트만 CEO 축출 사태에서도 엿볼 수 있다. 정확한 원인은 공개되지 않았으나, 전 세계적으로 AI 개발 헤게모니 다툼의 축소판으로 해석되며 관심을 모았다. 즉, AI 개발 가속화해야 한다는 '부머(boomer·개발론자)'와 인류의 안전을 위해 AI를 규제해야 한다는 '두머(doomer·파멸론자)'의 갈등이 폭발한 것 아니냐는 해석이다.

특히 오픈AI 이사회가 영리 사업을 더욱 확장하려는 알트만의 계획보다는 안전한 AI 기술 개발을 위한 비영리 연구에 다시 집중하기 위해 알트만을 전격 해임한 것이라는 현지 외신들의 분석이 잇달았다. 인류에 안전한 AI 개발을 지향하는 일리야 슈츠케바가 알트만 해임을 주도한 것으로 알려져서다.

오픈AI 공동 창업자인 슈츠케바는 '딥러닝의 창시자' 'AI 대부'로 불리는 영국 컴퓨터 과학자 제프리 힌튼의 수제자다. 힌튼은 "성급한 AI 기술 개발이 인류에 악영향을 미칠 수 있다"며 AI 기술의 위험성을 경고해온 신중론자로, AI 위험성을 경고하기 위해 지난 10년 간 몸담았던 구글을 퇴사한 바 있다.

초기 오픈AI 공동 창업 멤버였던 일론 머스크 테슬라 CEO도 소셜 미디어 엑스(X)를 통해 슈츠케바에게 "왜 그런(알트만 해고) 과감한 행동을 취했느냐"며 "만약 오픈AI가 잠재적으로 인류에 위험한 뭔가를 하고 있다면, 세상이 알아야 한다"고 우려했을 정도였다.

슈츠케바와 함께 알트만 해임에 찬성했던 조지타운대학교 보안·신기술 센터의 헬렌 토너 역시 AI가 너무 강력해지면 인류를 위협할 수 있다고 경고해온 인물로, 알트만과 AI의 미래에 대한 이념이 달라 갈등을 빚어온 것으로 전해진다. 지난 10월 발표된 공동 집필 논문에서 챗GPT 및 GPT-4 출시와 관련한 안전·윤리 문제를 지적한 바 있다. 

하지만 알트만 해임에 반대하는 오픈AI 직원들과 투자자들의 압박에 슈츠케바는 자신의 결정을 "후회한다"며 입장을 바꿨고, 토너는 오픈AI 이사회를 떠났다. 비영리를 목적으로 출발한 오픈AI에 본격적인 변화의 물결이 생긴 사건으로 기록될 전망이다.

associate_pic
[서울=뉴시스] 홍효식 기자 = 윤석열 대통령이 9일 오후 서울 용산 대통령실 청사에서 샘 알트만 OpenAI 대표를 접견하고 있다. 2023.06.09. [email protected]
◆'AI안전' 국제 공조…尹대통령 "인간 자유·후생 기여해야"

AI 기술의 발전은 누구도 부인할 수 없는 현재진행형이다. 오픈AI, 구글, 마이크로소프트, 메타 등 글로벌 IT 기업들은 텍스트, 이미지, 영상, 음성 등 서로 다른 데이터를 함께 학습하고 사고하는 '멀티모달 AI'를 개발하고 다양한 방식으로 활용하고 있다. 나아가 인간처럼 사고하고 문제를 해결할 수 있는 범용 인공지능(AGI)으로의 진화를 가속화하고 있다.

분명한 것은 AI의 장밋빛 미래만큼 잠재적 위험 요소도 존재한다는 점이다. AI는 딥페이크와 같은 가짜 콘텐츠를 만들어내는 데 활용될 수 있으며, 편향된 데이터를 기반으로 학습돼 인종차별이나 성차별과 같은 문제를 일으킬 수도 있다. 또한 AI 기술이 AGI로 진화함에 따라, 인간의 일자리가 대거 사라질 수 있다는 우려가 제기되고 있다.

이런 AI의 잠재적 위험을 최소화하기 위해서는 AI 개발 단계에서부터 윤리적 고려가 이뤄져야 한다는 국제사회의 목소리가 모이고 있다.  2023년 11월 1일부터 2일까지 영국에서 열린 첫 'AI 안전성 정상회의'에서는 AI의 잠재적 혜택을 전 세계 모두가 누릴 수 있도록 하면서, 인류에 미칠 수 있는 위험을 최소화하기 위한 국제적인 공조가 필요하다는 논의가 이뤄졌다.

AI 안전성 정상회의에 화상으로 참석한 윤석열 대통령은 "AI를 비롯한 디지털은 오로지 인간의 자유와 후생을 확대하는 데 기여해야 하고, 개인과 사회의 안전에 위협이 되지 않아야 한다"고 강조했다.

윤 대통령은 "챗GPT를 비롯한 생성형 AI의 등장이 우리 삶의 편익을 증진하고 산업 생산성을 높여주었지만 디지털 격차가 경제 격차를 악화시켰다. 또 급증하는 가짜뉴스가 우리의 자유를 위축시키고 선거 등 민주주의 시스템을 위협할 수 있다"고 진단했다. 이어 "AI를 비롯한 디지털은 누구나 경쟁과 혁신의 기회를 공정하게 보장받고, 디지털이 만드는 혜택을 사회 전체가 골고루 향유할 수 있어야 한다"고 했다.

정상회의에서는 여러 중요한 성과가 도출됐다. 참여국들은 '블레츨리 파크 선언(Bletchley Park Declaration)'에 서명함으로써 공유된 AI 안전 표준을 함께 작업하기로 약속했으며, 이는 AI 시스템에 대한 규제 강화 및 국제적 협력을 도모하는 데 중요한 첫걸음이 됐다. 또한 AI 기업들은 AI 제품이 시장에 출시되기 전에 규제 기관에서 이를 검토하고 안전 테스트에 협력하기로 하는 비구속적인 합의에 도달했고, 이를 통해 민간 부문과 정부 간의 협력을 증진하려는 의지도 표명됐다.

그러나 결국 자국의 이익을 위한 AI 관련 규범 체계를 어떻게 구축할지가 중요한 과제로 남았다.

associate_pic
{워싱턴=AP/뉴시스]조 바이든 미 대통령이 21일(현지 시간) 백악관에서 아마존, 오픈AI, 메타 등 7개 기술기업 경영자들이 인공지능 기술의 위험을 자발적으로 규제하기로 합의했음을 발표하고 있다. 2023.7.22.

◆세계는 AI 규범 정립 중…"AI가 국가 경쟁력"

AI 안전성 정상회의에 참석한 국가들은 각자의 AI 윤리 기준을 확립하고 신뢰할 수 있는 AI의 개발과 사용 방안에 대해 논의하며 구체적인 정책을 마련하고 있다.

대표적으로 2023년 10월 31일 미국 바이든 대통령의 행정명령 서명, 2023년 12월 9일 유럽연합(EU)의 AI법안 제정 합의 등이다. 미국은 자율적인 기업 중심의 접근 방식을 통해 혁신을 장려하는 한편, EU는 시민의 기본권을 보호하고 AI 기술의 투명성과 신뢰성을 높이기 위해 엄격한 규제 체계를 마련하고 있다.

구체적으로 미국의 행정명령은 주로 정부 부처에 대한 지침을 제시하고 있으며, 미국 내부의 AI 기술 개발과 활용에 대한 안전, 보안, 신뢰성에 중점을 두고 있다. 반면, EU는 전체 회원국을 대상으로 일관된 규제 프레임워크를 수립하고 있으며, AI 시스템을 위험 수준에 따라 분류하고 규제를 부과한다.

박성필 한국과학기술원(카이스트) 문술미래전략대학원장은 "EU는 좀 더 규제 중심, 미국은 좀 더 시장 중심의 규제"라고 분석했다. 미국의 AI 행정명령에 대해선 "미국 행정부가 AI는 국가 안보와 직결되는 문제라는 것을 드러냈다"고 설명했다.

김앤장 법률사무소의 강지원 변호사는 "EU의 AI법안은 내년 초 제정될 예정이며, 24개월 후부터 효력이 발생된다"고 설명했다. 또 "EU의 AI법안은 상당히 과도한 규제"라며 "현 시점에서 AI 산업이 예측할 수 없을 정도로 변화 속도가 빠른데, 내년, 내후년에 이 법안이 현실적으로 타당한지에 대한 우려들이 벌써 나올 정도"라고 전했다.

우리 정부도 최근 'AI 시스템 신뢰성 제고를 위한 요구사항' 정보통신단체표준을 제정했다. 이 표준은 과학기술정보통신부의 '국가 AI 윤리기준', 분야별 '신뢰할 수 있는 AI 개발안내서'를 기반으로 AI 시스템 신뢰성 구성요소와 요구사항을 제시한다.

이 외에도 우리 정부는 AI 윤리 정립을 위한 노력을 지속해 나가고 있다. 최근엔 'AI 시대, 글로벌 규범 논의 주도를 위한 간담회'를 개최하고, AI 윤리 정립을 위한 방안을 논의했다.

박윤규 과학기술정보통신부 제2차관은 "AI 규범을 어떤 방향으로 가져가는지 따라서 자국의 AI 경쟁력을 확보할 수 있는 중요한 순간에 와 있다"고 강조했다. 또 "우리나라는 독자적인 AI 생태계를 보유하고 있는 글로벌 시장에서도 경쟁력을 인정받고 있는 몇 안 되는 국가다. 우리의 산업 환경과 사회·문화적 맥락을 고려한 정책 방향을 설정해 나가는 것이 무엇보다 중요하다"고 밝혔다.

아울러 "미국식 자율규제와 EU의 강력한 규제 등 서로 다른 규율이 추진되는 상황 속에서 우리나라는 우리에게 주어진 혁신의 기회를 잘 살리면서, 개인과 사회의 안전에 위협이 되지 않도록 하는 균형적 접근이 중요하다"고 제언했다.

한편 우리나라는 내년 5월 AI 안전성 정상회의의 주최국으로서 AI에 대한 의제를 주도적으로 제안할 수 있도록 앞으로 정립해나갈 AI 규범 방향에 대해 계속 논의하기로 했다.


◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지
  • 페이스북
  • 트위터
  • 카카오스토리
  • 이메일
  • 프린트
  • 리플
위클리뉴시스 정기구독 안내