IT > IT

[넷플 '정이'로 본 AI 윤리③]'인간 중심' 법 정비…세계적 흐름

등록 2023-01-30 06:01:00   최종수정 2023-01-30 16:25:29
  • 크게
  • 작게
  • 페이스북
  • 트위터
  • 카카오스토리
  • 이메일
  • 프린트

'정이' '챗GPT' 인기로 AI 윤리 관심도 커져

'윤리' 논문↑…전 세계 AI 윤리 중요성 인식

EU-美, AI 법안…유네스코, AI 윤리 권고 채택

韓 '사람 중심 AI' 핵심…AI 기본법 제정 추진

associate_pic
[서울=뉴시스] 오동현 기자 = 최근 인공지능(AI) 휴머노이드(인간 로봇)를 소재로 한 넷플릭스 공상과학(SF) 영화 '정이'와 AI 대화형 챗봇 서비스 '챗GPT'의 인기로 AI 윤리에 대한 전 세계적인 관심이 고조되고 있다. 

한국과학기술정보연구원(KISTI)에 따르면 2015년 이후 AI 컨퍼런스에서 '윤리(ethics)' 키워드가 포함된 제목의 논문이 증가하는 등 세계 각국은 AI 윤리의 중요성을 인식하고 있다.

신뢰할 수 있는 AI 실현을 위해 발생 가능한 사회·윤리적 쟁점을 지속적으로 논의하며 다가오는 AI 시대에 대비하고 있는 것이다.

◆EU-미국, AI 관련 법안 마련…유네스코, AI 윤리 권고 채택

30일 업계에 따르면 세계 각국은 AI의 활용·확산 과정에서 위험이나 부작용 등을 방지하기 위한 방안을 마련하고 있다.

2019년 5월 42개 국가는 AI 시스템을 공정하며 신뢰할 수 있는 방식으로 설계하는데 동의하는 AI에 관한 OECD 원칙에 서명했다. 유럽연합(EU)에서는 2019년 4월 '신뢰할 수 있는 AI를 위한 윤리 지침'을 제시했고, 2021년 4월 세계 최초로 '인공지능 법안(Artificial Intelligence Act)'을 발표했다.

미국에서도 2019년부터 AI를 규제하기 위한 법안을 도입하고 있으며, 구글·마이크로소프트 등의 주요 기업을 중심으로 윤리적인 AI 실현을 위한 자율적인 AI 개발 원칙을 마련했다.

유네스코 본부는 '유네스코 인공지능 윤리 권고'를 채택했다. '권고'는 국제법인 '협약'보다는 약하지만 '선언'보다는 구속력이 있다. AI 개발과 관련된 윤리적 과제에 대응하고 사생활과 자율성의 가치와 안전과 안보의 가치가 신중하게 균형을 맞출 수 있도록 한 최초의 세계적 표준으로 기능한다.

◆한국, '사람 중심의 AI' 핵심…정부, AI 기본법 제정 추진


우리 기업과 정부도 AI 윤리 기준 정립에 나섰다.

네이버는 서울대학교와 함께 만든 '네이버 AI 윤리 준칙'을 발표했고, 카카오는 전 직원을 대상으로 AI 윤리 교육을 실시했다. CJ 올리브네트웍스는 '인간' 중심의 5대 AI 윤리원칙 선포했고, 스마일게이트 AI센터는 AI 윤리성 연구를 위한 혐오 발언 데이터를 구축하고 공개했다.

정부는 지난 2020년 12월 과학기술정보통신부와 정보통신정책연구원이 마련한 'AI 윤리기준'을 심의 의결했다. '사람 중심의 인공지능'이 핵심 키워드다. 최고가치 인간성을 위한 3대 기본원칙과 10대 핵심요건을 제시하고 있다. 모든 AI는 '인간성을 위한 인공지능'을 지향하고, '인간의 정신과 신체에 해롭지 않도록 개발되고 활용돼야 한다'는 것을 명시하고 있다.

나아가 지난 26일에는 한덕수 국무총리 주재로 제2차 국가데이터정책위원회를 열고 '전국민의 AI 일상화' 프로젝트를 본격적으로 추진하겠다고 밝혔다. 과학기술정보통신부는 AI 법·제도 정립을 위해 '디지털 권리장전'과 '인공지능 기본법' 제정을 지원키로 했다. 또 AI 도입·확산에 대응해 법·제도·규제 정비 로드맵을 새롭게 수립하고, '인공지능 신뢰성 검·인증 체계', '인공지능 영향평가 체계'를 마련할 방침이다.
 
◆"기술적 측면과 사회·윤리적 측면 모두 반영…사회적 합의 이뤄져야"

그동안 국가 차원의 AI 윤리는 큰 틀에서만 기준이 마련돼, 세부적인 논의를 바탕으로 한 사회적 합의가 이뤄지지 않았다는 아쉬움이 있었다.

KISTI는 "고위험 AI에 대한 명확한 기준을 설정해 사전에 발생 가능한 문제에 대해 지속적인 논의를 통해 예방할 수 있어야 한다"며 "AI 시대의 다양한 상황에서 어떻게 AI가 사람 중심으로 의사결정을 할 것인지 등에 대해 구체적인 논의가 필요하다. AI 윤리는 AI 자체라기보다 AI를 개발하고 운영하는 규범으로의 윤리라는 점을 인식해야 한다"고 전했다.

특히 AI 활용 활성화를 위해 기술적 측면과 사회·윤리적 측면을 모두 반영한 신뢰할 수 있는 AI 실현 방향을 마련해야 한다고 주장한다.

KISTI는 "현재 AI와 관련된 편향성, 불투명성, 안전성 등 AI의 불완전성을 해결하기 위해 충분한 학습 데이터 구축, 설명 가능한 AI 구현, 표준화된 AI 가이드라인 수립 등 과학기술적 측면의 노력이 요구된다"며 "예방적인 차원에서 AI 윤리에 대해 논의하고 구체적인 기준 마련, 사회적 합의 등을 통해 AI의 사회·윤리적 이슈에 잘 대처해야 한다"고 전했다.

이어 "AI 윤리와 관련된 이슈를 총괄하고 조정하는 거버넌스를 구축할 필요가 있으며, 모든 사람들과의 공유를 통해 신뢰할 수 있는 AI를 위한 인식을 확산해나가야 할 것"이라고 제언했다.


◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지
  • 페이스북
  • 트위터
  • 카카오스토리
  • 이메일
  • 프린트
  • 리플
관련기사
위클리뉴시스 정기구독 안내