인공지능(AI)으로 만든 정보임을 표시하여 딥페이크의 식별 가능성을 높이고 위험을 예방해야

- 국회 국회입법조사처 자료제공

김효범 승인 2024.10.17 17:59 의견 0

국회입법조사처(처장 박상철)는 2024년 10월 18일(금), 「딥페이크 식별을 위한 AI 생성물 표시 의무 입법 방안」에 대한 『이슈와 논점』 보고서를 발간하였다.

인공지능(AI)


딥페이크는 인공지능(AI)으로 만든 가상의 정보이지만 실제 사실처럼 정교해서 사람들이 가짜임을 구분하기가 어렵다. 현실감 넘치는 콘텐츠 제작에 유용하게 사용되기도 하지만, 타인 사칭 범죄나 합성음란물에 악용되어 사회적 혼란과 개인의 피해를 초래하기도 한다. 따라서 AI로 만든 정보임을 표시하여 사람들이 딥페이크를 쉽게 식별하고 위험을 예방하게 할 필요가 있다.

현재 시행 중인 유럽연합 「인공지능법」과 미국 「인공지능 행정명령」, 국내에 발의된 다수의 인공지능법안 내용을 기반으로 AI로 만든 정보임을 표시하도록 하는 입법 방안을 모색해 보면 다음과 같다.

첫째, 표시 의무 적용 범위는 ‘AI로 생성한 콘텐츠’로 설정하여 명확성을 높이고, 대신 피해 가능성이 낮은 분야는 예외로 설정하는 것이 적절하다. ‘실제와 구분하기 어려운’ 등의 요건을 추가할 경우 판단 과정에 주관성이 개입되어 법률 집행의 혼란이 발생할 우려가 있다.

둘째, AI 모델을 개발·판매하는 자에게는 기계 판독 가능한(machine- readable) 메타정보 제공과 같은 식별가능성 확보 의무를 부과하고, AI 모델을 자신의 제품·서비스에 활용하는 자에게는 AI로 생성된 정보임을 표시하는 의무를 부과하여 딥페이크의 대량생산에 대응하는 것이 필요하다. 이용자가 직접 오픈소스 등으로 AI를 만들어 생성한 콘텐츠는 타인에게 공개·제공될 때 표시하도록 규정할 수 있다. 딥페이크 콘텐츠를 유통하는 온라인 플랫폼은 적법한 표시 의무를 이행하지 않은 콘텐츠에 대한 처리 방침을 명확히 공개하고, 부적절한 표시가 되었다고 발견·신고된 콘텐츠에 대해서는 삭제 또는 임시조치하도록 할 필요가 있다.

셋째, 정부는 AI 생성물 표시 제도의 정착을 위해 관련 기술의 개발, 국제협력, 국민의 디지털 리터러시 함양을 지원해야 할 것이다.

저작권자 ⓒ 한국안전뉴스, 무단 전재 및 재배포 금지