연합뉴스 본문 바로가기 메뉴 바로가기

연합뉴스 최신기사
뉴스 검색어 입력 양식

"딥페이크, 사회·국가적 혼란 초래 우려…AI로 AI 악용 막아야"

송고시간2022-08-06 11:20

SW정책연구소 '긍정적 AI' 활용 산학연 연구·개발 제언

'딥페이크'(deepfake) (PG)
'딥페이크'(deepfake) (PG)

[장현경 제작] 일러스트

(서울=연합뉴스) 임성호 기자 = 러시아-우크라이나 전쟁이 한창이던 올해 3월, 볼로디미르 젤렌스키 우크라이나 대통령이 러시아에 항복을 선언하는 내용의 영상이 유튜브와 페이스북 등에 유포됐다.

물론 이는 실제로 젤렌스키 대통령을 촬영한 영상이 아니었다. 누군가 그를 정교하게 가장한 딥페이크(deepfake) 영상을 올려 허위 정보를 전파하려고 한 것이다.

젤렌스키 대통령이 즉각 반박성 메시지를 내고 SNS들도 이를 삭제하며 실제 전황에 영향이 미치지는 않았지만, 우크라이나군 등이 이를 실제로 믿었다면 큰 혼란이 빚어졌을 가능성이 있다.

이 사례처럼 인공지능(AI)에 기반한 딥페이크 기술이 단순 개인의 인권침해를 넘어 국가·사회적 혼란까지도 초래할 우려가 있어 기술·제도적 대응을 통해 악용을 방지해야 한다고 6일 소프트웨어정책연구소가 제언했다.

딥페이크는 '딥러닝'(deep learning)'과 '페이크'(fake)를 합성한 말로, 인공지능(AI)을 기반으로 얼굴 생김새나 음성 등을 실제처럼 조작한 영상 등을 통칭한다.

연구소가 최근 발간한 '인공지능의 악용 사례, 딥페이크 기술과 과제' 보고서에 따르면 딥페이크는 '생성적 적대 신경망'(GAN, Generative Adversarial Network)이라는 AI 기술을 통해 만들어진다.

그럴듯한 가짜 이미지를 생성(Generative)하고, 생성·감별 기능을 하는 두 개의 딥러닝 네트워크가 서로 적대적(Adversarial)으로 경쟁·학습하며 더 나은 결과를 만들어내는 강화학습 방식의 기술이다.

딥페이크 사례
딥페이크 사례

[소프트웨어정책연구소 보고서 캡처. 재판매 및 DB 금지]

보고서에 따르면 GAN은 본래 실제와 가상의 이미지를 더 정밀하게 구별해 구현하기 위한 기술로 개발됐다. 영상이나 이미지를 정교하게 편집하거나 더 실감 나는 콘텐츠를 제작하고, 손상된 영상을 복원하는 등 생산적인 용도로 쓰일 수 있는 기술이다. 어도비의 포토샵 등에도 이 기술이 활용됐다.

그러나 이 기술이 가짜뉴스 등에 악용돼 국가 안보 등에 악영향을 미치는 것을 막기 위해 국가·사회적 차원에서 대응에 나서야 한다고 보고서는 강조했다.

우선 사회 문제를 해결하고 인류 행복에 기여하는 '긍정적 AI'(AI for Good)를 만들어 AI로 AI를 막아야 한다고 보고서는 제안했다.

산학연이 힘을 합쳐 이런 AI를 활용한 연구·개발 과제를 진행할 수 있도록 지원해야 한다는 것이다.

특히 미디어와 금융, 치안 등 특정 분야에서 GAN을 악용하는 사례를 전문적으로 감지하는 AI 개발을 다각적으로 시도해야 한다고 보고서는 덧붙였다.

또 지방자치단체와 협력해 시민이 직접 참여할 수 있는 생활 속 AI 활용 프로젝트나 경진대회 등을 추진하고, 집단지성을 활용해 개발한 AI 기술력을 확보하는 것도 중요하다고 보고서는 부연했다.

보고서를 작성한 안성원 소프트웨어정책연구소 AI정책연구팀 선임연구원은 "과거부터 기술은 소위 '혁명'으로 불리며 인류의 역사를 바꿔놨다"면서 "기술의 본질을 이해하며 올바르게 활용하되 부작용을 최소화하기 위한 모두의 노력이 필요한 때"라고 말했다.

sh@yna.co.kr

댓글쓰기
에디터스 픽Editor's Picks

영상

뉴스
댓글 많은 뉴스