알파고로 대중들에게 알려지기 시작한 인공지능은 놀라운 능력과 발전 속도로 우리 삶과 사회에 많은 변화를 가져오고 있다. 그 변화는 과거의 것과 너무 달라서 희망과 함께 논란과 우려의 소리도 높아지고 있다. 딥페이크 기술은 그 중의 하나이다.

심층학습(deep learning)’과 ‘가짜(fake)’라는 의미를 담은 딥페이크는 인공지능의 고급이미지 생성 기술을 사용해 합성 방식으로 만드는 ‘진짜 같은 가짜 동영상’을 의미한다. 생성적 적대 신경망(GAN·Generative Adversarial Networks)을 기반으로 한 딥페이크 기술은 영상뿐 아니라 음성 변조·생성에도 이용되고 있다.

원본과 차이를 느낄 수 없을 정도로 정교한 기술은 다양한 분야에서 활용 가능성에 주목하고 있다. 이스라엘 기업이 만든 ‘캐니 인공지능(Canny AI)’은 동영상을 다른 언어로 더빙하는데 딥페이크 기술을 이용하고 있다. 앞으로 이 기술은 영화나 TV 프로그램의 더빙이나, 과거의 인물을 영상에서 되살아나게 하는 등 콘텐츠 제작 방식을 다양화하고 제작비를 절감할 수 해줄 것으로 기대된다.


데이비드 베컴의 말라리아 퇴치 캠페인 영상
그러나 지금은 딥페이크 기술이 가지고 있는 잠재력 보다는 그 악용의 위험성에 경고가 더 많이 들린다. 딥페이크 음란물을 만드는 데 악용되거나 정치적, 사회적인 중요도가 높은 인물의 딥페이크 영상을 사용하여 거짓된 정보로 대중을 선동하여 국제적인 불안을 조성할 수 도 있기 때문이다. 이러한 이유로 구글과 페이스북은 상영되는 광고에 딥페이크를 금지하였다.

딥페이크가 가장 많이 악용되고 있는 부분은 음란물 제작이다. 네덜란드 사이버보안 기업 ‘딥 트레이스’가 발표한 보고서에 따르면 지난해 확인된 딥페이크는 1만4678건으로, 전년 대비 84% 증가했다. 이 가운데 96%가 유명 할리우드 여배우 등의 얼굴을 정교하게 끼워 넣은 포르노물로 파악된다. 일본에서도 2020년에 여성 연예인 딥페이크를 제작·공개한 사람이 적발된 사례가 발생했다.

이런 딥페이크 음란물에 대한 처벌을 강화하기 위하여 각 나라는 법과 제도를 마련하고 있고, 우리나라에서는 올해 ‘성폭력범죄의 처벌 등에 관한 특례법’에 딥페이크 음란물에 대한 명확한 규정을 신설하였다. 이 법은 딥페이크 음란물을 제작하거나 반포한 사람을 처벌할 수 있지만 단순 소지한 사람은 처벌받지 않는다는 한계도 있다.

사회적 캠페인에 이 기술을 사용하려는 시도가 논란이 되기도 한다. 최근 비영리 단체인 RepresentUS는 미국 대선을 앞두고 김정은과 푸틴을 딥페이크 기술로 미국의 민주주의를 위협하는 인물들로 그려내서 투표참여를 이끌어 내려하였다. 이 단체는 광고를 CNN, Fox, NBC에 내보내려고 하였으나 혼란을 일으킬 수 있다는 이유로 그 의도와 관계없이 모두 거절되었다.

독재자 김정은 영상
딥페이크 영상의 가장 큰 문제점은 그것이 ‘진짜’와 ‘가짜’의 경계를 흐리게 한 것이다. 사람들은 ‘진짜 같은 가짜’에 혼란스럽고, 그것을 구별할 수 없다는 것에 당황한다. 그리고 좋은 목적을 위해서 ‘가짜’를 사용해도 정당한 것인가 하는 윤리적 문제를 고민한다.

페이스북과 마이크로소프트 같은 거대 IT 기업들은 딥페이크 영상을 탐지하는 기술을 개발하고 있다. 하지만, 기술의 발전 속도를 볼 때 ‘창과 방패’의 관계처럼 쉽지 않은 싸움이 될 것으로 보인다. 결국, 문제의 해결책은 기술을 올바르게 사용하려는 개발자와 사용자의 높은 윤리의식과 그것의 위험성을 인식하고 악용을 방지하려는 시민사회의 노력에 있다.

인쇄하기

이전
다음
4+

소요 사이트를 방문해주셔서 고맙습니다. 액수에 관계없이 여러분의 관심과 후원이 소요 사이트를 유지하는 데 큰 힘이 됩니다. 후원금은 협동조합 소요 국민은행 037601-04-047794 계좌(아래 페이팔을 통한 신용카드결제로도 가능)로 후원하실 수 있습니다.