[시사뉴스 홍경의 기자] 불특정 다수 여성 얼굴에 음란물을 합성한 뒤 이를 텔레그램방에서 유포하는 ‘딥페이크 성범죄 영상물’ 사태가 일파만파 확대되고 있다. 딥페이크 성범죄물이 텔레그램 단체 대화방에 공유되어 중·고등·대학교 여성들의 불안감이 커지고 있는 현실이다. 딥페이크 범죄가 점점 지능화되고 있어 이에 걸맞은 수사와 수사 권한 확대가 절실한 상황이다.
불법 딥페이크 피해 공포감 확산
최근 사회관계망서비스(SNS)에 ‘텔레그램 딥페이크 피해학교 명단’이라는 게시물이 온라인상에 공유되면서 경찰 수사를 통해 피해 사실 여부와 규모가 확인되지는 않았지만, 여학생들과 학부모들 사이에서 ‘혹시 내 사진도 범죄에 악용됐을까’하는 공포감과 불안감이 커지고 있다.
딥페이크란 AI를 활용해 실제와 거의 구분하기 힘들 정도로 정교한 가짜 사진·영상을 만들어내는 기술을 말한다. 특정 텔레그램 채널에서 운영되는 봇 프로그램에 사진을 올리면 사진 속 얼굴과 나체 사진을 합성한 사진을 완성하는 형태다.
지난달 28일 정보기술(IT) 업계에 따르면, 구글플레이 등 스마트폰 앱스토어에서 ‘딥페이크’, ‘AI 얼굴 합성’, ‘AI 페이스 스왑’ 등 관련 키워드를 검색하면 수십 개의 관련 서비스 앱들이 뜰 정도로 유·무료 AI 영상 편집 프로그램들이 쏟아져 나오고 있다.
이들 서비스는 ‘얼굴 바꾸기’ ‘성별 바꾸기’, ‘목소리 전환’ 등의 기능이 가능하다. AI 기술을 통해 실제 영상과 가짜 영상을 식별하기 어려울 정도로 정교해졌다.
딥페이크 불법 영상의 심각성은 누구나 쉽게 스마트폰에서 제작할 수 있다는 점이다. 이렇다 보니 유독 딥페이크 불법 범죄에 10대가 많다.
지난달 21일 조은희 국민의힘 의원실이 경찰청에서 받은 ‘딥페이크 범죄 현황’에 따르면 허위 영상물 관련 범죄 건수는 지난 2021년 156건에서 2022년 160건, 지난해 180건으로 증가했다.
허위 영상물을 만들어 배포해 입건된 10대는 지난 2021년 51명, 2022년 52명, 지난해 91명, 지난 1월부터 7월까지 131명이었다. 특히, 최근 4년간 입건된 피의자 중 70.5%(325명)가 10대였다. 텔레그램에는 전국 초·중·고·대학 이름이나 ‘지능방(지인능욕방)’ ‘겹(겹치는)지인방’ 등의 이름으로 딥페이크 합성물을 제작 및 유포하는 불법 대화방이 빠른 속도로 생겨났다.
지난 2019년 이른바 ‘n번방 사건’을 계기로 만들어진 ‘성폭력범죄 처벌에 관한 특례법’으로 딥페이크 성범죄 관련 처벌이 가능하다. 사람의 얼굴·신체, 음성 촬영 및 영상물을 음란하게 편집·합성하거나 유포하면 5년 이하의 징역 또는 5,000만 원 이하의 벌금에 처한다.
다만, 딥페이크 허위 영상물을 유포할 목적으로 제작했다는 점이 입증돼야 하며 단순히 시청하거나 소지할 경우 처벌할 규정이 없다. 또 딥페이크 불법 음란물 제작에 대한 처벌 수위가 너무 낮다는 지적도 있다. 허위 영상물의 경우 편집·합성·가공·반포(유포)한 자에게 처벌할 수 있지만, 소지·구입·저장·시청한 자를 처벌하는 조항이 없는 현실이다.
김명주 서울여자대학교 정보보호학과 교수는 “지금까지 법원에서 처벌된 건 70건 남짓이다. 그중 반 이상은 집행유예로 풀려나고, 실제 징역을 산 사람은 5~6건 정도”라며 “‘(현행 구조하에) 범죄를 저질러도 큰 처벌을 받지 않는다’라는 사회적 인식을 줄 수 있어 힘이 빠지는 규제”라고 말했다.
딥페이크는 앞으로가 더 큰 문제다. AI 기술이 텍스트 데이터 기반에서 영상·음성 데이터까지 포괄적으로 처리하는 멀티모달 방식으로 진화하고 있고 이런 기술이 범죄자들에게 악용될 경우 심각한 상황이 될 수 있다. 가령, 그동안 딥페이크 기술은 특정인을 다른 영상물에 합성하는 수준에 불과했다면 이제는 특정 시나리오를 작성해 허위 영상을 창작할 수 있다는 얘기다.
딥페이크 악용 대응…“윤리 교육 병행해야”
정교한 딥페이크 영상 기술이 발전하면서 이를 악용하는 범죄도 빠르게 늘고 있지만 이를 통제할 방법이 마땅치 않은 게 작금의 현실이다.
딥페이크 합성물을 유포, 공유하는 범죄가 지속되고 있음에도 수사가 제대로 진행되기는 어렵다는 지적도 나온다. 텔레그램이 해외에 서버를 두고 있어 수사 기관의 추적에 어려움이 있기 때문이다. 일각에서는 ‘위장 수사’ 범위를 넓히는 등 수사 권한 확대가 필요하다고 주장한다.
이윤호 동국대 경찰행정학과 교수는 “딥페이크 사태는 기존 법으로 처벌할 수 없는 새로운 유형의 범죄 형태”라며 “기술 발전에 맞는 새로운 수사 기법과 딥페이크 범죄를 처벌할 수 있는 특별법 제정이 필요하다”고 제언했다.
딥페이크를 악용한 불법 합성물이 증가하면서 이를 막을 제도가 부실했기 때문이라는 지적이 나오고 있다. 이에 국회가 딥페이크 악용을 막을 관련 법안을 잇달아 발의하고 정부도 대응책 나서고 있다.
딥페이크 범죄 확산을 막을 방안을 보면 ▲성범죄 관련 딥페이크 콘텐츠 제작 처벌 강화·콘텐츠 소지에 대한 처벌 도입 ▲저작자 등을 밝히는 표식(워터마크) 표기 의무화 ▲콘텐츠를 유통하는 플랫폼 기업의 모니터링 강화 등이다. 하지만, 어떤 규제로든 현실적으로 모든 유형의 딥페이크 성범죄를 막을 순 없기에 빠르게 진화되고 있는 디지털 기술 변화와 새로운 성인지 감수성에 맞는 미디어 윤리 의식과 교육 시스템이 동반돼야 한다고 입을 모은다. 결국 생성형 AI 기술 악용에 대응하는 규제와 함께 기술을 안전하고 올바르게 쓰는 방법을 교육하는 게 병행해야 한다고 강조한다.
일각에선 이번 사태로 딥페이크 기술 활용이 크게 위축되는 것 아니냐는 우려의 목소리도 나오고 있다. 딥페이크 관련 개발자는 “딥페이크 자체는 나쁜 기술이 아니다. 드라마, 영화 등 영상 콘텐츠 분야에서는 지금까지 촬영할 수 없었던 장면도 연출할 수 있도록 돕고 있다”며 “이번 사태로 자칫 AI 기술에 대한 부정적인 인식을 심어줄지 걱정된다”고 우려했다.