뉴스투데이정동욱

목소리 10초 만으로 뚝딱‥막을 방법 없나?

입력 | 2024-08-22 07:28   수정 | 2024-08-22 07:29

Your browser doesn't support HTML5 video.

◀ 앵커 ▶

피해자들에겐 큰 상처를 남길 수 있는 딥페이크 영상.

영상이 유통되기 전에 차단하거나 가려내는 방법은 없는 건지, 정동욱 기자가 취재했습니다.

◀ 리포트 ▶

사진 한 장에 뉴스 영상에서 뽑아낸 10초 분량의 음성.

AI 기자를 만드는데 필요한 재료입니다.

불과 몇 분만에 표정과 목소리가 거의 똑같은 가상인간이 등장했습니다.

[AI 생성 영상]
″AI 정동욱 기자입니다. 제 모습과 다른 점을 찾을 수 있나요?″

이만큼 정교하진 않지만, 스마트폰 앱으로도 ′얼굴 바꾸기′ 영상은 뚝딱 만들 수 있습니다.

부작용이 계속 지적되자 한편에선 AI로 생성된 영상을 AI가 가려내는 기술도 개발되고 있습니다.

중국에서 사업 중이라 자신을 소개하는 러시아 여성 나타샤.

이 영상을 딥페이크 탐지 프로그램에 입력하자 가짜라고 나옵니다.

알고 보니 다른 사람의 얼굴을 딥페이크 기술로 본뜬 거였습니다.

[올가 로이에크/우크라이나 대학생]
″나와 같은 얼굴과 목소리를 갖고 있으며 중국어를 유창하게 구사합니다.″

AI로 생성된 영상 특유의 데이터가 있는데 이걸 학습한 AI가 진위를 가려낸 겁니다.

[이정수/생성형 AI 전문기업 이사]
″원리는 이제 리얼 데이터하고 페이크 데이터를 50대 50으로 학습을 시키는 거고요…(중략) 변조율이 50% 이상일 경우에는 페이크(가짜)로 선별을 하고 있고요.″

구글·오픈AI 등 빅테크 기업들도 대책을 내놓고 있습니다.

유명인이나 사람이 관여된 폭력·음란·혐오 이미지는 아예 생성을 금지하고, 눈에 안 보이는 식별표인 ′디지털 워터마크′를 삽입하는 식입니다.

기술이 악용되는 건 결국 인간이 내린 선택 때문, 안전한 발전을 위해 규칙을 만드는 것 역시 기술을 만들고 사용하는 인간의 몫입니다.

MBC뉴스 정동욱입니다.