뉴스데스크정동욱

순식간에 딥페이크 '뚝딱' 막을 방법 없을까

입력 | 2024-08-21 20:14   수정 | 2024-08-21 20:57

Your browser doesn't support HTML5 video.

◀ 앵커 ▶

딥페이크 영상은 누구나 손쉽게 만들 수 있는데요.

이런 편의성은 기술적 측면에서는 강점이지만 범죄에 쉽게 악용될 수 있다는 점에선 문제입니다.

아예 영상이 유통되기 전에 차단하거나 가려내는 방법은 없는 건지, 정동욱 기자가 취재했습니다.

◀ 리포트 ▶

사진 한 장에 뉴스 영상에서 뽑아낸 10초 분량의 음성.

AI 기자를 만드는데 필요한 재료입니다.

불과 몇분 만에 표정과 목소리가 거의 똑같은 가상인간이 등장했습니다.

[AI 생성 영상]
″AI 정동욱 기자입니다. 제 모습과 다른 점을 찾을 수 있나요?″

이만큼 정교하진 않지만, 스마트폰 앱으로도 ′얼굴 바꾸기′ 영상은 뚝딱 만들 수 있습니다.

수많은 얼굴을 내맘대로 합성하고 성별까지 바꿉니다.

문제는 이런 식의 AI 도구가 선거나 성범죄에 악용될 수 있다는 점입니다.

부작용이 계속 지적되자 한편에선 AI로 생성된 영상을 AI가 가려내는 기술도 개발되고 있습니다.

중국에서 사업 중이라 자신을 소개하는 러시아 여성 나타샤.

이 영상을 딥페이크 탐지 프로그램에 입력하자 가짜라고 나옵니다.

알고보니 다른 사람의 얼굴을 딥페이크 기술로 본 뜬 거였습니다.

[올가 로이에크/우크라이나 대학생]
″나와 같은 얼굴과 목소리를 갖고 있으며 중국어를 유창하게 구사합니다.″

AI로 생성된 영상 특유의 데이터가 있는데 이걸 학습한 AI가 진위를 가려낸 겁니다.

[이정수/생성형 AI 전문기업 이사]
″원리는 이제 리얼 데이터하고 페이크 데이터를 50대 50으로 학습을 시키는 거고요…변조율이 50% 이상일 경우에는 페이크(가짜)로 선별을 하고 있고요.″

구글·오픈AI 등 빅테크 기업들도 대책을 내놓고 있습니다.

유명인이나 사람이 관여된 폭력·음란·혐오 이미지는 아예 생성을 금지하고, 눈에 안보이는 식별표인 ′디지털 워터마크′를 삽입하는 식입니다.

[제이슨 권/오픈AI 최고전략책임자 (지난 12일, 서울AI정책컨퍼런스)]
″′우리가 AI를 어떻게 통제할까′는 계속 문제일 것이고 우리는 그걸 인간의 문제로 간주합니다.″

기술이 악용되는 건 결국 인간이 내린 선택 때문, 안전한 발전을 위해 규칙을 만드는 것 역시 기술을 만들고 사용하는 인간의 몫입니다.

MBC뉴스 정동욱입니다.

영상취재: 우성훈 / 영상편집: 조민우 / 영상출처: open AI, Google