◀ 앵커 ▶
딥페이크 영상은 누구나 손쉽게 만들 수 있는데요.
이런 편의성은 기술적 측면에서는 강점이지만 범죄에 쉽게 악용될 수 있다는 점에선 문제입니다.
아예 영상이 유통되기 전에 차단하거나 가려내는 방법은 없는 건지, 정동욱 기자가 취재했습니다.
◀ 리포트 ▶
사진 한 장에 뉴스 영상에서 뽑아낸 10초 분량의 음성.
AI 기자를 만드는데 필요한 재료입니다.
불과 몇분 만에 표정과 목소리가 거의 똑같은 가상인간이 등장했습니다.
[AI 생성 영상]
"AI 정동욱 기자입니다. 제 모습과 다른 점을 찾을 수 있나요?"
이만큼 정교하진 않지만, 스마트폰 앱으로도 '얼굴 바꾸기' 영상은 뚝딱 만들 수 있습니다.
수많은 얼굴을 내맘대로 합성하고 성별까지 바꿉니다.
문제는 이런 식의 AI 도구가 선거나 성범죄에 악용될 수 있다는 점입니다.
부작용이 계속 지적되자 한편에선 AI로 생성된 영상을 AI가 가려내는 기술도 개발되고 있습니다.
중국에서 사업 중이라 자신을 소개하는 러시아 여성 나타샤.
이 영상을 딥페이크 탐지 프로그램에 입력하자 가짜라고 나옵니다.
알고보니 다른 사람의 얼굴을 딥페이크 기술로 본 뜬 거였습니다.
[올가 로이에크/우크라이나 대학생]
"나와 같은 얼굴과 목소리를 갖고 있으며 중국어를 유창하게 구사합니다."
AI로 생성된 영상 특유의 데이터가 있는데 이걸 학습한 AI가 진위를 가려낸 겁니다.
[이정수/생성형 AI 전문기업 이사]
"원리는 이제 리얼 데이터하고 페이크 데이터를 50대 50으로 학습을 시키는 거고요…변조율이 50% 이상일 경우에는 페이크(가짜)로 선별을 하고 있고요."
구글·오픈AI 등 빅테크 기업들도 대책을 내놓고 있습니다.
유명인이나 사람이 관여된 폭력·음란·혐오 이미지는 아예 생성을 금지하고, 눈에 안보이는 식별표인 '디지털 워터마크'를 삽입하는 식입니다.
[제이슨 권/오픈AI 최고전략책임자 (지난 12일, 서울AI정책컨퍼런스)]
"'우리가 AI를 어떻게 통제할까'는 계속 문제일 것이고 우리는 그걸 인간의 문제로 간주합니다."
기술이 악용되는 건 결국 인간이 내린 선택 때문, 안전한 발전을 위해 규칙을 만드는 것 역시 기술을 만들고 사용하는 인간의 몫입니다.
MBC뉴스 정동욱입니다.
영상취재: 우성훈 / 영상편집: 조민우 / 영상출처: open AI, Google
MBC 뉴스는 24시간 여러분의 제보를 기다립니다.
▷ 전화 02-784-4000
▷ 이메일 mbcjebo@mbc.co.kr
▷ 카카오톡 @mbc제보
뉴스데스크
정동욱
순식간에 딥페이크 '뚝딱' 막을 방법 없을까
순식간에 딥페이크 '뚝딱' 막을 방법 없을까
입력
2024-08-21 20:14
|
수정 2024-08-21 20:57
당신의 의견을 남겨주세요