본문 바로가기 메뉴 바로가기
뉴스투데이
기자이미지 정동욱

목소리 10초 만으로 뚝딱‥막을 방법 없나?

목소리 10초 만으로 뚝딱‥막을 방법 없나?
입력 2024-08-22 07:28 | 수정 2024-08-22 07:29
재생목록
    ◀ 앵커 ▶

    피해자들에겐 큰 상처를 남길 수 있는 딥페이크 영상.

    영상이 유통되기 전에 차단하거나 가려내는 방법은 없는 건지, 정동욱 기자가 취재했습니다.

    ◀ 리포트 ▶

    사진 한 장에 뉴스 영상에서 뽑아낸 10초 분량의 음성.

    AI 기자를 만드는데 필요한 재료입니다.

    불과 몇 분만에 표정과 목소리가 거의 똑같은 가상인간이 등장했습니다.

    [AI 생성 영상]
    "AI 정동욱 기자입니다. 제 모습과 다른 점을 찾을 수 있나요?"

    이만큼 정교하진 않지만, 스마트폰 앱으로도 '얼굴 바꾸기' 영상은 뚝딱 만들 수 있습니다.

    부작용이 계속 지적되자 한편에선 AI로 생성된 영상을 AI가 가려내는 기술도 개발되고 있습니다.

    중국에서 사업 중이라 자신을 소개하는 러시아 여성 나타샤.

    이 영상을 딥페이크 탐지 프로그램에 입력하자 가짜라고 나옵니다.

    알고 보니 다른 사람의 얼굴을 딥페이크 기술로 본뜬 거였습니다.

    [올가 로이에크/우크라이나 대학생]
    "나와 같은 얼굴과 목소리를 갖고 있으며 중국어를 유창하게 구사합니다."

    AI로 생성된 영상 특유의 데이터가 있는데 이걸 학습한 AI가 진위를 가려낸 겁니다.

    [이정수/생성형 AI 전문기업 이사]
    "원리는 이제 리얼 데이터하고 페이크 데이터를 50대 50으로 학습을 시키는 거고요…(중략) 변조율이 50% 이상일 경우에는 페이크(가짜)로 선별을 하고 있고요."

    구글·오픈AI 등 빅테크 기업들도 대책을 내놓고 있습니다.

    유명인이나 사람이 관여된 폭력·음란·혐오 이미지는 아예 생성을 금지하고, 눈에 안 보이는 식별표인 '디지털 워터마크'를 삽입하는 식입니다.

    기술이 악용되는 건 결국 인간이 내린 선택 때문, 안전한 발전을 위해 규칙을 만드는 것 역시 기술을 만들고 사용하는 인간의 몫입니다.

    MBC뉴스 정동욱입니다.

    MBC 뉴스는 24시간 여러분의 제보를 기다립니다.

    ▷ 전화 02-784-4000
    ▷ 이메일 mbcjebo@mbc.co.kr
    ▷ 카카오톡 @mbc제보

    당신의 의견을 남겨주세요

      인기 키워드

        취재플러스

              14F

                엠빅뉴스