◀ 앵커 ▶
전쟁은 분명한 비극인데, 조회수를 노리고 돈벌이에 악용하는 사례.
이번 중동 전쟁도 예외는 아닙니다.
참혹한 현장을 만들어낸 가짜 AI 영상이 쏟아지고 있는데요.
문제는 AI가 만든 영상을 AI가 못 걸러낼 정도로 정교해졌다는 겁니다.
오해정 기자가 보도합니다.
◀ 리포트 ▶
바레인 수도 마나마의 초고층 빌딩 마나마 타워가, 드론의 공격을 받고 화염에 휩싸입니다.
세계에서 가장 높은 건물.
아랍에미리트 두바이의 부르즈 할리파에서도 불길이 치솟더니 급기야 건물이 쓰러집니다.
이란이 중동을 향해 보복 공격에 나선 것처럼 보이지만, 모두 가짜 영상입니다.
전쟁과 재난에 대한 '딥페이크' 가짜 뉴스가 처음은 아니지만, 문제는 AI가 만든 걸 AI조차 못 걸러낼 정도로 정교해졌다는 겁니다.
영국 공영방송 BBC는 "상당수는 AI가 실제 현장 영상에 정교한 화염과 연기, 미사일 궤적을 덧입힌 '하이브리드 조작' 형태였다"고 분석하면서, "수만 건 조회수를 기록한 가짜 영상을 AI챗봇인 '그록'도 잡아내지 못했다"고 전했습니다.
더구나 최근 1년 새 챗GPT와 제미나이에 이어 영상 AI서비스 '소라', '베오' 등이 공급돼, 누구나 가짜 영상을 만들 수 있게 됐습니다
[AP뉴스]
"자극적인 영상을 공유하기 전에, 화면에서 시각적으로 이상한 점이 있나 확인하고, 신뢰할 수 있는 뉴스 출처를 확인하세요."
지난 1월 미군의 베네수엘라 마두로 대통령 체포 당시, 일부 남미 언론은 AI 가짜 사진을 현장사진으로 잘못 보도하기도 했습니다.
BBC와 AP 등 언론들은 팩트체크 사이트를 통해 영상이 사실인지 여부를 검증해 제공하면서, 가짜 영상 판별법도 공유하고 있습니다.
자세히 보면 사람 손 모양이 부자연스럽거나 도로 위 차량이 서로 겹쳐 보이는 등 딥페이크 영상 특유의 오류가 관찰된다는 겁니다.
또, 가짜 영상이 주로 퍼지는 SNS 중에선 '엑스'가 무력 충돌을 다루는 AI 영상이, AI 제작 표시를 하지 않으면 90일간 수익창출을 막고 재차 적발 시 영구 제명하기로 했습니다.
MBC뉴스 오해정입니다.
영상편집 : 김기우
MBC 뉴스는 24시간 여러분의 제보를 기다립니다.
▷ 전화 02-784-4000
▷ 이메일 mbcjebo@mbc.co.kr
▷ 카카오톡 @mbc제보
뉴스데스크
오해정
오해정
화염 휩싸인 두바이?!‥"AI 만든 가짜 영상, AI도 못 걸렀다"
화염 휩싸인 두바이?!‥"AI 만든 가짜 영상, AI도 못 걸렀다"
입력
2026-03-10 20:09
|
수정 2026-03-10 21:33
당신의 의견을 남겨주세요