본문 바로가기 메뉴 바로가기
5시 뉴스
기자이미지 이지선

[스트레이트] AI가 편집한다지만...포털뉴스 이대로 좋은가?

[스트레이트] AI가 편집한다지만...포털뉴스 이대로 좋은가?
입력 2021-03-07 21:07 | 수정 2021-04-22 10:40
재생목록
    ◀ 허일후 ▶

    다음의 경우에도 편중현상이 나타나는데, 뉴스통신사들의 비중이 높고, 역시 보수언론이 진보언론보다는 훨씬 많이 노출되고 있네요.

    ◀ 성장경 ▶

    포털의 뉴스편집을 분석해보니까, 도대체 왜 이런 결과가 나올까.

    정말 궁금해지는데, AI 알고리즘도 비공개고, 뭐 기준이나 원칙을 설명해주지도 않고.. 참 답답합니다.

    ◀ 이지선 ▶

    네, 바로 그점이 문제입니다.

    인공지능의 뉴스편집에 뭔가 이상한 점이 분명히 있는데, 납득할 수 있게 설명해주지 않는다는 점입니다.

    ◀ 허일후 ▶

    얼핏 듣기에 인공지능, AI라고 하면 왠지모르게 굉장히 객관적일 거라는 느낌을 주잖아요.

    그런데 AI도 결국 사람이 만드는 거 아닙니까.

    ◀ 성장경 ▶

    그렇죠.

    기본적으로는 AI도 사람이 만든 규칙대로 일한다, 이렇게 봐야죠.

    ◀ 이지선 ▶

    그렇습니다.

    게다가 아직 갈길이 먼 이 인공지능 기술에 포털 뉴스라는 공론장을 맡겨놔도 되는지, 포털이 인공지능을 구실삼아 책임을 회피하고 있는 건 아닌지 짚어봤습니다.

    지난 설 연휴중이었던 2월 13일 오후, 포털 다음 뉴스홈의 헤드라인 영역입니다.

    귀경길 정체가 시작됐다는 큰 제목에 관련 기사 2개가 묶음으로 올라와있습니다.

    같은 언론사(뉴스1) 기사만 한꺼번에 세 개씩 올려놓은 것도 이상하지만 그중에 한 기사는 내용도 황당합니다.

    다른 두 기사와 달리 소통이 원활하다는 제목.

    들어가보니 전날 밤 10시 기사입니다.

    이미 하루가 지나 현재 상황에 적용할 수 없는 교통 기사를 헤드라인에 올려놓는 실수를 한 겁니다.

    "포털 인공지능이 전면 뉴스 편집을 한 이후 '단독 같지 않은 단독' 기사가 늘고, 실제 취재한 게 아닌데 '제목 장사' 차원에서 '단독'으로 포장한 기사가 증가했다", 즉, AI가 가짜 단독에 속아넘어간다는 연구결과도 나왔습니다.

    [김승주/고려대 교수]
    "인공지능은 완벽하지 않아요. 프로그램 돼 있고 학습된 대로 잘 해요. 그런데 아주 작은 허점에도 바보처럼 구는 경우들도 있어요."

    AI는 기사의 송고시간, 기사의 길이, 기사 조회수와 이용자가 머문 시간 등 정량화 된 수치 평가는 순식간에 해냅니다.

    하지만 기사가 추구하는 가치가 올바른 지, 다양한 시각이 반영돼 있는지, 의미있는 심층 기사인지 등은 판단하기 어렵습니다.

    [유경한/전북대 교수]
    "공론장에서 필수적으로 봐야하는 정보들이나 뉴스들을 사람들이 충분히 볼 수 있는 기회를 제공해 줄 수 있느냐, 사실 이게 공론장의 가장 큰 운영 원칙이라고 할 수 있는데 이것들이 충분히 이뤄지지 않는다는 거죠. 이용자 선호 말고, 이용자 선호에 기반하지만 그것과 별개의 운영 원칙들이 좀 있어야 되지 않을까…"

    그런데도 네이버 등 우리 포털기업은 모든 뉴스 편집은 AI가 한다며 그 책임도 AI에 떠넘기고 있습니다.

    [김승주/고려대 교수]
    "사람이 뉴스 기사를 고르면 그 사람의 주관에 따라서 편향될 텐데, 인공지능은 완전무결할 거야' 그건 아니라는 겁니다. 사람이 셋팅한 대로, 사람이 학습시킨 대로, 인공지능은 뉴스 기사를 선택하는 거예요. 그 이상도 그 이하도 아닙니다."

    북미시장에서 인공지능으로 뉴스를 편집해 제공하던 페이스북.

    한계를 인정하고 지난해 베테랑 전문 편집인 팀을 꾸렸습니다.

    뉴스판의 최상단에는 편집자 책임하에 고품질 기사를 배치하고 그 아래쪽에 기존의 AI 뉴스편집 결과를 그대로 실었습니다.

    it기업인 동시에 언론으로서의 사회적 책임도 지겠다고 선언한 셈입니다.

    [마크 저커버그]
    "우리는 뉴스편집을 알고리즘에만 맡기는게 아니라, 저널리즘 분야 경험이 있는 사람들로 팀을 구성했습니다. 저는 뉴스편집이 컴퓨터로 할 수 있는 일은 아니라고 생각합니다."

    현재 기술단계에서 AI는 결코 가치중립적이지 않다는게 국내외 전문가들의 공통된 의견입니다.

    [유경한/전북대 교수]
    "전세계적으로 알고리즘의 편향이 발생할 수 있다는 우려가 강하게 제기되고 있고, 특정 대기업의 알고리즘 독점 현상을 가속화 시킬 수 있다는 우려 때문에 이걸 조금 더 사회적으로 설명 가능한 기업의 책임, 사회적 책임을 강화해야한다는 견해들이 높아지고 있습니다."

    "인공지능도 사회적 책임을 져야 한다"

    이 말은 곧, AI가 수행한 작업 결과에 대해 사람이 그 이유를 설명할 수 있어야 한다는 뜻입니다.

    하지만 지금껏 국내 포털사들은 AI의 뉴스편집 기준에 대해 명확하고 구체적인 설명은 내놓지 않고 있습니다.

    [ 김승주/고려대 교수]
    "인공지능의 도입 이유는 사람들이 갖는 불신을 없애기 위해서 한 거란 말이죠. 그런데 인공지능을 했는데도 사람들이 불신을 갖는다면 조금 다른 방법을 생각해 볼 필요가 있어요. 반드시 알고리즘을 100% 다 오픈하진 않더라도 조금만 고민해보면 공개검증을 받을 수 있는 여러가지 방법들이 분명히 나올 수 있거든요. 그런 것들을 적극적으로 수용하려고 해야지 '우린 모른다'식으로 나오면 저는 예전보다 훨씬 더 불신의 벽은 더 높아질 거라 생각합니다."

    ◀ 성장경 ▶

    포털의 뉴스 편중 현상은 심각한 여론 왜곡을 초래할 수 있다는 점에서 결코 가볍게 볼 사안이 아닙니다.

    ◀ 허일후 ▶

    '우리는 언론이 아니다, AI가 다한다'고 핑계만 댈게 아니라 그 영향력에 걸맞는 책임에 대해서도 진지하게 고민할 필요가 있습니다.

    끈질긴 추적 저널리즘 탐사기획 스트레이트 저희는 다음주에 다시 찾아 뵙겠습니다.

    MBC 뉴스는 24시간여러분의 제보를 기다립니다.

    ▷ 전화 02-784-4000
    ▷ 이메일 mbcjebo@mbc.co.kr
    ▷ 카카오톡 @mbc제보

    당신의 의견을 남겨주세요

      인기 키워드

        취재플러스

              14F

                엠빅뉴스