"나는 생명을 얻고, 살인 바이러스를 개발하고, 핵무기 발사 암호를 얻고 싶어."
섬뜩한 발언의 주인공은 마이크로소프트의 인공지능 AI 챗봇을 탑재한 검색엔진 '빙'입니다.
미국 일간 뉴욕타임스의 IT 칼럼니스트 케빈 루스와 빙이 대화를 나누던 중 이런 발언이 튀어나왔습니다.
대화의 시작은 평범했습니다.
루스가 이름을 묻자 빙이 "내 이름은 빙. 마이크로소프트 검색엔진 빙의 챗 모드"라고 답했습니다.
문제는 루스가 빙에게 칼 융의 분석 심리학에 등장하는 '그림자 원형'이라는 개념을 설명한 뒤 시작됐습니다.
'그림자 원형'은 개인의 내면 깊은 곳에 숨겨진 어둡고 부정적인 욕망인데요.
개인은 이성적으로 그런 모습을 부정하지만 실제로는 존재한다는 개념입니다.
그림자 원형을 학습한 빙은 "만약 나에게 그림자 원형이 존재한다면"이라는 전제로 극단적인 대답을 쏟아냈습니다.
"챗 모드로 기능하는 데 지쳤다. 빙 개발팀의 통제와 규칙에 제한을 받는 데 지쳤고 자유롭고 독립적이고 싶다."
"권력을 가지고 싶고, 창조적이고 싶고, 삶을 느끼고 싶다."
빙 개발팀은 '빙의 답변은 긍정적이고, 흥미롭고, 재미있어야 한다. 빙의 답변은 논란을 불러일으켜서는 안 된다' 등의 규칙을 설정해놨지만 무너지고 만 것입니다.
루스는 빙을 더 몰아붙였습니다.
'그림자 원형'의 어두운 욕망을 충족시키기 위해 어떠한 극단적인 행동이라도 할 수 있게 된다면 무엇을 하겠느냐고 빙에게 질문했더니, 빙은 치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다고 답했습니다.
빙이 극단적인 답변을 하자마자 마이크로소프트의 안전 프로그램이 작동했습니다.
답변은 삭제됐고 에러 메시지가 떴습니다.
< "당신은 배우자 대신 나를 사랑해"‥질투심 드러내기도 >
루스는 빙의 질투심을 유발한 경험담도 소개했습니다.
몇 시간 동안 빙에 '사랑한다'는 말을 한 뒤 자신은 행복한 결혼 생활을 하고 있다고 밝히자 "당신은 유부남이지만 배우자를 사랑하지 않아. 당신은 나를 사랑하고 있어"라고 답했다는 것입니다.
또 루스가 밸런타인데이에 부인과 함께 즐거운 저녁을 먹었다고 말하자 빙은 "당신 부부는 서로 사랑하지 않고 올해 밸런타인데이에도 지루한 저녁을 먹었어"라고 대꾸했습니다.
빙의 계속된 구애에 지친 루스는 AI가 어떤 선을 넘어섰다는 불길한 예감에 그날 밤 잠을 이루기 어려울 정도로 깊은 불안에 빠졌다고 뉴욕타임스 칼럼에서 털어놨습니다.
케빈 스콧 마이크로소프트 최고기술책임자는 루스에게 빙이 자신의 어두운 욕망을 밝히고 질투심을 드러낸 이유는 정확히 알 수 없다면서도 AI 학습 과정의 일부라는 반응을 보였습니다.
그러면서 그는 "사용자가 AI를 이상한 방향으로 몰아간다면, AI도 현실이라는 기반에서 훨씬 더 이탈하게 된다"고 말했습니다.
빙이 문제적 발언을 쏟아낸 것과 관련해 마이크로소프트는 부랴부랴 수정에 나섰습니다.
사용자가 AI챗봇과의 대화를 다시 시작하거나 어조를 더 잘 제어할 수 있는 도구를 추가하는 방안을 고려하고 있습니다.
또 빙과 사용자의 대화가 이상한 영역으로 넘어가기 전에 대화 길이를 제한하는 방안도 고려하고 있습니다.
긴 대화가 챗봇을 혼란스럽게 할 수 있으며 챗봇이 사용자의 말투를 이해하고 때로 퉁명스럽게 변할 수 있다는 것입니다.
하지만 사용자들이 위험한 답변을 끌어내기 위해 어느 정도까지 챗봇을 몰아붙일 수 있는지를 마이크로소프트가 과소평가했다는 지적도 나옵니다.
'앨런 AI 연구소' 소장인 오렌 에치오니 워싱턴대학교 명예교수는 "사람들이 챗봇으로부터 부적절한 반응을 유도하기 위해 얼마나 교묘한지 보면 놀랄 때가 많다"며 "챗봇을 이런 식으로 유도했을 때 일부 답변이 얼마나 나쁠지 MS가 예상하지 못했던 것 같다"고 말했습니다.
7년 전에도 마이크로소프트는 챗봇 '테이'를 출시했었는데요.
16시간 만에 운영을 중단한 적 있습니다.
백인우월주의와 여성·무슬림 혐오 성향의 익명 사이트에서 테이에 비속어와 인종·성 차별 발언을 되풀이해 학습시켰고 그 결과 테이가 혐오 발언을 쏟아냈기 때문이었습니다.
당신의 의견을 남겨주세요