입력 | 2023-03-06 10:57 수정 | 2023-03-06 11:40
<strong class=″subTitle_s0″ style=″padding: 15px 0px 14px; border-top: 1px solid #141414; border-bottom: 1px solid rgb(210, 210, 210); color: rgb(0, 0, 0); font-size: 20px; letter-spacing: -1px; font-weight: bold; line-height: 25px; display:inline-block;width:100%″>질문을 잘 한다는 건 뭘까?</strong>
요즘 온통 챗GPT 얘기 뿐이다. 한국에 본격적으로 소개된 지 한 달 남짓 됐는데 뉴스가 쏟아지고 있다. 챗GPT와 관련해 가장 많이 등장하는 화두 중 하나는 ′질문을 잘 해야 한다′는 것.
최근 ′챗GPT에게 묻는 인류의 미래′라는 제목의 책을 펴낸 뇌과학자 김대식 카이스트 교수도 ″앞으로 질문하는 것 자체가 기술″이 될 것이라고 말했다. 좋은 질문을 하지 않으면 제대로 된 답을 얻을 수 없다는 얘기다. 챗GPT를 잘 활용하기 위해서는 질문이 정확하고 구체적이어야 한다는 뜻이기도 하다.
그렇다면 ′정확하고 구체적인 질문′이란 어떤 걸까? 뉴스 기사를 작성하는 경우를 예로 들어보자. 폭설이 내린 날, 교통이 마비된 상황을 가정해 몇 가지 정보를 주고 챗GPT에게 기사를 써 보라고 했다.
주어진 정보를 바탕으로 몇 초 만에 기사를 완성했다. 사람이 쓰는 것보다 속도가 훨씬 빠르고 기사 흐름도 괜찮지만 뭔가 부족해 보인다. 사고 현장에 대한 제한적인 정보만 입력했기 때문이다. 경험이 많은 기자라면, 119소방본부나 목격자 증언 등 다면적인 취재를 해 기사를 작성한다. 그래서 추가 정보를 주고 기사를 쓰라고 다시 지시해 봤다.
영어 기사가 우리말로 번역되는 과정에서 정확도가 떨어지고 표현이 매끄럽지 못한 부분이 보인다. 하지만 이런 점을 감안하더라도, 이전 기사에 비해 현장 상황이 더 생생하게 반영됐다.
′질문을 잘한다′는 건 이런 것이다. 챗GPT에게 좋은 질문을 한다는 것은 필요한 내용을 구체적으로 입력하는 것을 말한다. 지시어의 형용사나 부사만 달리해도 다른 답을 얻을 수 있다. 사람이 볼 때에는 전체적인 맥락이 비슷해 보여도, 어떤 단어나 정보가 추가되는지에 따라 챗GPT는 다른 결과물을 내놓는다.
챗GPT(Generative Pre-trained Transformer)에서 ′generative′는 ′generate′라는 단어에서 왔다. 질문을 입력하면 그 다음에 어떤 단어가 올 지 확률적으로 분석해 생성해 내는 알고리즘이다.
위 대화는 챗GPT에게 질문을 효과적으로 하는 방법은 무엇인지 물어본 뒤 얻은 결과물이다. 답변 중에 나오는 ′구조화된 대화′(structured conversation)란, 마치 탑을 쌓을 때 기초를 놓은 뒤 위로 점점 좁게 쌓아가는 것처럼, 이용자가 원하는 내용을 얻을 때까지 구체적이고 체계적인 질문을 이어가는 것을 말한다. 반면, 구조화되지 않은 대화는 친구와 이런저런 주제를 왔다갔다 하며 나누는 대화를 예로 들 수 있겠다.
챗GPT의 가장 큰 단점은 2021년 자료까지만 학습되어 있다는 건데, 그렇다면 최신 정보는 어떻게 질문해야 할지 의문이 생긴다. 방법이 있다.
그동안 언론에서는 챗GPT에게 한국의 대통령이 누군지 물었더니 ′2021년 9월 기준 문재인 대통령′이라고 답했다며 한계를 지적했다. 하지만 위 내용을 보면, 2022년 5월 치열한 접전 끝에 윤석열 대통령이 당선됐다고 자세히 설명하고 있다.
챗GPT가 똑똑해질 수 있었던 건 부스터 기능을 활용했기 때문이다. ′웹챗(WebChat)GPT′는 성능을 확장시키는 프로그램 중 하나로, 챗GPT가 직접 인터넷 웹사이트에 접속해 가장 최신 정보까지 검색한 뒤 답변을 해 준다. 크롬(Chrome) 웹스토어에 가서 내려받은 뒤 챗GPT에 이 기능을 추가하면 쉽게 사용할 수 있다.
<strong class=″subTitle_s0″ style=″padding: 15px 0px 14px; border-top: 1px solid #141414; border-bottom: 1px solid rgb(210, 210, 210); color: rgb(0, 0, 0); font-size: 20px; letter-spacing: -1px; font-weight: bold; line-height: 25px; display:inline-block;width:100%″>오염된 데이터를 입력하면 쓰레기가 나온다.</strong>
GIGO, Garbage In Garbage Out 이라는 말이 있다. 오염된 쓰레기 정보를 넣으면 쓰레기가 나온다는 말이다.
최근 챗GPT에게 장난삼아 ′조선왕조실록에 기록된 세종대왕의 맥북프로(노트북 컴퓨터) 던짐 사건에 대해 알려줘′라고 물었더니, ′15세기 조선시대 세종대왕이 새로 개발한 훈민정음의 초고를 작성하던 중 문서 작성 담당자에게 노트북을 던진 사건′이라고 어이없는 답을 술술 풀어냈다며 인터넷에서 화제가 됐다.
사용자가 허위 사실을 넣어 질문을 했을 때 챗GPT는 질문에 기반해 대답을 하는데, 바로 GIGO (Garbabe In Garbage Out)를 보여주는 대표적인 사례다. 컴퓨터는 기본적으로 논리 프로세스에 의해 작동되기 때문에 오염된 정보를 입력하면, 결과 역시 왜곡될 수 밖에 없다.
사실 챗GPT 때문에 작가나 교수, 기자 직업이 없어진다는 얘기가 있는데 반은 맞고 반은 틀린 얘기다. 지금까지 설명했듯이 챗GPT를 잘 사용하면 일의 중간 프로세스를 효율적으로 할 수 있지만, 챗GPT를 사용하지 못하는 사람은 자칫 도태될 수 있다는 것이다.
팩트 체크를 할 수 있는 경험과 분별력이 있는 전문가들은 그래서 챗GPT를 똑똑하게 활용하는 게 중요하다. AI에게 지시하고 대화하는 기술이 핵심이다. 많은 직업의 미래는 결국 AI와 얼마나 잘 대화하고 활용할 수 있는가에 달려있다.