AI의 미래: OpenAI가 챗봇의 '환각' 문제를 해결하는 방법
관련링크
본문
ChatGPT와 같은 AI 기반 챗봇이 많은 관심을 받고 있음에도 불구하고, 이러한 텍스트 기반 도구들은 여전히 해결해야 할 중요한 문제들이 있습니다. 이들 중 하나는 챗봇이 질문에 대한 답을 모르는 경우 사실이 아닌 내용을 사실로 제시하는 '환각' 현상입니다. 이런 현상이 심각한 결과를 초래할 수 있는 사례로, 한 변호사가 존재하지 않는 사건을 ChatGPT가 제안한 것으로 인용하였고, 이로 인해 제재를 받을 수도 있다는 사례가 있습니다. 또 다른 사례로는 ChatGPT가 호주 시장이 은행에서 뇌물을 받아 감옥에 갔다고 잘못 전했는데, 실제로는 그가 그 사건의 내부 고발자였다는 것입니다.
이러한 문제를 해결하기 위해 OpenAI 엔지니어들은 현재 챗봇 기술을 더욱 신뢰할 수 있게 만들기 위해 소프트웨어를 개선하는 데 집중하고 있다고 밝혔습니다. 수요일에 발표된 연구 논문에서 OpenAI는 챗봇이 "불확실한 순간에 사실을 창작하는 경향"이 있으며, 이러한 "환각"은 단일 논리 오류만으로도 훨씬 더 큰 해결책을 방해할 수 있기 때문에 다단계 추론이 필요한 분야에서 특히 문제가 될 수 있다고 덧붙였습니다.
챗봇의 실수를 다루기 위해 OpenAI 엔지니어들은 AI 모델이 답변을 향해 이동하면서 올바른 데이터를 출력할 때 자신에게 보상을 줄 수 있는 방법에 대해 연구하고 있습니다. 이 시스템은 더 인간 같은 생각의 과정을 포함함으로써 더 나은 결과를 이끌어낼 수 있을 것이라고 기대하고 있습니다. 그러나 일부 전문가들은 이 작업에 대해 의문을 제기하였으며, 이가 ChatGPT에 통합되기 전까지는 별로 도움이 되지 않을 것이라고 전하였습니다. OpenAI는 이 작업을 그들의 생성적 AI 도구에 언제, 그리고 어떻게 통합할지 아직 공개하지 않았습니다.
OpenAI가 이 문제를 해결하려고 노력하고 있다는 사실은 좋은 소식이지만, 우리가 어떤 개선을 보게 될 때까지는 시간이 좀 걸릴 수 있습니다. 그 동안에는 ChatGPT는 가끔 잘못된 정보를 생성할 수 있으므로, 중요한 업무에 관련된 응답이라면 반드시 확인해야 합니다.