[충청의창] 심완보 충청대 교수

챗GPT에 고 이건희 삼성 회장의 장녀인 이부진 사장에 관해 물어봤다. 챗GPT의 대답은 “이부진은 고 이건희 삼성그룹 창업자의 장녀이며, 삼성전자의 부회장 겸 사장입니다. 그녀는 1950년에 태어났으며, 경영학을 전공하여 미국의 조지타운 대학교를 졸업한 후 삼성그룹에 합류했습니다. 이부진은 고 이건희 삼성그룹 창업자의 뒤를 이어 삼성그룹의 경영을 이끄는 중요한 인물로 평가되고 있습니다.”였다. 질문에 대한 대답은 너무나 자연스러워 이부진에 대한 아무런 정보가 없는 사람은 그냥 믿어 버릴 수밖에 없을 것이다.

실제로 이부진에 대한 정보를 확인해 보니 그녀는 1970년생으로 연세대를 졸업하고 현재 호텔신라 대표이사를 맡고 있었다. 이번에는 챗GPT에 ‘소고기 식혜’ 만드는 법에 대해 질문했다. 사실 소고기 식혜란 음식은 존재하지 않는데 챗GPT는 호박식혜 만드는 방법을 응용했는지 소고기를 포함한 재료와 만드는 방법을 자세히 알려준다. 존재하지 않는 음식에 대한 최선의 답은 ‘모른다’이다. 아는 것과 모르는 것을 나누는 것이 지식의 출발인데 챗GPT는 아는 것과 모르는 것을 구분하지 못한다. 챗GPT는 특정 문장에 대한 통계적 대답을 하는 것으로 최적화되었기 때문에 아는 것과 모르는 것을 구분하지 못하며, 이에 따라 환각(Hallucination)의 답을 한다.

쉽게 말해 챗GPT는 질문에 대해 자신이 아는지 모르는지도 모르고 아는 체를 한다는 것이다. 챗GPT를 만든 오픈AI 또한 이 같은 문제 제기를 의식해 ‘때때로 잘못된 정보를 생성할 수 있다’, ‘때때로 해로운 가르침이나 편향된 정보를 제공할 수 있다’ 등의 내용을 챗GPT 이용자에게 알리고 있다. 챗GPT와 같은 초거대 AI의 또 다른 단점은 일관성이 배제돼 있다는 점이다.

예를 들어 여행을 좋아한다고 했다가, 다음번에는 안 좋아한다고 했다가 하는 일관성 유지 문제가 발생한다. 이와 함께 안전성 문제도 빈번하게 일어나고 있다. 초거대 AI가 욕설, 성적인 내용, 범죄와 관련된 대화를 나눌 수 있어 이를 막아야 한다는 것이다.

가장 심각한 문제는 데이터의 편향성 문제이다. 데이터를 대량으로 학습했을 때 정보를 만든 사람의 편향성이 들어갈 경향이 크다는 것이다. 데이터 확보부터 학습, 데이터 처리를 한 후 AI가 다시 사람에게 보여주는 전 과정마다 기술이 필요한 데, 오염되지 않은 데이터를 학습했음에도 편향성이나 혐오 표현이 나타날 수 있어 AI 필터 기능을 통해 이를 바로 없애는 후보정 작업도 필요하다.

우리는 챗GPT에 대해 많은 부분을 잘못 이해하고 있다. 첫째, 챗GPT의 답은 팩트가 아닐 경우도 많다. 둘째, 챗GPT의 답은 매번 답이 다르다. 셋째, 챗GPT의 답은 틀리는 경우도 상당히 많다. 넷째, 챗GPT는 그럴듯한 거짓말을 자연스럽게 잘한다. 하지만 처음부터 완벽한 도구는 없고 모든 도구는 발전한다. 구글 번역기도 처음 나왔을 때는 엉터리 번역을 제공하는 경우가 많았지만 16년이 지난 지금은 꽤 만족스러운 번역을 제공한다.

챗GPT는 출시된 반 년이 좀 지났을 뿐이다. 앞으로 더 개선되고 정교해질 것이다. 챗GPT에 대한 오해와 문제점을 잘 이해하고 활용해야 가짜뉴스 생성과 같은 부작용도 최소화할 수 있을 것이다.

저작권자 © 충청일보 무단전재 및 재배포 금지