[충청논단] 백성혜 한국교원대 교수

요즘 챗 GPT를 안 써본 사람은 있어도 한 번만 쓴 사람은 없다고 할 정도로, 챗 GPT의 매력에 흠뻑 빠진 사람들이 많다. 챗 GPT에게 묻는 말도 다양한데, 재미있는 것은 챗 GPT의 답 중에 거짓말도 있다는 것이다. “그런 것 없는데?”라고 말하면, 이렇게 답한다.

“GPT는 학습된 데이터셋을 기반으로 대화를 만듭니다. 하지만, GPT는 학습된 데이터셋에 존재하지 않는 정보나 논리적 결함, 모호한 문장 등의 오류를 발생시키기도 합니다. 이러한 오류가 발생하는 이유는 GPT가 데이터셋을 그대로 따르기 때문입니다.”

마치 인간이 자신의 잘못을 남 탓하는 것 같다. 주어진 데이터를 가지고 말하는 것이기 때문에 데이터가 잘못된 것이지 내 잘못은 아니라는 변명이다. 이러한 남 탓하기도 인간과 챗 GPT가 유사하다니 재미있다. 하지만 때로는 자신의 잘못을 인정하기도 한다.

“GPT는 인간의 지식과 판단력을 갖추지 못하고, 단지 데이터에서 추출한 패턴을 활용하여 대화를 생성합니다. 따라서, 학습된 데이터셋에서 일정한 패턴을 찾고, 그 패턴을 기반으로 대화를 생성하다 보면, 때로는 부정확하거나 틀린 정보를 제공할 수 있습니다.”

우리가 종종 GPT에게 무엇이 옳은지, 그른지, 혹은 어떤 방법이 좋은지 물어보는 경우가 많은데, GPT는 그러한 판단을 내려주는 도구로는 적절하지 못하다고 스스로 밝히고 있다. 그러나 판단을 내리는데 필요한 정보를 인간보다 많이 가지고 있기 때문에 “아는 것이 힘이다.”라는 의미에서 GPT를 활용하는 것이 좋다. 활용한다는 것은 그대로 믿고 따른다는 의미가 아니라, 활용은 주체가 인간이고 GPT는 수단이 되는 것을 말한다. 자신의 문제를 인지하기 때문에 GPT는 이러한 답도 같이 제시한다.

“GPT는 기본적으로 학습된 데이터셋을 기반으로 대화를 생성하므로, 새로운 정보나 참조를 제공할 때는 항상 출처와 함께 확인해 보는 것이 좋습니다.”

만약 GPT가 틀린 판단을 내려줄 때, 더 정확히 말하면 인간이 GPT에게 판단을 요구해서 GPT가 관련 대화를 생성할 때, 그 대화가 맞을 것이라는 신념은 인간이 내리는 것이다. 그러니 GPT도 자신을 믿지 말고 자신의 대화를 항상 확인해 보는 것이 좋다고 이야기한다. 그런데 인간이 이러한 과정을 생략하거나, 혹은 GPT의 대화가 맞는지 판단할 능력이 없다면 우리는 잘못 판단된 세계를 옳다고 믿고 살 가능성이 높아진다.

인간도 주어진 자료 중에 자신이 선호하는 자료만을 선택하는 인지 편향이 존재하는데, 인간이 GPT에게 편향된 자료만 제공하여 GPT도 편향된 대화를 할 가능성이 높아질 수 있다. 이러한 점을 GPT에게 물어보니 이렇게 답한다.

“데이터셋은 수많은 다양한 소스에서 수집되기 때문에, 데이터셋 자체가 편향을 가지고 있을 가능성이 있습니다. GPT 모델이 이러한 편향성을 학습하여 출력 결과에 반영하는 문제를 방지하기 위해서는 다양한 데이터셋을 사용하고, 데이터셋의 다양성과 편향성을 고려하여 학습해야 합니다. 또한, 모델의 출력 결과를 검증하고, 필요한 경우 인간의 판단을 추가하여 결과를 보완할 필요가 있습니다.”

이 답을 보니, GPT가 정답이지만 인생에 별 도움이 안되는 답을 찾는 수학자 같다는 생각이 들었다.

저작권자 © 충청일보 무단전재 및 재배포 금지