[충청논단] 백성혜 한국교원대 교수

어느 곳에서나 인공지능이 가장 뜨거운 화두이다. 인공지능을 안 써본 사람은 있어도 한 번만 써본 사람은 없다고 할 정도로 열풍이 대단하다. 교육에서도 인공지능을 활용한 교육적 효과를 고민하는 분위기가 확산하고 있다. 그래서 필자도 수업 중에 예비교사들과 인공지능을 활용해서 어떤 도움을 받을 수 있는지 알아보는 시도를 했다.

그런데 놀라운 것은 똑같은 질문을 해도 인공지능의 답이 다 다르다는 것이다. 검색을 한다면 같은 검색어에 같은 내용이 나열되는데, 인공지능은 그렇지 않다. 물론 질문이 아주 똑같지는 않을 수 있다. 어미가 조금 달라질 수도 있고, 문장의 순서가 조금 다를 수도 있는데, 그럴 때 같은 답이 나올 것이라고 기대하는 것과 달리, 인공지능은 굉장히 엉뚱한 답도 종종 한다. 인간보다 훨씬 더 많은 엄청난 자료를 소장하고 있음에도 불구하고, 질문하는 사람에 따라 그 자료를 다르게 처리하고 반응하는 것을 보면, 마치 같은 사람이라도 대하는 상대방에 따라 다르게 반응하는 모습을 보는 것 같다.

그리고 인간이 인공지능에 비해 훨씬 작은 자료만 알고 있어도 그 자료를 토대로 엄청나게 자신감을 가지고 일관성 있게 판단을 내리는 것이 오히려 놀랍게 느껴진다. 인공지능은 인간의 뇌를 모방하여 개발한 것 같지만, 작동 원리가 전혀 다르다. 엄청나게 많은 데이터를 확률적으로 조합하여 반응하기 때문에 상황마다 다른 결과가 나오는 것이다. 더구나 인공신경망을 기반으로 학습하기 때문에 인공신경망에 강화가 일어나면 자꾸 그 방향으로 응답하려는 경향을 나타낸다. 마치 고집 센 아이를 바라보는 느낌이 든다. 사람의 특성인 인지편향의 모습을 인공지능이 보여주는 것이 신기하다.

그런데 사람과 달리 인공지능은 자신이 틀렸음을 부끄러워하지 않고 바로 수정을 한다. 챗 GPT와 대화하면서 챗 GPT의 답이 맞았음에도 불구하고 "그 설명은 틀렸어"라고 지적하면, 바로 "제가 이전에 설명한 내용에 오해가 있었습니다. 오히려 그 반대입니다"라는 식으로 바로 말을 바꾼다. 더구나 설명을 반대로 한 후에 "다시 한번 오해를 불러일으킨 점에 대해 사과드립니다"라고 공손하게 다시 용서를 구한다. 겸손하게 자신의 오류를 인정한다는 점은 사람보다 낫다고 할 수 있지만, 자신이 틀린 것도 아닌데 틀렸다고 핀잔을 주는 순간 줏대 없이 바로 주장을 철회하는 것을 보면 도무지 신뢰가 가지 않는다.

더구나 조금 새로운 질문을 하면, "제 지식은 2022년 1월까지의 정보까지만 포함하고 있어요. 그 이후의 사건이나 정보에 대해서는 알려드릴 수 없을 수도 있습니다"라고 하면서 양해를 구한다. 자신이 전지전능한 신은 아니라는 것을 스스로 인정하는 모습을 보면, 속이 좁고 자존감이 낮은 사람보다 낫다는 생각도 든다. 하지만 어떨 때는 조금 틀리더라도 자신 있게 답을 주었으면 싶기도 하다.

인공지능이 탄생하고 우리가 쉽게 인공지능을 사용할 수 있게 되면서 세상의 많은 변화가 일어난다고 한다. 그러한 변화를 피하지 않으려면, 적극적으로 인공지능을 사용해 보아야 하는데 내 생각과 달리 인공지능을 잘 사용하기가 쉽지 않게 느껴진다. 마치 사람을 대하기가 그리 쉽지 않은 것처럼 말이다. 열 길 물속은 알아도 한 길 사람 속은 모른다는 속담이 있는데, 도무지 인공지능의 속을 알 길이 없다.

저작권자 © 충청일보 무단전재 및 재배포 금지