[월요일아침에] 이태욱 교학사 고문
할루시네이션(Halucination)은 인공지능 기반 사회에서 흔히 나타날 수 있는 현상으로 인공지능이나 자동화 시스템에서 물리적 입장에서 보았을 때 실제로 존재하지 않는 것을 인식하거나 잘못된 정보로 인지하는 현상을 말한다. 일반적으로 인공지능의 인식 능력이나 데이터 처리 능력에 문제가 있을 때 발생할 수 있는데 어원으로는 Hallucinari 라는 라틴어에서 유래되었다.
다시 설명하면 할루시네이션은 실제로 존재하지 않는 것을 마치 있는 것처럼 느끼거나 보는 현상을 말한다. 예를 들어 현실에서는 물리적으로 존재하지 않는 소리를 듣거나 아무도 없는 방에 누군가 있는 것처럼 환각을 느끼는 것이 할루시네이션 현상에 해당한다.
인공지능과 관련하여 대표적인 현상을 열거해 보면 인공지능 시스템이 실제로 존재하지 않는 객체나 사물을 인식하거나 잘못된 정보를 인식하는 경우가 있다. 그리고 인공지능 시스템이 예측을 내리는 과정에서 오류가 발생하거나, 예측이 실제와 다르게 나타날 수 있다. 또한 인공지능 시스템이 요청에 대해 적절하게 응하지 못하거나, 비효율적인 방식으로 응답할 수 있다. 우리가 생성형 AI를 활용하면서 종종 체험하는 것이 할루시네이션 현상이며 실제로는 일어날 수 없는 사실인데 있는 것처럼 만들어서 진짜처럼 자연스럽게 답을 하는 경우가 대부분이다.
이러한 현상들은 인공지능 기반 사회에서 발생할 수 있는 문제 중 하나로 디지털 세계에서 시스템의 신뢰성과 성능을 크게 저하시킬 수 있다. 따라서 인공지능 시스템을 설계하고 운영할 때는 데이터의 정확성과 알고리즘의 품질을 철저히 검토하여 되도록 할루시네이션과 같은 현상이 발생하지 않게 하는 것이 최선의 방법이다.
AI와 머신러닝에서 할루시네이션은 다음과 같은 상황에서 발생하는 것으로 파악되고 있다. 무엇보다 가장 많이 발생할 수 있는 것이 데이터 오류이다. 인공지능 시스템이 사용하는 데이터가 부정확하거나 오래된 경우 잘못된 정보를 인식하여 발생한다고 볼 수 있다. 왜냐하면 대부분 생성형 AI의 LLM(대형언어모델)의 작동에서 오류가 생길 수 있다.
그 다음은 알고리즘 문제이다. 인공지능 알고리즘이 잘못 구현되거나 예측 모델이 정확하지 않을 경우 할루시네이션 현상이 발생할 수 있다. 그리고 인공지능 시스템이 새로운 환경에 적응하지 못하거나 예상치 못한 상황에 직면할 때 할루시네이션 현상이 발생할 수 있다. 챗봇이나 텍스트 생성 AI가 질문에 대해 실제로 존재하지 않는 정보를 답변하는 경우, GAN(Generative Adversarial Network) 모델이 실존하지 않는 사람의 얼굴을 생성하는 경우, 음성 합성 모델이 실제로 말하지 않은 내용을 가짜로 만들어서 생성하는 경우에 이런 현상이 발생하고 있다.
이러한 할루시네이션을 예방하며 대처하기 위한 몇 가지 방법을 제시하면 다음과 같다. 무엇보다 이에 대한 사용자 교육이 제일 중요하다. AI를 사용하는 사용자는 AI 모델의 한계, 작동 원리, 오류 발생의 원인, 윤리적 문제 등에 대해 학습해야 한다.
다음으로는 데이터 품질 개선이 시급히 요구된다. 기존 데이터에 대한 정확한 분석과 편향된 정보, 오류 최소화를 통해 정확성과 신뢰성을 향상시킬 수 있다. 그리고 모델 설계 개선으로 복잡한 데이터를 다룰 때 모델 복잡성을 낮추는 방법을 고려한다. 우리가 그동안 방송 미디어를 통해 얻은 대표적인 할루시네이션 사례로는 구글의 Bard 챗봇이 제임스 웹 우주망원경이 최초로 외계 행성을 촬영했다고 잘못 주장한 경우와 마이크로소프트의 Sydney 챗봇이 사용자에게 사랑에 빠졌다고 고백하거나 Bing 직원들을 감시하고 있다고 주장한 경우가 있다. 하지만 이러한 문제점을 해결하기 위해서는 더욱 신중하고 강력한 규제가 필요하다.
끝으로 생성 AI의 발전은 더욱 가속화될 것이지만 이러한 문제점을 바로 잡지 못하면 사회는 혼란에 빠질 수 있다. 우리는 보다 안전하게 AI를 활용하기 위해 할루시네이션과 같은 문제를 계속 주시하고 대응해야 한다.

