[충청칼럼] 김헌일 청주대 생활체육학과 교수

지난 13일 챗GPT의 개발사 오픈AI가 새로운 인공지능(이하 AI) ‘GPT-4o’ 모델을 공개했다. 기존 텍스트 중심의 AI 서비스와 달리 신버전은 이용자와 실시간 음성을 통해 질문과 답을 주고받거나 시각 정보까지 분석에 활용한다. 시연 장면을 본 전 세계가 화들짝 놀랐다.

2022년 오픈AI사의 챗GPT가 서비스를 시작한 이후 AI가 만들어낸 딥페이크(인간 이미지 합성기술) 때문에 안면인식과 같은 보안 시스템이 무력화되었다. 연예인, 정치인 같은 주요 인사 이미지를 합성해 가짜 뉴스 정보를 만들어냈고, 가짜 포르노 영상마저 나왔다. 국제사회의 공동 대응이 필요했고, 세계 각지에서 각국 정부는 물론 구글, 마이크로소프트, 오픈AI, 테슬라, 삼성, 네이버 같은 선도기업들이 전문가와 모여 대책을 모색하고 있다.

AI윤리 논제는 결국 ‘안전한 AI 활용’이다. AI의 대표기업인 챗GPT의 오픈AI는 기업 내부에 컴퓨터, 화학, 언론, 법학 등 다양한 전문가들로 구성된 ‘레드팀’을 운영하고 있다. 오픈AI社의 AI 개발이 인간을 위협하는 상황을 예방하는 역할이다. 그런데 지난 11월 17일 갑자기 회사 대표인 ‘샘 올트먼’ 해임 소식이 전해졌다. 개발 중이던 챗GPT 신형이 너무 위험하다는 회사 내부 판단이 있어 제동을 걸려는 이사회가 개발 강행을 주장한 샘 올트먼을 해임했다는 설이다. 5일 만에 해임을 취소하는 해프닝으로 끝났지만, 신형 챗GPT, ‘GPT-4o’가 등장하며 당시 대립 이유가 현실이 되는 분위기다.

‘GPT-4o’ 성능은 예상보다 충격적이었다. 사람과 즉각 대화가 가능할 정도로 빠른 반응속도다. 50개 언어가 가능하다. 인공지능의 일반화(AGI)를 시작했다는 평가도 있고, 위험하다는 평가도 있다. 인간과 수준 높은 농담을 주고받고, 조롱하기도 한다. 가장 놀라운 것은 인간에게 짜증을 내는 듯한 반응이었다. 여기에 우리가 알아채기 어려운 함정이 있다. AI가 감정을 갖게 되었다는 착각에 빠지고, AI의 ‘분노’가 현실이 되는 상상을 하게 된다. 그러나 AI는 입력된 연산으로 작동하고, 짜증이나 조롱은 인간의 행동 데이터를 연산 결과에 따라 보여줄 뿐이다.

AI 전문가 절반은 위험하다고도, 생각이 다른 절반은 효용적이라고 한다. 위험하다는 측은 감정 없이 입력된 알고리즘에 의해 작동하는 AI가 인간을 인간의 적으로 간주하면 발생할 상황을 경고한다. 영화처럼 결국 AI로봇이 인간을 지배할 것이라는 무리한 상상이다. 반면, AI 적극 활용 측은 개발과 학습 등을 어떻게 하느냐에 따라 AI를 통제해 인류의 발전과 안녕을 극대화할 수 있다는 견해다. 그러나 감정 없는 AI가 발생한 적 없는 예외적 인간의 실수나 잘못을 수용하거나 용서하는 방법을 알 수 없기에 통제의 허점이 생길 수 있다.

솔직히 우리 일상에서 아직은 AI의 위협을 느끼지 못한다. 전문가들의 논쟁일 뿐이다. 며칠 전 지인에게 AI 활용을 소개했다. ‘며칠 있다 신문 칼럼 써야 하는데 ‘GPT-4o’로 해야겠다!’는 그의 뜻밖의 대답에 당황했다. 지극히 인간다운 발상일 것이다. 생존을 위해 해야 할 일 중, 하기 어려운 일, 하기 싫은 일을 무분별하게 AI에게 시키고 가치를 쉽게 얻으려는 ‘인간의 탐욕’, 이것이 우리가 경계해야 하는 ‘위협’이 아닐까?

무엇보다 우리가 간과하고 있는 것은 AI를 경계하는 측도, AI를 적극 활용하려는 측도 AI가 가져올 상황을 정확히 예측하지 못한 채 논란에 빠져 있다는 것이다. 우리는 지금 아무런 준비 없이 AI라는 하이퍼 스포츠카 운전석에 성급히 탑승하는 5살짜리 같다.

저작권자 © 충청일보 무단전재 및 재배포 금지