2D 한계 넘어선 'MPMAvatar' 공개
실제 물리 시뮬레이션, 옷 주름·충돌 재현
AI가 세상을 '이해'하는 시대로, AGI 전환점

▲ 다시점 비디오 입력으로 새로운 사람 자세와 옷의 동역학을 모델링, Zero-shot 기반 새로운 물리작용생성
▲ 다시점 비디오 입력으로 새로운 사람 자세와 옷의 동역학을 모델링, Zero-shot 기반 새로운 물리작용생성

AI가 그저 이미지를 만들어내는 시대를 지나, 이제는 세상이 '왜 그렇게 보이는가'를 스스로 이해하는 단계로 진화하고 있다.

KAIST 전산학부 김태균 교수 연구팀이 현실의 물리 법칙을 스스로 학습해 3차원 공간에서 움직임과 상호작용을 구현하는 생성형 AI 'MPMAvatar'를 개발했다.이번 기술은 영상 합성의 한계를 벗어나 실제 세계의 물리 현상을 반영하는 'Physical AI'로 평가받고 있다.

▲ 왼쪽부터 이지현 박사과정, 김태균 교수, 이창민 석사과정
▲ 왼쪽부터 이지현 박사과정, 김태균 교수, 이창민 석사과정

연구팀은 다중 시점의 영상을 가우시안 스플래팅(Gaussian Splatting)으로 3D 공간으로 재구성하고, 여기에 물리 시뮬레이션 기법인 MPM(Material Point Method)을 결합하는 방식을 도입했다. 그 결과 옷이 흔들리며 주름지는 이유, 물체가 충돌할 때의 미세한 반응까지 실제처럼 재현할 수 있게 됐다.

MPMAvatar는 느슨한 옷을 입은 인물의 움직임을 세밀하게 포착하고, 한 번도 학습하지 않은 새로운 데이터도 스스로 예측할 수 있는 '제로샷 생성(Zero-shot generation)' 기능을 구현했다. 

▲ 나빌레라처럼 부드러운 춤사위와 옷주름을 표현한 모습
▲ 나빌레라처럼 부드러운 춤사위와 옷주름을 표현한 모습

김 교수는 "AI가 그림을 그리는 수준을 벗어나, 사물의 물리적 원리까지 이해하는 '지능의 확장' 단계에 접어들었다"며 "이번 연구는 AGI(범용 인공지능)로 가는 결정적 전환점이 될 것"이라고 말했다.

이번 연구는 과학기술정보통신부와 정보통신기획평가원(IITP)의 지원으로 수행됐으며, 12월 미국 샌디에이고에서 열리는 세계 최고 권위 학술대회 NeurIPS 2025에서 발표될 예정이다. /대전=이한영기자

저작권자 © 충청일보 무단전재 및 재배포 금지