'SHARE' 기술, 정밀 장비 없이도 고품질 3D 복원
AI가 카메라의 시선을 읽고 공간 재현, 혁신
국제 학회서 최고 학생논문상 수상, 세계가 주목

▲ SHARE 기술 대표 이미지
▲ SHARE 기술 대표 이미지

복잡한 장비와 끝없는 보정 과정 없이, 단 몇 장의 사진만으로 현실을 3차원으로 옮겨오는 기술이 KAIST에서 탄생했다. '찍는 순간, 현실이 곧바로 가상이 되는' 패러다임이 열렸다.

KAIST는 전산학부 윤성의 교수 연구팀이 정밀한 카메라 위치 정보가 없어도 일반 사진만으로 고품질 3D 공간을 복원할 수 있는 기술 'SHARE(Shape-Ray Estimation)'를 개발했다고 6일 밝혔다.

▲ 최우수 학생 논문상 수상모습. 왼쪽부터 이오안니스 카차부니디스(Ioannis Katsavounidis, 시상자, 메타연구원), 나영주 박사과정, 김태연 석사과정, 세이프 알자히르 총괄의장
▲ 최우수 학생 논문상 수상모습. 왼쪽부터 이오안니스 카차부니디스(Ioannis Katsavounidis, 시상자, 메타연구원), 나영주 박사과정, 김태연 석사과정, 세이프 알자히르 총괄의장

기존의 3D 시뮬레이션은 라이다(LiDAR)나 고가의 스캐너를 이용해 수천 장의 이미지를 촬영하고, 각 사진의 위치를 세밀하게 보정해야 하는 복잡한 과정을 거쳐야 했다. 하지만 SHARE는 단 2~3장의 일반 사진만으로도 피사체의 형태(Shape)와 카메라의 시선(Ray)을 동시에 추정해, 정확한 3차원 공간을 스스로 구성한다.

윤성의 교수팀은 "영상 자체에서 공간 정보를 찾아내는 방식"을 도입했다. 즉 기존 기술이 '카메라의 위치'를 알아야 구조를 복원했다면, SHARE는 '영상 속의 정보'를 해석해 카메라와 공간의 관계를 동시에 계산한다. 그 결과 별도의 보정이나 추가 학습 없이도 실제 환경을 신속하고 정밀하게 복원할 수 있게 됐다.

▲ 정밀한 카메라 정보 및 3D 장면 예측 기술 SHARE
▲ 정밀한 카메라 정보 및 3D 장면 예측 기술 SHARE

이 기술은 건설·게임·미디어 산업뿐 아니라 로봇과 자율주행 분야에서도 활용 가능성이 높다. 스마트폰만으로도 고품질의 3D 콘텐츠 제작이 가능해, 산업 전반의 진입 장벽을 낮추는 혁신적 기술로 평가된다.

윤성의 교수는 "SHARE는 현실을 이해하고 재현하는 방식 자체를 바꾸는 기술"이라며 "누구나 손안의 카메라로 가상세계를 구현할 수 있는 시대를 여는 열쇠가 될 것"이라고 말했다.

▲ 연구진 사진. 왼쪽부터 이주민 박사과정, 김우재 박사과정, 김태연 석사과정, 나영주 박사과정, 한규범 박사과정, 윤성의 교수
▲ 연구진 사진. 왼쪽부터 이주민 박사과정, 김우재 박사과정, 김태연 석사과정, 나영주 박사과정, 한규범 박사과정, 윤성의 교수

나영주 박사과정과 김태연 석사과정 학생이 공동 1저자로 참여했으며, 국제 이미지 처리 학회(IEEE ICIP 2025)에서 '최고 학생논문상(Best Student Paper Award)'을 수상했다. 올해 발표된 643편의 논문 중 단 한 편만 선정된 수상작으로, KAIST의 연구 경쟁력을 다시 한번 입증했다.

이번 연구는 과학기술정보통신부 SW스타랩 사업 '오픈 월드 로봇 서비스를 위한 불특정 환경 인지·행동·상호작용 알고리즘 개발'의 지원으로 수행됐다. /대전=이한영기자

저작권자 © 충청일보 무단전재 및 재배포 금지