UNIST "보이지 않는 부분까지 3D로 형상화…AI 모델 개발"
연합뉴스
2025.06.09 15:00
수정 : 2025.06.09 15:00기사원문
손·물체 가려져도 전체 형상 예측…"VR·AR 분야 활용"
UNIST "보이지 않는 부분까지 3D로 형상화…AI 모델 개발"
손·물체 가려져도 전체 형상 예측…"VR·AR 분야 활용"
UNIST 인공지능대학원 백승렬 교수팀은 단일 RGB 영상만으로 양손과 처음 보는 기구의 복잡한 상호작용을 실시간 3D로 시각화할 수 있는 AI 모델 'BIGS'(Bimanual Interaction 3D Gaussian Splatting)를 개발했다고 9일 밝혔다.
AI는 카메라로 촬영된 2D 데이터만 입력받기 때문에 손과 물체의 실제 위치나 입체적인 형태를 파악하려면 3차원으로 전환하는 과정이 필요하다.
기존 기술은 한 손만 인식하거나 사전에 스캔 된 물체만 대응할 수 있었다.
이 때문에 가상현실(VR)이나 증강현실(AR) 기술에서 현실감 있는 상호작용 장면을 재현해내는 데 한계가 있었다.
연구팀이 개발한 모델은 손이 가려지거나 일부만 보이는 상황에서도 전체 형상을 안정적으로 예측할 수 있고, 처음 보는 물체도 학습된 시각 정보를 통해 보이지 않는 부분까지 자연스럽게 그려낼 수 있다.
깊이 센서나 여러 각도의 카메라 없이 단 한 대의 카메라로 찍은 단일 RGB 영상만으로 이 같은 복원이 가능해 현장에서 쉽게 적용할 수 있다고 연구팀은 설명했다.
이 모델은 사물의 형상을 퍼지는 점 구름 형태로 표현하는 방식인 3D 가우시안 스플래팅(Gaussian Splatting)을 기반으로 한다. 픽셀 단위로 경계가 뚜렷한 포인트 클라우드 방식과 달리 손과 물체가 만나는 접촉면 등을 더 자연스럽게 나타낼 수 있다.
손이 겹치거나 일부가 가려진 상황에서는 모든 손을 하나의 기준 손 구조에 맞춰 정렬하는 방식을 이용해 해결했다. 또 학습된 확산 모델을 활용한 점수 증류 방식을 적용해 영상에 보이지 않는 물체의 뒷면까지 복원한다.
국제 데이터 세트를 활용한 실험 결과 손의 자세, 물체의 형상, 두 손과 물체 간 접촉 정보 복원, 화면 재현 렌더링 품질 등에서 기존 기술보다 우수한 성능을 보인 것으로 나타났다.
백승렬 교수는 "이번 연구는 향후 VR, AR, 로봇 제어, 원격 수술 시뮬레이션 등 다양한 분야에서 실시간 상호작용 복원 기술로 활용될 것"이라고 말했다.
이런 연구 결과는 오는 11일부터 5일간 미국에서 열리는 컴퓨터 비전 분야 학회인 'CVPR 2025'에서 발표된다.
yongtae@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>
※ 저작권자 ⓒ 연합뉴스, 무단전재-재배포 금지