◀ 앵 커 ▶
관객의 시선이 아닌 주인공의
눈으로 세상을 경험하는 영상
기술이, 현실로 다가왔습니다.
국내 연구진이, 기존 영상만으로
1인칭 시점 장면을 구현하는
인공지능 모델을 개발했습니다.
김지혜 기자의 보도입니다.
◀ 리포트 ▶
폭탄을 터뜨리기 위해 손으로 리모컨을
이리저리 움직이고,
아이언맨 가슴의 아크리액터에 연결된 전선을
손가락으로 당깁니다.
마치 내가 영화 속 주인공이 된 듯합니다.
모두 인공지능이 만든 영상으로
실제 영화엔 없었던 장면들입니다.
카이스트 연구진이 관찰자 시점의 영상만으로
주인공이 실제로 보고 있었을 장면을
만들어내는 인공지능 '에고엑스(EgoX)'를
개발했습니다.
기존에는 정지된 이미지만 변환하거나
4대 이상의 카메라 영상이 필요했고,
빛의 방향이나 움직임이 복잡한 동영상에서는
화면이 어색해지기 일쑤였습니다.
연구진은 인물의 머리 움직임과
실제 시야 사이의 상관관계를 정밀하게 본떠
고개를 돌릴 때 시야가 자연스럽게 전환되는
모습까지 구현했습니다.
주재걸 / 카이스트 김재철AI대학원 석좌교수
"시선 혹은 머리나 자세의 움직임을 잘 충실하게 반영한 1인칭 영상을 잘 만들어 주었다고 생각해 주시면 될 것 같습니다."
데이터 4천 개를 학습해 '에고엑스'를
만들어내기까지 걸린 시간은 6개월.
더 많은 그래픽처리장치와 빅데이터가
확보된다면 짧은 시간 안에 인공지능의
정교함과 생성 능력을 폭발적으로
끌어올릴 수 있어 세계 유명 기업과 영화사의
협업 제안이 들어오고 있습니다.
강태웅 / 카이스트 박사과정 연구원
"메타 글라스나 아니면 VR, AR 기기들이 필요한데, 비싼 장비 없이 3인칭을 1인칭으로 만들어서 이제 데이터를 대량으로 생산할 수 있는..."
연구진은 이번 기술이 증강현실과 가상현실,
메타버스뿐 아니라 로봇 몸을 가진
인공지능인 '피지컬 AI' 산업에 활용될 것으로
기대하고 있습니다.
MBC뉴스 김지혜입니다.
◀ END ▶
- # 카이스트
- # 에고엑스
- # 인공지능
Copyright © Daejeon Munhwa Broadcasting Corporation. All rights reserved.