시선 향한 곳으로 이동하는 휠체어…AI, 인간의 행동 공부한다
페이지 정보
본문
[머니투데이 코벤트리=한국과학기자협회 공동취재단 ] [한국·유럽 과학기술학술대회EKC 2024]
언어 학습한 LLM→행동양식 학습…AI 연구의 확장
#. 애플의 혼합현실MR 헤드셋 비전 프로를 머리에 착용하면 실제 주변 사물과 함께, 앱 화면 등이 AR증강현실 형태로 눈앞에 나타난다. 손가락을 까딱거리면 아이콘이 움직이고, 손가락 2개로 꼬집으면 클릭이 된다. 눈동자 움직임을 추적해 앱을 쳐다보는 것만으로 프로그램을 실행할 수도 있다. 실제 환경처럼 사용자의 시선과 손동작만으로 디지털 환경을 경험할 수 있게 된 것이다. 이를 위해서는 사람의 시각과 청각이 어떻게 작동하는지 파악하고, 이를 기계에 적용해야 한다. 지난달 31일현지 시각 영국 코벤트리 워릭대에서 열린 한국·유럽 과학기술학술대회EKC 2024 AI인공지능 세션에서는 AI를 통해 인간의 행동을 각종 전자기기와 연동하는 다양한 연구들이 발표됐다. 현재 AI 열풍을 이끄는 것은 거대언어모델LLM이다. 막대한 데이터를 학습해 사람이 보기에 가장 그럴싸한 응답을 내놓는 식이다. LLM이 인간의 언어를 이해하는 AI라면, 인간의 행동 양식을 학습하고 이해하는 AI들도 활발히 연구되고 있다. 장형진 영국 버밍엄대 컴퓨터과학과 교수는 사진이나 영상을 통해 인체의 자세와 시선, 손의 동작 등을 AI에 학습시키고, 이를 응용한 연구 성과들을 소개했다. 예컨대 시각장애인이 스포츠 클라이밍을 한다면, AI가 자세를 분석해 다음으로 붙잡아야 할 블록이 어디에 있는지 음성으로 알려준다. 또 인간의 손동작을 학습해 옷걸이에서 옷을 집어 사람에게 입혀주는 로봇도 개발됐다. 인간의 눈동자가 어느 방향을 향하고 있는지 학습하는 AI 연구도 활발하다. 장 교수는 "인간의 시선을 추적하기 위해 3D 얼굴 이미지를 AI에 학습시켰다"며 "휠체어를 탄 사람이 원하는 방향을 쳐다보는 것만으로도 이동할 수 있는 시스템도 개발했다"고 했다. VR가상현실과 AI를 접목하는 시도도 많다. 사람이 VR 환경과 상호작용하기 위해선 시각과 청각이 모두 필요하지만, 현재는 두 요소가 따로 작동하는 경우가 많다. 김한성 사우스햄튼대 박사는 "실제 공간을 완전한 3D 시각으로 재현하고, 이에 따른 청각적 요소도 이용자의 위치에 따라 제공하는 AI 시스템을 연구하고 있다"고 했다. 사진으로는 보이지 않는 부분도 AI가 추론해 360도 카메라 이미지를 생성하고, 반사와 잔향 등이 고려된 공간 음향이 이에 맞춰 재생되는 식이다. 김 박사는 "아직 인간의 시청각과 유사한 정도까지는 발전되지 못했지만, 추가 연구를 통해 VR의 완성도를 높일 수 있을 것"이라고 했다.
[관련기사]
코벤트리=한국과학기자협회 공동취재단
☞ 장정윤, 김승현 딸과 4개월 못 만나…"SNS 글로 오해 생긴 듯" ☞ "김창열 울면서 이혼 말려" 정재용 뒤늦은 후회…결혼사진도 그대로 ☞ 55억 건물주 박나래, 돈 때문에 지인 손절 "상처받았다"…무슨 일 ☞ "돈 다 뺏고 성노예로 쓰다가"…쯔양, 전남친 충격 녹취록 공개 ☞ 박은혜, 집 안에서 뱀 허물 발견 "소름"…119가 출동 거부한 이유 ⓒ 머니투데이 amp; mt.co.kr, 무단 전재 및 재배포 금지 |
관련링크
- 이전글"칭찬스티커 받는 기분"…네모난 갤 워치 울트라 차고 도봉산 가보니[써... 24.08.02
- 다음글넥슨, 신작 퍼스트 디렌던트 첫 업데이트…얼티밋 밸비 등장 24.08.01
댓글목록
등록된 댓글이 없습니다.