한 걸음 두 걸음

AR 인터랙션 인터페이스 본문

Unity

AR 인터랙션 인터페이스

언제나 변함없이 2019. 5. 27. 11:49
반응형

AR인터랙션은

현실 환경 안의 물리적 물체와 상호작용을 하는 것입니다. 이를 통해 테이블 위에 꽃병을 두거나, 벽에 미술작품을 걸 수돋 있습니다.

종류

컨트롤러를 사용하는 방법도 있지만, 손에 pick자석을 두고 이를 활용할 수 있게하는 것과
bocd tracking 손바닥을 추적하는 것도 있고, 이를 통해 gesture를 명령어로 사용하고
터치 및 Lucid touch처럼 LED뒤에서 손가락 터치(depth sensor)로 인식할 수도 있습니다.

텐저블 인터페이스

사용자가 증강한 LED위에 물체를 올려놓음으로써 콘텐츠 행동을 제어합니다.

  • 표면에서의 탠저블
    오늘날의 스마트폰처럼 터치스크린을 사용하는 것으로, 1997년 MIT에서 개발되었습니다.
  • 마커를 이용한 실습(가장 일반적인 탠저블 형태)
    마커를 이동시키면 가상객체도 움직이게할 수 있습니다. (빔프로젝터활용)
    마커 사이의 거리를 측정하여 trigger로 활용할 수도 있습니다.
    마커를 카메라가 인식하지 못하도록 가리거나 치워버리는 경우를 트리거로 활용할 수도 있습니다.
    마커의 이동경로를 저장하여 그림을 그릴 수도 있습니다.

목적이 분명한 탠저블

냄비와 뒤집개 등 물체의 용도를 즉시 인식할 수 있는 형태입니다. (페이지가 트래킹되는 책을 통해 각 페이지에 맞게 가상객체를 볼 수도 있습니다.)
개인용 상호작용을 위한 패널로도 활용할 수 있습니다. (태블릿 위로 증강하여 3D객체를 보고 색깔을 선택하게 하는 등의 인터페이스를 줄 수 있습니다)

또는 투명한 탠저블을 통해 상호작용 패널로 활용할 수도 있습니다.

실제 표면에 가상 사용자 인터페이스 배치하기

  • 프로젝트로 손 위에 버튼이나 스크린을 증강함으로써 사용자의 손을 터치스크린으로 활용할 수도 있습니다.
    예 ) 옴니터치

  • 실제 가상 문서의 관리 통합 시스템을 위한 디지털 데스크
    종이문서를 책상 위의 가상 문서로 증강해서 사용합니다.
    하지만 아무래도 빛이다보니 눈이 피로해지는 단점이 있습니다.

논문 Summary < 논문 맨 앞페이지에 요약해서 다 적어놓고 indexing은 첫 페이지로만 빨리 하는거에요 >
어디서나 발표할 때는 왜 어떠케를 잘 준비하세요 <중요!

  • 지도를 인식하여 증강한 다음, 원하는 정보를 자세히 띄워줍니다.
  • 멀티뷰 인터페이스
    모두가 같은 위치에 있는 물체를 봅니다. <고유공간> : 둘 이상의 사람들이 같은 위치에 있는 물체를 본다.

멀티뷰 인터페이스

  • 멀티파이
    팔 위의 트래커를 활용하여 증강현실을 보여주고, 스마트폰과 연결하여 사용할 수도 있음

  • 멀티 로컬
    : 3D 좌표 시스템을 활용하지 않기 때문에 고유한 공간(위치)를 표현하기에 적합하지않음.
    다른 정보를 표현하는 것(듀얼 모니터처럼)에 사용하기 편함~

  • 크로스뷰 상호작용
    2차원 정보를 3차원 버츄얼에테르로 전환시켜줄 수 있습니다.

햅틱 AR

증강된 객체에 그림을 그릴 수 있는데 해당 물체를 만지고 있는 느낌을 뒤로 당기는 힘으로 상호작용을 할 수 있게함!

대화형 에이전트

이때까지가 행위 중심이었다면, 이는 NPC처럼 에이전트와 대화하는 형태로 정보를 전달합니다.
인터페이스가 보다 매력적이도록 사람의 모양과 말, 제스처 등을 비슷하게 따라합니다.
-> 3차원 공간에 대한 가이드가 가능하게됩니다.(도서관에서 책을 찾을 때 등)
에이전트는 센서로부터 입련된 데이터를 분석하고 시각과 청각 디스플레이를 통해 피드백 합니다.

반응형