음성 인식 및 멀티 터치를 이용한 멀티모달 유저 인터페이스

본 논문에서는 사용자에게 보다 직관적인 시스템 조작을 제공하기 위한 음성인식 기반의 멀티 터치 유저인터페이스(VoTUI)에 대해서 기술한다. 음성과 터치 입력을 수용하는 멀티모달 인터페이스의 경우는 보통 음성인식 및 멀티 터치 인식을 위한 사용자 입력 감지부와 음성 입력 및 터치 입력의 상관관계에 따라 그 의미를 해석하는 사용자 입력 해석부로 나뉘어진다. 본 연구에서는 사용자 입력 해석부에 대한 새로운 프레임워크를 제시함으로써 사용자가 해당 시스템을 사용하기 위한 기저 학습의 필요성을 최소화시키고, 사용자가 사용할 수 있는 명령어 셋을 풍부하게 하여 기능성을 향상시킬 뿐만 아니라, 터치 인터페이스와 음성 인터페이스가 각기 지니고 있는 물리적 한계를 극복할 수 있는 유저 인터페이스에 대해 서술하였다.