Emotional Motion Generation Using Emotion Representation Rules Modeled for Human Affection

人間のコミュニケーションにおいて非言語情報は極めて重要な役割を担う.人間は無意識で表現の中に含まれる非言語情報を読み取ることから,ロボットによる非言語情報の表出はユーザに情報を発信する際に有用と考える.これまでのロボットが動作により感情を表現する場合,設計者により事前にデザインされた感情を伴う動作を実行することで表現していた.しかしながらこれら動作のデザインは設計者に負担を掛けるため,膨大な量の動作を用意することは困難であった.一方でバリエーションを十分に確保できないことから感情表現が記号化し,アピール用のジェスチャとしてしか利用できなかった.そこで我々は「手を振る」や「歩く」などの動作を修正変化させることで感情表出動作を合成する手法を提案する.一般に感情動作パターンは時系列関節角度指令値として設計者がデザインする.本研究では感情を重畳させる基本動作の時系列関節角度指令値に対し,形容表現とよぶ動作修飾フィルタで修飾を行う.このフィルタは動作を「大きく」するなどの可読性の高い修飾要素で構成される.これらを程度量を変えて適用することで新しい動作パターンを獲得する.新しい動作パターンに対し官能検査実験を行うことで,生成された動作と人間が受ける印象を対応付ける.この実験を行うことで形容表現と表出感情との対応付けを行い,感情表現ルールとして抽出する.2段階の実験を経て感情動作生成に有効な感情表現ルールを獲得した.また,それらをルール獲得した基本動作とは別の動作に適用する事でルールの有効性を示した.