Construction and Evaluation about Tactile Sensor for a Finger of a Humanoid Robot

近年,バーチャルリアリティ(VR)や機械学習技術 が進展し,ロボット応用への期待が高まっている.本稿 では,ロボットハンドの指先型センサを想定し,材質を 識別するために利用可能な触覚センサの構成と機械学習 を利用した評価法について,触原色原理を交えながら述 べる.触覚をもつロボットが操縦者に材質を伝える場面 を想像してみる.ロボットは触覚センサを組み込んだ指 先を持ち,材質をセンシングした情報を伝送することで 操縦者への伝達が実現可能である.しかし,ロボットの 材質センシング情報として,どのようなプロパティを選 べばよいかという問題があり,それがアドホックに恣意 的に選ばれると,伝送系や操縦者側の触覚提示装置との 適合ができない場合に,操縦者にうまく伝わない場合が ある. 我々は触覚のテレイグジスタンス(図 1)を提案してい る.センサが得た触情報はセンサ機器で触原色(Haptic Primary Colors)原理 [1]に基づいて触原色に分解する. 触原色情報としたうえで伝送し,提示側では触原色から 合成して触覚提示することにより前述の問題の解決を図 ろうと試みている. 従来の評価は,図 1のシステム全体としてヒトが情報 を識別可能かで評価する場合が多かった.しかし,この 方法だと,十分な識別ができなかった場合に,センサ,伝 送,提示のどの部分に問題があるのかを特定できなかっ た.センサだけで評価を行えることが望ましい.センサ から得た触情報を用いて材質を精度良く見分けることが できれば,それは材質を見分けるに十分な情報がセンサ から得られていると考えられ,全体で判別ができなくな る場合は伝送か提示に問題があると問題を分離できる. そこでセンサの評価手法として機械学習手法を用いてセ ンサ単独での評価を実施することが有効だと考えられる. 機械学習を用いて触覚センサが得た材質の差を判別でき れば,ヒトが識別に必要十分な材質情報をセンサが得て いるとみなすことができる.本稿では,はじめにヒトの

[1]  Eckehard G. Steinbach,et al.  Multimodal Feature-Based Surface Material Classification , 2017, IEEE Transactions on Haptics.

[2]  J. Edward Colgate,et al.  Tactile Paintbrush: A procedural method for generating spatial haptic texture , 2016, 2016 IEEE Haptics Symposium (HAPTICS).

[3]  Heather Culbertson,et al.  One hundred data-driven haptic texture models and open-source methods for rendering on 3D objects , 2014, 2014 IEEE Haptics Symposium (HAPTICS).

[4]  Yang Gao,et al.  Deep learning for tactile understanding from visual and haptic data , 2015, 2016 IEEE International Conference on Robotics and Automation (ICRA).

[5]  Naoki Kawakami,et al.  Finger-Shaped GelForce: Sensor for Measuring Surface Traction Fields for Robotic Hand , 2010, IEEE Transactions on Haptics.

[6]  Van Anh Ho,et al.  What can be inferred from a tactile arrayed sensor in autonomous in-hand manipulation? , 2012, 2012 IEEE International Conference on Automation Science and Engineering (CASE).

[7]  Naoki Kawakami,et al.  GelForce: a vision-based traction field computer interface , 2005, CHI Extended Abstracts.

[8]  Charles C. Kemp,et al.  Material Recognition from Heat Transfer given Varying Initial Conditions and Short-Duration Contact , 2015, Robotics: Science and Systems.

[9]  Fumihiro Kato,et al.  Soft Finger-tip Sensing Probe Based on Haptic Primary Colors , 2018, ICAT-EGVE.

[10]  Veronica J. Santos,et al.  Biomimetic Tactile Sensor Array , 2008, Adv. Robotics.

[11]  Andrew Owens,et al.  Shape-independent hardness estimation using deep learning and a GelSight tactile sensor , 2017, 2017 IEEE International Conference on Robotics and Automation (ICRA).

[12]  Yang Gao,et al.  Proton: A visuo-haptic data acquisition system for robotic learning of surface properties , 2016, 2016 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems (MFI).

[13]  Lu Fang,et al.  Deep Learning for Surface Material Classification Using Haptic and Visual Information , 2015, IEEE Transactions on Multimedia.

[14]  Eckehard G. Steinbach,et al.  Content-based surface material retrieval , 2017, 2017 IEEE World Haptics Conference (WHC).

[15]  Kouta Minamizawa,et al.  Haptic transmission system to recognize differences in surface textures of objects for telexistence , 2013, 2013 IEEE Virtual Reality (VR).

[16]  Geoffrey E. Hinton,et al.  ImageNet classification with deep convolutional neural networks , 2012, Commun. ACM.

[17]  Fumihiro Kato,et al.  Classification method of tactile feeling using stacked autoencoder based on haptic primary colors , 2017, 2017 IEEE Virtual Reality (VR).

[18]  Eckehard G. Steinbach,et al.  Surface classification using acceleration signals recorded during human freehand movement , 2015, 2015 IEEE World Haptics Conference (WHC).