視覚障がい支援のための疑似触 力覚 の適用 巽 久行1),村井保之2),関田 巌 1),宮川正弘1)筑波技術大学 保健科学部 情報システム学科1)日本薬科大学 薬学部 医療ビジネス薬科学科2) 要旨:視覚障がい者は白杖により通路を探索し,伝わる 触力覚 から通路の歩行情報を得ている。本研究の目的は,仮想現実(VR)技術により,白杖を持つ手の把持感を実現することである。VR空間には,通路として“点字ブロック”を用意し,“白杖”とそれを把持する“手”も実装した。この仮想手にはデータグローブを装着した実手が重ねられており,VR空間での白杖による点字ブロックの触知動作は,データグローブを介して実手に伝わる。また,予備実験として,現実の白杖で触知したときの,現実の手に伝わる振動値と 力 覚値のデータ,および表面筋電位のデータも示した。仮想把持感を生成する技術は,インフラ整備なしで視覚障がい者の行動や安全を向上させる手法となり得る。キーワード:視覚障がい,仮想触 力 覚,複合現実,歩行支援,環境認知 1.はじめに 視覚情報と擬似的感覚とを組み合わせて仮想現実感(Virtual Reality)を創る研究は数多く行われている。しかし,視覚障がい者に仮想現実感を持たせることは容易ではない。本研究は,疑似力覚を生成する 力 覚フィードバックデータグローブを装着して,手指に感じる疑似的な触 力 覚から仮想現実感を創り出し,彼らの環境把握や空間認知の支援につなげることを目標としている。もし,このような触知支援が可能ならば,点字ブロックのない場所や転落事故の危険があるホームなどで,白杖を持つ手指に,誘導ブロックや転落防止柵があるかのような疑似的な触 力 覚を感じさせることで安全性を確保するような支援技術への展開が期待できる。コンピュータグラフィックスによる視覚情報と,触覚や 力 覚などの擬似的感覚を組み合わせて,様々な仮想現実感を創る研究は数多く存在するが(例として,[1, 2]を参照),その多くは圧倒的な情報量を占める視覚が引き出した仮想現実感である(これを視覚VR技術と呼ぶ)。そのため,視覚障がい者が,聴覚VR技術以外で仮想現実感を得るのは,非常に困難な問題となる(聴覚VR技術については[3]を参照)。本研究は,視覚VR技術や聴覚VR技術に続く,第3の触知VR技術を開発することを目標としている。触覚や 力 覚だけでは仮想現実感を得るに足りないというのが触知VR技術の育たない根拠であるが,現実として視覚障がい者は触知情報から環境を知る。この事実は,上手く疑似的触知感を創り出せば,逆に,環境把握や空間 認知を支援することができ,彼らの行動や安全を向上させる技術になり得ることを示唆している[4]。 2.システムの概要 NHK放送技術研究所の3次元物体触 力 覚提示技術の研究[5]では,一点 力 覚デバイスを,手の各指に装着して実験したところ,2指(親指と人差し指)よりも3指(中指を追加),さらには4指(薬指も追加)と増やすごとに,視覚障がい者の仮想物体認識率が向上するという結果を得ている。本研究でも,手指が仮想触 力 覚を感じるには,各指に異なる触 力 覚を与える必要があると考えている。また,それが臨場感を生むには触知感をフィードバックさせなければならない。このため,右手用の 力 覚フィードバック装置(米国CyberGlove社のCyberGrasp)を使用して,仮想現実感を創り出すことを試みている。この装置を用いて手指への仮想物体の反 力 (仮想触 力 覚)を得るには,PC上に仮想物体を生成しなければならない。仮想物体からの反 力 は,親指,人差し指,中指の,3指が強く感じるので,仮想物体の触知や認識の処理は,この3指が中心となる(特に,白杖を使う際の触知は人差し指が重要である)。本研究では,仮想物体の作成に3Dグラフィックス用のインタフェース(OpenGL)に準拠したC言語ライブラリ(GLUT)を,また,仮想 力 覚の作成にVirtualHand SDK(米国CyberGlove社の開発支援ツール)を,それぞれ利用して,Visual C++言語で作成している。 図1 仮想物体の触知 空間内でCyberGraspの位置を求めるには,磁気式3次元位置計測装置(米国Polhemus社のFastrak)で磁場を作り,手の甲に付けた磁気センサで計測する。これより,図1に示すような,磁場内のワールド座標とCyberGraspのローカル座標が得られて,CyberGraspは空間内の位置(X, Y, Z)と自身の姿勢(Roll, Pitch, Yaw)が分かり,あらかじめ設置した仮想物体を触知できる。図中,Oはオフセットベクトル(基準点からの位置),Nは法線ベクトル(反力),kは剛度(変形に対する抵抗力),bは減衰(摩擦に対する減衰)である。 力 覚フィードバック装置を動作させるには,最初にデバイスの通信設定を行う。その際に,設定したデバイス名とソースコード内の名称が互いに一致する必要がある。作成したプログラムは,接続ルーチン,マスタークラス(デバイスを組み込んだクラス)のインスタンス生成,インピーダンスモードでの動作ルーチン( 力 覚提示はインピーダンス型で実装されている),描画ルーチン,表示ルーチン等からなる。図2に,システムの構成を示す。   図2 システム構成 また,図3に仮想物体による触知実験を,図4に作成した仮想物体(白杖)を,それぞれ示す。図5は,CyberGraspの一部であるデータグローブ(CyberGloveと呼ばれる)の各センサ位置(センサ数は22個)に基づくリンキングモデルを示す。このうち,関節角のデータを得るセンサ(図中の,#1〜#19のセンサ)から各関節の座標データを計算して作成したモデル(仮想ハンドと呼んでいる) を用いて,仮想触 力 覚を受けた際の手指の形状変形を表現している。   図3 触知実験   図4 仮想物体(白杖)   図5 右手指のリンキングモデル 3.仮想触力覚の生成 白杖歩行時の体感に似た疑似感覚を創り出すためには,実際に白杖が受ける触 力 覚を分析しなければならない。我々はデータグローブを装着して歩行実験を行い,路面から白杖が受ける触 力 覚でデータグローブのセンサ値がどのように変化するか(すなわち,仮想ハンドがどのように形状変形するか)を調査した。その結果,触 力 覚を分析できる有効なデータは殆ど得られないという結論に達した。その理由 として,白杖から手指に伝わる触 力 覚は,振動成分と微弱な圧力成分が大部分で,路面が白杖を握った手の形状を変化させる(すなわち,指の関節を変化させる)ことはない。そこで我々は,図6のような指型触覚センサ(米国SynTouch社のBioTac)を白杖に装着し,手指(特に,人差し指)位置での振動や外圧を分析している(図7に示すセンサ内のインピーダンス検出電極で測定している)。 図6 指型触覚センサ   図7 電極(黒色を除く1〜19)の配置 白杖を握った手指に伝わる触 力 覚として,図8に示す点字ブロック(左が誘導ブロック,右が警告ブロック)を用いて計測した触覚センサデータの例を,図9および図10に示す。ブロックの寸法は共に30cm×30cmであり,誘導ブロックは4条の凸畝が平行に上下を結ぶ方向に配置してあり,警告ブロックには25個の凸点が配置されている。図9および図10において,振動波形は周期が重要で,圧力波形は形状と電極位置が重要である。両図の圧力波形において,赤色と緑色が強く検出されているが,これは,赤色が図7内の電極9の位置,緑色が図7内の電極10の位置を示す。すなわち,指先に圧力が集中している。誘導ブロックの場合,白杖を山の側面に当てて滑らせるので,図9のように振動は連続的で比較的弱い 力 覚を長く小刻みに与えると,実際の触 力 覚に似る傾向にある。一方,警告ブロックの場合,振っている白杖にブロックの山が当たるので,図10のように振動は離散的で比較的強い 力 覚を短く瞬間的に与えると,実際の触 力 覚に似る傾向にある。 4.仮想現実感の創生 人工の触 力 覚と実際の触 力 覚が似た場合,被験者は仮想現実感を持つことが期待できる。それでは,疑似的な触 力 覚と実際の触 力 覚との比較をどのように行うのかという問題が生ずる。   図8 点字ブロック(左:誘導,右:警告)   図9 誘導ブロック波形(上:振動,下:圧力)   図10 警告ブロック波形(上:振動,下:圧力) この目的のために我々は,手指(特に,人差し指)の 筋 活動に係わる筋肉に着目し,前腕屈 筋 群の一部と前腕伸 筋 群の一部で,指を屈伸したときに反応があった点に電極を装着し,表面 筋 電位を計測した。図11は 筋 電位を測定している実験風景である。使用している 筋 電位測定器(ATR-Promotions社の, 筋 電アンプTS-EMG01と小型無線多機能センサTSND121)は2チャンネルの計測なので,前腕内側をCh.1に,前腕外側をCh.2に,それぞれ設定した。   図11  筋 電位の測定   図12 表面 筋 電位(上:現実,下:仮想) 図12は,警告ブロックを触知している白杖から,人差し指に伝わる 筋 電位(上側波形がCh.1,下側波形がCh.2)であり,同図上は現実ブロックから,同図下は仮想ブロック(凸点を模擬した,振動は離散的で比較的強い 力 覚)から,それぞれ得られたものである。当然ながら,実際の点字ブロックで計測した図12の上図の方が 筋 電位は強く表示されているが,我々はブロックのある路面の触 力 覚データからブロックのない路面の触 力 覚データを差分して,ブロックの疑似的な触 力 覚を創生し,それを実際の路面の触 力 覚に重ね合わせて仮想路面を構築することを考えている。擬似触 力 覚を現実の触 力 覚と重ね合わせて仮想現実感を創生するので,その場合は実験で感じた手の平に対する違和感は無くなる(もしくは軽減される)はずである。その意味で本研究は,現実世界の触 力 覚と仮想世界の触 力 覚とを融合した複合現実(Mixed Reality)による触知VRである。実際の触 力 覚と疑似的 な触 力 覚の比較,さらに,互いの 筋 電位波形の類似性を考察するのは,今後の課題である。視覚障がい者の移動支援は,RFIDタグ入り点字ブロックの設置など,大規模なインフラ整備を必要としている。しかし,VR技術は実物ではなく偽物を対象にするので,制約も無くて汎用性の高い支援に向いている(例えば,点字ブロックが施設できない場所にも適用できる)。また,危険な現場を踏むことなく,単独で繰り返し練習できるなど,視覚障がい者にとっての訓練手段(シミュレータ)としても魅力的である。触知情報の質と量が充分であれば,視覚障がいへの触知VR支援は可能であると予想しているが,個人の認知能力は千差万別であり,環境を把握するイメージは主観も入る。それを正しく評価することは各自のメンタルマップを調べることに等しく,客観的評価を得ることができない困難な問題である。 5.おわりに 仮想現実感を創り出して視覚障がい者に環境把握や空間認知を支援する本研究は,インフラ整備を必要としない支援である。白杖を持つ手指に伝わる疑似的触知感による歩行は,仮想現実移動とも呼べる触知技術であり,これまでの体験で培われた被験者の認知経験や環境認識をそのまま利用できる。視覚障がい者が頼る音声や音源と共に使えば,疑似触知による仮想現実技術は,様々な支援シミュレータに展開できる可能性があると思われる。 謝辞 本研究は,平成26年度科学研究費補助金(基盤研究(B), 25280097:仮想現実への汎用触知インタフェースの開発),および,平成25年度筑波技術大学教育研究等高度化推進事業(競争的教育研究プロジェクト:インタラクティブモデラーによる人工触 力 覚の生成)の助成を受けて行われている。ここに記して深く謝意を表する。 参考文献 [1] http://www.mr-museum.org/?p=208[2] http://www.drunk-boarder.com/works/meta-ryoshka/[3] http://staff.aist.go.jp/yoshikazu-seki/text/work-j.html[4] 巽久行,村井保之,関田巌,宮川正弘: 触知VR技術による視覚障がい支援への挑戦,第29回ファジィシステムシンポジウム(FSS2013)講演論文集,2013; pp. 234-237.[5] http://www.nhk.or.jp/strl/publica/giken_dayori/ jp3/rd-1201.html Applying Virtual Haptic Sensing to Aid Visually Impaired Individuals TATSUMI Hisayuki1), MURAI Yasuyuki2), SEKITA Iwao1), MIYAKAWA Masahiro1)1)Department of Computer Science, Faculty of Health Sciences,Tsukuba University of Technology2)Department of Pharmaceutical Medical Business Sciences, School of Pharmacy,Nihon Pharmaceutical University Abstract: When a visually impaired individual walks on a pathway alone, he or she perceives path conditions by using a white cane. The purpose of the present study is to determine haptic sensations felt by the hands of such individuals while using a white cane for navigation. First, we developed a virtual reality (VR) system to meet the study purpose. This system included a pavement made of studded paving blocks, a white cane, and a virtual hand that could grasp and manipulate the cane on the blocks. The user wore a data glove such that his or her actual hand was superimposed on the system’s virtual hand. Thus, the user’s actual hand receives sensory input via the data glove on how the cane is navigating the paving blocks in the VR space. We also report data on vibration and haptic sensations, collected via experiments, and on skin surface voltage, collected via electromyography (EMG). Keywords: Visual impairment, Virtual haptic sensing, Mixed reality, Walking support, Environment recognition