形状および空間を認識するための力覚インターフェースの利用(その1) -力覚地図を利用した歩行支援シミュレーター- 筑波技術大学保健科学部情報システム学科1) 神奈川県工科大学情報学部情報工学科2) 巽 久行1) 宮川 正弘2) 村井 保之2) 要旨:計算機上に任意の3次元形状グラフィックスが生成できるプログラムと力覚提示デバイスを細み合わせて,現在,視覚障害者に形状理解が容易な触覚センシングシステムを開発している。この形状理解システムの第一報として、力覚認識による経路提示システムを作成したので報告する。一般に視覚障害者は触地図を利用するが,指先が感じる2次元的な触覚よりも手全体に伝わる3次元的な力覚の方が、まるで白杖で経路を仮想移動するような感覚が得られるはずであり,このような,空間形状も同時に認識できる経路提示システムを構築することが本研究の目的である。 キーワード:触覚インターフェース,力覚地図,視覚障害,歩行支援シミュレータ 1.はじめに  全盲や強度の弱視音である視覚障害者に、物や空間の形状を伝えたい。晴眼者が視覚で理解できる形状を,触覚や聴覚で何とか伝えてあげたい。というのが本研究の目標である。  視覚障害者は触覚で形状を認識する。理由は,指先の皮膚感が2次元的な広がりを有しているので、物体形状を把握するのに適しているからである。但し,対象が実在して触れられることが条件であり、また、指先の接触部分が狭いために一度に局所的な情報しか得ることができないという制限がある。我々は現在、任意の仮想物体や空間形状を計算機内に生成して,市販の力覚提示デバイスで形状を伝達する。視覚障害音向きの触覚認識システムを構築している。その触覚インターフェースの一例として、力覚認識による経路提示システムを作成し,これを利用した歩行支援シミュレータを開発中であるので,本報告はこれについて述べている。  筑波技術大学保健科学部では,新入生が一人で校内を移動するための訓練として,先輩や教員と一緒に触地図を触りながら校内を移動して、校内の配置や階段などを確認するオリエンテーションを、入学後に実施している。  しかし、介助者が必要なために訓練を何度も受けることが難しく,少ない機会で校内の配置等を記憶する必要がある。  近年、高齢者や障害者の生活を支援する研究が数多く行われており,国土交通省の自律移動支援プロジェクトはその代表的なものである[1]。特に視覚障害者の歩行支援では、音声地図や触地図といった簡単なものから、大規模なインフラ整備や専用装置を必要とするものまで,様々な支援が研究されている。これまで,視覚障害昔の空間認知に関する研究は心理学や地理学で行われ、地理情報システム(GIS)を利用した音声地図や触地図の成果となって表れてきた[2]。しかしながら,重度の視覚障害者ほど触覚的情報が必要であるにも関わらず、現在の触地図に充分な触覚的情報が入っているとは言い難い。このため、歩行訓練用として、計算機上の簡易触地図と音声を組み合わせて行うシミュレータ等が研究されているが[3]、キーボードと音声を使ったシステムでは,白杖を用いたような歩行感覚の擬似体験は無理である。  一般に、指先が感じる2次元的な触覚よりも手全体に伝わる3次元的な力覚の方が,まるで白杖で経路を仮想移動するような感覚が得られるはずである。そこで我々は,力覚提示デバイスを利用した力覚地図を提案する。  この地図により,段差や路面の状態,点字ブロックや路上に潜むランドマークの発見等,あたかも白杖に伝わる感触が前もって疑似体験できるので,視覚障害者の歩行訓練トレーニングには最適である。このような、空間形状も同時に認識できる経路提示システムを構築することが本研究の目的であり,仮想経路移動と実際の経路歩行を結びつけて訓練を行う。視覚障害者のための歩行支援シミュレータへの展開が可能となる。 2.触覚インターフェース  図1に本研究で使用する触覚インターフェースである。米国SensAble Technologies社の力覚提示デバイスPHANTOM Omniを示す。これはPC内に作成した3次元モデルを,あたかも手などで触っているような感覚で扱うことができる。PCとの接続はIEEE-1394インターフェース経由で,Omni専用のデバイスドライバをインストールする。また、無料のSDK(Software Develope's Kit)も提供されており、オリジナルソフトウエアの開発も可能である。大きさは,台座サイズ168mm×203mmで、動作範囲が手首を軸とした片手まわりの力覚ワークスペースで160mm(W)×120mm(H)×70mm(Ⅾ)。位置座標分解能450dpi(0.055mm),摩擦抵抗力0.26N。最大提示反力3.3N,力覚自由度は3(x,y,z),入力自由度は3自由度(x,y,z)とポインタ回転(yaw, roll, pitch)の3自由度の,計6自由度である。  Omniの操作は、台座からのびたアームの先に付いているスタイラス(ペン状の部分で,握り部分にマウスの左右ボタンに対応するボタンが2つある)を空中で動かすことにより、ペンの3次元動作がコンピュータ内に作成された図形モデルに入力され、その位置関係から,図形モデルに触れることや図形モデルを移動することができる。また,図形モデルに対する操作やモデルの材質に応じて,反力や重さが返ってくるので,実際の物を操作している感覚を得ることができる[4,5]。 図1 力覚提示デバイス(Omni) 3.室内案内シミュレータ  試作したシミュレータは,PC内に室内の机等の配置をモデル化して,利用者は力覚提示デバイスから伝わる触覚により,あたかも実際のモノに触れている感覚で、室内のモノの配置を認識することや室内を移動することなどの疑似体験ができるので,実際の歩行訓練に先立って,様々な確認を繰り返し行うことが可能となる。室内レイアウトモデルは,OpenGLと呼ばれる3次元グラフィックスのためのプログラムインターフェースを用いて作成する。  利用音は,部屋の入り口からスタートし力覚提示デバイスからの触覚フィードバックを頼りに室内の状況を認識しながら移動する。PCの画面には室内レイアウトモデルの画像が表示されるが,これはシステム開発者や弱視者のためのものであり,表示が無くとも利用可能で,全盲者でも容易に操作できる。特にこのシミュレータは、PC内に作成された室内レイアウトモデルを力覚提示デバイスで,あたかも白杖を使って室内の様子を確認しながら擬似歩行するように設計されており,触図や音声地図よりも実際の歩行に近い訓練を,繰り返し安全に行えることを目指している。  室内レイアウトは,データ作成用プログラムでデータファイルとして作成し,歩行訓練シミュレータに入力することができる。レイアウトは,訓練する部屋に応じて自由に設定が可能である。設定できるレイアウトの大きさは20×20の格子形状で,格子をマウスクリックすることにより,壁や家具の設定が行える。室内レイアウト用データ作成プログラムは,Microsoft社のVisual Basic 6.0で作成した。図2に室内レイアウト用データ作成画面を示す。  この室内レイアウトデータ(著者らの研究室である、講義棟518室をモデルとした)は,歩行訓練シミュレータに入力され,OpenGLを用いて3Dモデルとして、コンピュータ内に構築され,図3のようにディスプレイに表示されると共にOmniのAPI(Application Program lnterface)を介してOmniが利用可能な状態になる。利用者はOmniのスタイラスを持ち、床の方向(利用者の正面ディスプレイの方向)に押しつけることで、床からの反力を頼りに床に沿って移動することができる(壁や家具の境界では抵抗があり,それ以上,境界を越えて移動はできない)。また,Omniの反力には、堅さ、弾力性、摩擦,などを設定することが可能であり、実際の物の材質に近い反力を返すこともできるが、それ以外にも,反力に応じて物の種類を示すこと(例えば、摩擦の大きい物が自分の席、摩擦のないものは危険物を示すなど)もできるので,より効果的な訓練が可能となる。  室内案内シミュレータのプログラムは,C言語で作成しOpenGLおよびOmniに関するAPIは,米国SensAble Technologies社が提供する教育機関向け無料SDKであるOpenHaptics Academic Edition(for Microsoft Windows)Ver2.0を用いた。C言語のコンパイラはMicrosoft社のVisualStudio.NET2003である。プログラムの流れは, (1)OpenGLの初期化 (2)Omniの初期化 (3)レイアウトモデルの表示 (4)Omniモデルの生成 (5)操作ループ(以下,ここを繰り返す) となり、作成したプログラムのサイズは約500ステップほどである。  Omniを使用するプログラムの大部分は、3D室内レイアウトモデルを作成するためのOpenGLプログラミングである。OpenGLは,米国シリコングラフィックス社が開発した,OSに依存しない3次元のグラフィックスライブラリで,これにはGLUT(OpenGL Utility Toolkit:OpenGLでよく使用される便利なユーティリティ)ライブラリを用いることで,容易に3Dプログラミングが可能となる(Omniを操作するためのAPIはGLUTに対応しており,OpenGLで作成した室内レイアウトモデルは,OmniのAPIを通じてそのまま操作が可能である)。  室内レイアウトは、床としてサイズ2のILz方体を配置し、その上に壁と家具となるサイズ0.1の立方体を複数配置した。配置する立方体は,床を“白”,壁を“青”,家具を“緑”で表示する。  図3に示す室内レイアウトモデルは,やや斜め上から室内を見た図である。 図2 室内レイアウト用データ作成画面 図3 生成された室内モデル 図4 実験用の3種類室内モデル 4.評価・検討  基本的な操作試験ののち,シミュレーション実験を通して評価を行った。実験は,3種類の室内レイアウトモデル(図4のa,b,c)を用意し,10分ずつの操作を行って,床、壁、家具の認識具合,操作性モデルの大きさ,について確認した。その結果として, 1)力を入れすぎると障害物を通過してしまう、 2)仮想形状と実物との大きさが分かりにくい、 といった問題点が挙げられた。  1)に関しては,力覚提示デバイスを保護するために、最大提示反力(Omniでは3.3N)を超える力が加わると,反力が落ちる(応力が抜ける)ようになっているので、これについてはシステムの調整で修正が可能である。 2)は深い問題であるが,視覚障害者の空間認知に関する研究によると,視覚障害者と晴眼者の間には,空間調知能刀に対する際立った差異のないことが実証されているので,音声等の補助説明を重ねれば克服が可能であると考えている。これには,スタイラスのボタンを押すと,歩行の手がかりとなる情報が音声で流れるようにすることで対処したい。図5にシミュレーション実験の様子を示す(手で操作しているのが,力覚提示デバイスOmniである)。  今後は,屋内のみのOmni用地図(これを力覚地図と呼ぶことにする)だけでなく,屋外に対応した力覚地図生成プログラムを作成するつもりである。この地図から、道路の段差や路面の状態、点字ブロックや路上の感覚が,まるで白杖で経路を確認しながら移動するような擬似歩行が体験できるシステムに仕上げることを目指す。また,視覚障害音に物体や空間形状を簡単に早く理解させるには力覚提示デバイスを2台使用して,マスター側(晴眼者である教師側)のデバイスからスレイブ側(視覚障害者)のデバイスへの,追随動作機能を入れるのが有効であるので,現在,この機能を作成中である。  さらに3次元グラフィックスを生成するシステム(3Dモデラー)は、ロバストで負荷が軽い(記憶容量が少なくて処理が早い)ものが良い。著者らの一部は,距離場空間モデルと呼ばれる、汎用性が高く理論的にも綺麗な空間表現法を共同研究した経緯を持つ[6]。そこで、この空間表現法と力覚提示デバイスを組み合わせることが可能かを検討している。我々が利用しようと考えている距離場空間モデルは,図6のような球と立体の融合体を、任意精度の立方体セル表現(境界セル表示)や三角形セグメント表現(境界ベクトル表示)で、より少ない記憶容量で自由に生成可能である。これにより力覚デバイスの分解能に影響されずに物体形状が作成できるので、OpenGLと併用して,形状認識率の高いシステムにする予定である。 図5シミュレーション実験 5.おわりに  視覚障害者が介護者を伴わないで知らない場所に行く場合、従来はあらかじめ出かける場所までの道順を触地図で覚えておくのが普通であった。また,最近では,地理情報システム(GIS)の発達と共にNPO法人として音声地図を提供する団体も設立されている。本研究は,触地図よりも触覚的情報が高く,かつ,音声対応可能な地図である。視覚障害昔のための簡単な形状認識支援である本研究は,大規模なインフラ整備や専用装備を必要としない,空間的な力覚経路提示に利用できる。これは、音声地図や触地図に代わる,力覚地図と呼ぶべき第3の地図が作成できることであり,視覚障害青への歩行支援シミュレータに展開できる研究である。また,力覚地図の考えは,教育上あるいは生活上の各種作業トレーニングにも有効である。 図6距離場空間モデルによる形状表示 (右:立方体セル表現,左:三角形セグメント表現) 謝辞:本研究は,平成17年度筑波技術大学教育研究笄高度化推進事業(競争的教育研究プロジェクト事業受付番号38:“未知形状仮想3Dを用いた視覚障害者用触覚認識システムの構築")の助成を受けて行われた。 参考文献 [1]http://www.jiritsu-project.jp/ [2]碓井"GISを利用した障害者対応型リスクヒューマンナビゲーションとバリアフリーデジタルマップの作成・更新の研究"、平成12年度JACIC研究助成報告書(http://www.jacic.or.jp/kenkyu/3/3-9-3.pdf),2001. [3]小係,小泉:音声サインデジタルマップを用いた経路誘導に関する研究",第4回情報科学技術フォーラム(FIT2005)講演論文集,K-076,pp、529-530、2005. [4]F.L.Van Scoy、T.Kawai, M. Darrah. C. Rash:“Haptic Display of Mathematical Functions for Teaching Mathematics to Students with Vision Disabilities:Design and Proof of Concept".Springer-Verlag, LNCS2058, pp.31-40.2000. [5] 田崎.長鳴.坂井:“点接触型触力覚提示における3次元形状認識の要因効果に関する一実験(第2報),ヒューマンインタフェース学会研究報告集.Vol.5, No.1. pp,35-40, 2003. [6]S. Asaoka,Y. Murai,H. Tatsumi. S.Tokumasu:“The Concept of the Distance Field Model for Space Representation"、Proc. 6th lnt. Conf. on lntelligent Technologies, pp.262-269.2005. Haptic Interface for the Recognition of Shapes and Space (Part1) — A Walk-Guide Simulator Based on a Haptic Map for the Visually Impaired — TATSUMI Hisayuki1), MIYAKAWA Masahiro1), MURAI Yasuyuki2) 1) Department of Computer Science, Faculty of Health Sciences, Tsukuba University of Technology 2) Department of Information and Computer Sciences, Faculty of Information Technology, Kanagawa Institute of Technology Abstract: By combining 3D shape modeler (a program which can generate 3D shapes by graphics in a computer) and hapticsensable devices, we are developing a touch-sensable system in order to help a blind person understand 3D shapes. Here we report on a pathway simulator which simulates a guiding of a pathway through haptic recognition. We can use a tactile map for the visually impaired to explain a pathway. However, it can be sensed only at the limited area of the finger-tips, and therefore lacks on-site feelings. On the other hand, if we could simulate a pathway by haptic method, i.e., if we simulate sense of his palm against resisting forces caused by a sliding long cane hold in his palm, we believe it might give him on-site feeling of the pathway. The purpose of the haptic pathway simulator is to present spacial information by haptic method along the path. Key Words : Haptic Interface, Haptic Map, Visually Impaired, Walk-Guide Simulator