映画や漫画の影響なのか、人は「人型ロボット」を見ると“自分の意思で歩ける”ことを期待してしまう。ましてや人工知能(AI)を搭載して自然な会話ができるようなロボットに出会ったときは、当然その脳を使って自分の判断で歩くのだろうと考えてしまう。
そんな人々の期待に応えるべく、全日本空輸(ANA)は2月15日、新日鉄住金ソリューションズ(NSSOL)の技術支援を受けて、空港で案内業務を行う人型ロボット「Pepper」を自律歩行させる実証を開始した。宮崎ブーゲンビリア空港の施設内で2月末まで実施する。
ANAは2016年夏から、福岡空港と成田空港に独自開発アプリケーションを組み込んだPepperを導入し、空港内の施設の場所などを音声・画像で案内するトライアルを行なってきた。これまでの使い方では、Pepperは出発ロビーや乗り継ぎカウンター付近に固定して設置されており、移動はしなかった。
今回の宮崎空港では、Pepperが午前6時半から午後9時までの“勤務”時間中に、(1)手荷物カウンター前案内、(2)チェックインカウンター前案内、(3)ゲート案内サポート、(4)到着手荷物カウンターサポート、の4業務を空港内の4地点で行う。この4地点間の移動を、Pepperに自律歩行させようというのがこのたびの実証だ。Pepperの自律歩行に関するノウハウを持つNSSOLのシステム研究開発センター(シス研)が技術協力した。
HoloLensの3Dホログラフィック技術を利用
NSSOL シス研では、ロボットのオフィス業務への活用可能性を研究する目的で、2016年からPepperが歩行する仕組みの開発を行っている。
ロボットが建物内を指定した目的地まで移動するには、建物内の通路や壁などの3Dマップと、自身の現在地を認識して3Dマップと照らし合わせる機能、進路にいる人や障害物を認識して衝突しないように停止や回避する機能などが必要だ。物体を認識するセンサーはもともとPepperの目の部分に搭載されているが、3Dマップの作成や、空間を認識して3Dマップと照合する用途に応用できるほどには精度がない。そこでNSSOLでは、Pepperに外付けのセンサーと3Dマップを持たせるためのノートPCを取り付けて、オフィス内を歩かせることに取り組んできた。
今回の実証では、外付けセンサーとノートPCの代わりに、Windows 10搭載のヘッドマウントディスプレイ「Microsoft HoloLens」を用いて、Pepperに3Dマップと空間認識機能を持たせている。HoloLensは3Dホログラフィック技術を備え、ゴーグルを通して見える現実空間に3Dホログラムを重ねるMR(複合現実)用途を想定したデバイスだ。MRを実現するために、標準で3Dマップを作成する機能、3Dマップと現実空間を重ねて位置情報を把握する機能を持っている。
実証実験ではまず、人間がHoloLensをつけて宮崎空港の中を歩き、施設内の3DマップとPepperが移動する地点の情報をHoloLensに記録させる。そのHoloLensをPepperの頭に装着してWi-Fiで接続。HoloLens側のシステムからPepperのアプリケーションに頻繁にアクセスし、Pepper側に地点間移動の指示が入力されたことを読み取ると、HoloLens側が位置情報を計算しながらPepperに移動方向の指示を出す。HoloLensは人物と物体を区別でき、新しく置かれた物体を把握して3Dマップを随時更新していくという。人物や障害物を検知して衝突する前に停止する仕組みは、Pepperの標準機能を利用した。
HoloLensをつけたPepperが歩き回る姿は、なかなか人目をひく。空港内での自律歩行中は、Pepperが人やモノに危害を加えることがないように(逆にPepperが壊されたりしないように)、必ず係員が付き添うという。「人間が付添うなら台車に乗せて運べば……」という声がありそうだが、現在はあくまで実証の段階。ANAによれば、将来的にはPepperが単独で歩いて、乗客をゲートまで誘導するような使い方を検討していくそうだ。人型ロボットの宿命として、Pepperには自由に歩く姿が期待されている。
週刊アスキーの最新情報を購読しよう
本記事はアフィリエイトプログラムによる収益を得ている場合があります