これからの未来を描くであろう、最新トピックスをお届けする「さきトレ」。今回ご紹介するのは、手を振る、首を動かす、まばたきをするなどのジェスチャーでモノを操作できるジェスチャーコントロール技術です。空中映像を活用したディスプレイや、音声スピーカーなど、インターフェイスが多様に進化する中で、ジェスチャーコントロールは私たちの生活に何をもたらすのか、ご紹介します。
取材協力:株式会社シーエーシー
手や首の動きだけでなく、口の動きもAIが読み取る
ジェスチャーコントロールエンジン「UT-AIZ™(ユーティーアイズ)」※1は、株式会社日建設計総合研究所と株式会社シーエーシーによって共同開発された技術です。「UT-AIZ™」という名称は、Universal Through(UT)、合図(AIZ)という2つの語から成ります。その名の通りAI(人工知能)が人間の身体動作(合図)を認識して電気信号を送ることで、IoT機器・装置の駆動につなげます。そのコンセプトモデルとして、人間の合図を読み取ってドアが自動で開閉する「アシスト・スイング UT-AIZ」が開発されました。
※1……「UT-AIZ」は日建設計総合研究所とシーエーシーの登録商標(共同出願中)
「アシスト・スイング UT-AIZ」は、タブレット端末に搭載されたカメラが人の動き(手を振る、首を振るなど)を読み取ると同時に、顔認証システムで本人確認をして、自動でドアが開くという仕組みになっています。ドアを開閉するのが難しい障がいのある方や要介護者の方はもちろん、両手が荷物でふさがっている方や、ドアノブに手が届かないお子さんのアシストにも有効。非接触なので、コロナ禍でも安心なシステムです。
UT-AIZ™のジェスチャー認識用AIモデルの開発を手がけている株式会社シーエーシーの光高大介さんによると、UT-AIZ™は、現在は手や顔(首)の動きの認識となりますが、技術的には、目のまばたきや、口元の動きもジェスチャーとして認識することが可能だといいます。スマートスピーカーなど、音声アシスタントの普及によって声による遠隔操作の利便性が広く認識されはじめていますが、例えば騒音がひどくて音声が聞き取れない場所や、静かにすることが求められる空間(美術館、病院、エレベーター内など)では、声を発さず口の動きだけで遠隔操作ができるジェスチャーコントロールが大きな効果を発揮するでしょう。
見守り・防犯・異言語間コミュニケーションなどでも活躍
ドアの開閉に限らず、ジェスチャーコントロール技術は生活のあらゆるシーンで活用できることが期待されます。例えば、高齢者や病床にいる方の普段とは違う動きから身体的・心理的な異変を察知する「見守り」としての活用、身の回りに危険が迫っている時にさりげない仕草で相手に気づかれることなくSOSを発信する「防犯」での活用、オフィスや工場などで空調や照明、その他の機器操作をジェスチャーで行う「職場」での活用。また「ジェスチャーで伝える」という特性を生かし、言語の異なる海外観光客とのコミュニケーションをサポートするという活用も将来的には可能になるかもしれません。
さらにセキュリティという面においては、モーションキャプチャの技術を駆使し、顔認証や声認証と同様に、人間の動きから個人を認証することができれば、鍵やスマホを持つ必要もなく、ただ歩いてドアに近づくだけでロックが解除されるというスマートな動線が実現するでしょう。
ジェスチャーコントロールがスマートシティで果たす役割
AIやIoTなどの先端技術を駆使して都市のさまざまな課題を解決し、生活の質(Quality of life)や利便性の向上、さらには経済成長も促す「スマートシティ」という概念が、近年ますます注目を集めています。スマートシティにおいて、核となるのはデータ活用です。都市内のあらゆる場所に存在する各種センサーやカメラ、人々が所有するスマートフォンやウェアラブルデバイスなどから収集した膨大なデータをAIによって分析し、パーソナライズされたサービスを人々に還元していきます。そういう意味においては、ジェスチャーを感知することで、AIがさまざまな形で人間をサポートしてくれるジェスチャーコントロールの技術も、スマートシティとは無縁ではありません。
ジェスチャーでモノを操作することができるようになれば、ある意味では空間のすべてがインターフェイスになるとも言えます。例えば、車椅子の位置からでは届かなかったスイッチが、ジェスチャーでオンオフできるようになる。ベッドに横たわったまま身の回りの些細な用事をこなすことができるようになる。日常の中でのさまざまなバリアを取り払い、誰もがよりスマートな日常を送れるようエンパワメントしてくれるジェスチャーコントロールは、スマートシティの実現に欠かせないテクノロジーと言えるでしょう。
これまでコンピュータを操作するためのインターフェイスといえば、リモコンのボタンを押したり、スマホのタッチパネルを触ったり、物理的な接触や人間からの能動的な働きかけをともなうものでした。しかし、ジェスチャーというさりげない行為を起点とすることで、人間とコンピュータの距離感はより密接なものとなっていきます。
人とモノがネットワークで結ばれるスマートシティにおいては、コンピュータの存在はますます透明化していき、私たちの知らない場所から自然と個々のニーズに沿ったアシストをしてくれるようになるでしょう。ジェスチャーコントロールの技術は、そんな未来を示唆しているようです。
- Written by:
- BAE編集部