2024年5月3日

ウェアラブルAI

「ウェアラブルPC」という言葉が使われたのは、いつ頃だったかなぁ。1990年代に、某所でプロトタイプというか、半分冗談半分製品化チャレンジみたいな「試作品」に関わったのが、30年位前かなぁ...  某精密機器メーカー試作のメガネ型表示装置を使って、本体はVHSのビデオテープ位の箱に入れて腰に吊して、十字キーみたいなコントローラーで操作したような朧気な記憶が。当時は、やっとノーブックPCが搭乗しだした時代で、「小型」と呼ばれる物でも、サイズは兎も角厚みが厚くて重い物だったので、実用性としてはかなり疑問ではあったけれど、例えば工場などの製造工程で紙のマニュアルを横に置いて仕事をするのでは無く、技術情報を画面で参照しながら作業するとか、結構現在では実現されている用なユースケースを想定して、真面目に試作していた気がします。

それが今では「ウェアラブルAI」にどんどん進化しているらしい。つまり、昔のように「PCをどれだけ小型化軽量化して体に装着するか」というのは、もう課題では無くて、「そのデバイスで何をするか」という次のステージに移っていると言う事ですからね。今でも、作業者が使用している小型カメラの映像を、遠隔地にいる技術者と共有しながら指示を与えて作業を進めるような、双方向協業みたいな仕組みは実用化されていますが、これが「ウェアラブルAI」になると、その作業者が外部接続出来ないような環境でも同等以上の情報を受けながら作業出来るわけで、かなりニーズは高そう。例えばトンネル工事とか、ビルの地下の作業とか、将来的には宇宙空間での作業なんかでは技術提供だけでなく、周りの環境をモニターしながら危険察知とか生存可能性向上のためにも利用されるんでしょうね。

私はSF好きだから、結構そう言うAI系の作品も読むのだけれど、どうしても昔の「光速エスパー」のチコをイメージしてしまうんですよね。あるいは、装着系では無いけれど「ナイトライダー」のキットとか、自然な対話型のインターフェースが普通のように感じてしまうけれど、その敷居は結構高い気がします。でも、ChatGPTの登場でその敷居が一気に下がり、日本語での会話ですらそんなに違和感を感じないくらいで、多分現在の最新の技術だと殆ど生身の人間なのか人工知能なのかは、普通に会話するだけでは判断出来ないんじゃ無いだろうか。となると、後は情報DBを充実させて必要な情報を的確に提供出来ればいいだろうし、それはそんなに難しい事では無いと思う。

技術情報の場合、グラフィックデータが重要な場合が多々あるんですが、個人的には音声I/Fの充実というのが次のブレークスルーに一番必要なのではと思います。一つは、「会話」でもかなり十分な情報共有が可能なのと、画面I/Fのようなそれなりにサイズが必要なデバイスが不要で、耳にイヤホンが入っていれば良いだけですからね。課題は、人間側も会話しないといけないから、例えば静粛性が必要な場所での作業は問題かもしれない。でも、会話I/Fで日本語で話した物が、自動的に多言語翻訳されて、それで異なる言語環境でも情報共有されていく、みたいな事はもう実現していると言えるんじゃ無いだろうか。これが充実すると、視覚障害者の方にもかなり有効な「ガイドシステム」にも発展する気がする。未来を信じたいですね。

0 件のコメント:

コメントを投稿