2022年9月26日

心の目で見る

周囲の音響特性を解析して、障害物などをVR化するシステムという記事。動物の中では、コウモリが超音波を発して、その反共で周りの障害物を認識して飛び回っていることはよく知られているけれど、それを舌打ちでやるというのはちょっと面白い発想。自分なら、何か超音波発生器みたいなものを手持して認識するような事を考えるかも。あるいは、スマホから音波を発信して、それをスマホが受信して画面に表示する位のことは簡単にできそうな気がする。可聴音だと、そのセンシング用の音が周りに迷惑を掛ける可能性も大きくなるから拙いだろうけど、超音波など人間や周りに迷惑を掛けないような周波数帯の音波ならそんなに問題にはならないだろうなぁ。 

元々は、全盲のダニエル・キッシュさんという方が、自分の舌打ちの反響音で周りの障害を認識していたことから発想を詩用ですが、「人間コウモリ」とでも言えるようなその能力獲得には、どんな努力や苦労があったのだろうか。気になるのは、その反響音から得られた情報を、この方はどの様に認識して理解しているのかという事。一歳で全盲になったと言う事は、我々が自然に認識している物の形とか大きさみたいな認識は無いだろうから、それをどの様に頭の中で解釈しているのか、そこが何か可視化できたら、もう少し簡単に音響特性から物体認識みたいな仕組みが出来るかもしれない。日本には「心の目で見る」なんて言う言葉があるけれど、まさにその局地にいる人なのかもしれない。

自分はメガネを掛けているので、視覚に不便をすることは殆ど無いのだけれど、例えばメガネを掛けても視野が狭いとか笑点が合わないなどの状態になったら、正直生活出来ないくらいのショックだと思う。SF的には、外部カメラを付けて、その入力を視覚神経に入れれば「見える」様になるのかもしれないけれど、それって今の自分達がテレビで見る様な画面に見えるのだろうか。実験的には、解像度はまだ低いけれどそう言う技術は生まれつつあるわけで、案外近いうちにスタートレックのデータ少佐みたいな技術が実現するかもしれない。

実際、HMDなんて今は大きくて重くて邪魔な物だけれど、あれが小型化されてメガネくらいのサイズになったら、「見る」という行為はかなり変わってくるかも。今は「目に入る物」だけ認識出来るけれど、表示装置まで含むようになれば、付帯情報だけで無く、そこからリンクで飛んで新しい情報にも繋がるだろうし、カメラみたいにズームとか赤外線表示とか、まぁ殆どSFの話が実現することに。技術的には、例えばワープ装置なんかと比べたら十分実用化の範囲に有る話だろうから、是非こう言う技術を集約して新しい「機能」を実現して欲しい。

0 件のコメント:

コメントを投稿