佐々木俊尚氏のVoicyから、車のI/Fのタッチスクリーン化は正しいのかどうなのかという事を、パーソナルコンピューターのDOSからWindowsへの移行に絡めての話。私も、大学でDOS以前のパソコン(当時は「マイクロコンピューター=マイコン」)からこの世界に関わっているので、DOS以前、DOS、Windowsという変遷をリアルタイムで経験してきた世代。Windows 1.0を実際に見て操作したことある人間って、そうそう居ないと思うし、それ以降のWindowsの各バージョン、世代を現在まで弄ってきているのは、なかなか無い体験だと思う。
佐々木氏が話されているように、DOS以前のPCは、画面上には今のWindowsのコマンドプロンプトみたいな画面が起動すると表示されて、そこからプログラム(バイナリー)をロードして確かJUMPコマンドで特定アドレスを指定すると、そのロードしたプログラムの実行が始まったような。直接メモリーにコードを置いて実行をして居た。何かコマンドを実行する場合は、それを繰り返していたわけです。それがCP/Mが登場してOSがPCにも降りてきて、そこからSCPの86-DOSになり、さらにMS-DOSやPC-DOS等が生まれてきたのがかなりざっくりとしたWindows以前の世界。この時代は、基本的に使用する1アプリケーションを使うためにパソコンを使用するような時代だったから、アプリを切り替えるためにはパソコンを再起動して使い分けていた様な時代。それがDOSが登場して、アプリを終了して次に別のアプリを起動すれば再起動無くても利用出来るようになったわけですが、最初の頃はメモリーを解放しなかったり、色々トラブルも。だから、Windowsの初期のバージョンは、GUIとかマルチタスクとか色々言われているけれど、正直3.0が出るまでは「タスクスイッチャー」みたいな存在だった気がする。
ところで、車のI/Fとしてのタッチパネルですが、やはり運転中に操作するのに視線を前方から移動させてタッチパネルを見ながら操作するというのは問題があるように思います。ですから、個人的にはタッチパネルではなく、現在もすでに利用されているような音声コマンドがもっと活用されるようになるのが正しい方向性じゃ無いかと思うんですよね。エアコンの操作とか温度設定とか風量設定、さらにはオーディオの操作等は、仮に音声操作で失敗してもそんなにリスクは無いだろうし。勿論、音声そうさだけでは無く、タッチパネル等音声以外の方法も並行して提供しないといけないだろうけど、でも「運転」という事に本来は100%集中しないといけない状況では、音声コマンド音声操作というのがある意味究極なI/Fだと思うなぁ。
すでにAppleのCarPlayだったり、AndoroidのAutomotiveみたいなものも登場しているので、それらの音声操作機能を利用して社内環境設定をしたりオーディオ操作する事はもう可能だろうし。将来的には、社内搭載されているコンピューターが、そういう部分まで肩代わりして、自動応答のAIみたいな感じになればさらに完璧なんだろうけど、多分そこまで搭載コンピューターに負担を掛けると、肝心の車のコントロールにタイムラグが生じたり、誤動作に繋がったりするかも。個人的には、運転系のコンピューターとは別に、社内環境用のコンピューターを準備して、必要な時にはそれぞれが通信をしてデータ交換すればいいとおもう。で、社内環境用コンピューターという意味では、多分機能的には今のスマホくらいの物があれば、かなり間に合うんじゃないだろうか。後は、I/F系をどうするかだけかな。その部分は、内蔵させて、コンピューター部分は自分のスマホを社内で装着すると利用出来るみたいな感じが一番理想的かも。いずれにしても、佐々木氏も話されているように、今の車は「移動の手段」で移動するためのツールだけれど、将来的に自動運転が実用化されれば、今の新幹線のように「移動中の時間」みたいな感じで、一つのイベントみたいな感じになるんじゃ内だろうか。そうすると、今の車デザインも全く違う物になるだろうし、それはDOSからWindowsになって複数のアプリを連携して使用するという利用環境の変化が利用だったことと同じような気がします。
0 件のコメント:
コメントを投稿