2011年1月15日

ユーザーインターフェース

個人的に興味のある分野でもあるUI(User Interface)の話。技術的な可能性の話を忘れると、やはり究極的なUIは人間が元々持っている「言葉」と「ジェスチャー」ではないでしょうか。しかも、言葉とジェスチャーがそれぞれ分離するのではなく、両者が複合的に一つの「シグナル」になって認識されるような。だから、例えば耳が不自由な人の場合、言葉の発音が不明瞭な場合もあるけれど、そういう場合でも動作も加味することでコンピューター側が認識率を上げたり、あるいは発声出来ない場合は、ジェスチャー重視で認識するとか。

「ジェスチャー」というと、手振り身振りと思われがちですけど、「表情」とか「視線」とか、そっちの方が重要になるかも。特に、内蔵カメラとか利用して「視線」を認識することが出来れば、今のマウス等のポインティングデバイスが無くなるかも。じゃぁ、目が不自由な人はどうするのか。これは、もうタッチI/Fとか指さしを視線代わりに使うとか、そういう処理も必要でしょうね。

UIについては、より直感的なI/Fになっていくとは思うけれど、問題なのは時代や世代でその「直感的」な部分が異なること。例えば私の世代なんかだとテレビのチャンネルは「回すもの」という意識がまだあるけれど、今では10キーで「選ぶ物」だし、電話なんかもそれに近い感覚があるかも。電話に関してさらに言えば、今は「電話番号」だけど、携帯のアドレス機能とか使っていると、「相手の名前・名称」が番号に変わるのも近いかも。同じような話で、住所もメルアドになるかもしれないし。電子書籍にしても、今は「紙の本」の経験が多くあるから、ページめくりの動作もそれを踏襲していますが、最初から電子書籍に慣れた世代が育ってきたら、横(左右)スクロールだけになるかもしれない。

ちょっと困るのは、今のゲーム世代が台頭して、十字キーとボタンだけのI/Fになること(笑)。ゲームをしない私にとっては、それは恐怖としか言いようがない(マテ)。だから、未だにテレビのリモコンで録画した番組のタイトルを入れたりとかいうのは苦手... 単純かも一つの方向性だと思うけれど、余りに単純化されすぎても困りますね。

0 件のコメント:

コメントを投稿