2018年11月24日

AEON@KDDI

英会話教室のAEON(イーオン)と親会社になるKDDIが共同で、AIを使って英語の発音を評価するシステムを開発したという記事。音声認識やテキストスピーチの技術が世の中に出るようになって、もう20年30年位過ぎているけれど、なかなか一般化しないというかブームになるような傾向が見られない。そこで今回は、最近話題の「AI」を利用してサービスの様ですが、発音の評価だけなんですね。言ってみれば、カラオケの採点機能みたいなものか(マテ)。

AIの活用方法として、今回の様に発音を聞いてその問題点やクセなどを認識し、どうしたら早く正確に修正できるか提案するような仕組みは便利だと思いますよ。でも、個人的経験から言えば、話す前に先ずは相手の話が聞き取れて理解出来ることが優先するんじゃ無いかと。つまり、いくら発音が良くても、文法的に正しくても、その答えが相手の話と噛み合っていないと「会話」として成立しないわけで、その為には相手が何を言っているのか理解しないと。

私がAIを利用したサービスで有ったら利用したいなと思うのが、対話者の発音や言葉遣いをアメリカの地域毎に話し分けてくれる機能。例えば、New YorkとかBoston等の東部と、San FranciscoやLos Angelsという西部では、結構言葉が違う。言い回しや発音が違います。さらに言えば、New York等の北部と、AtlantaとかMiami見たいな南部でも、言葉が違う。私は、東海岸側で仕事をしていた時間が一番長いので、そちら側の人と話をするときにはそれほど不便を感じないのだけれど、西海岸からのエンジニアと話しをするときには、何日か助走して耳を慣らさないと、一寸分からないときがあったりします。まぁ、まだ英語のスキルが低いのが最大の理由何だろうけど、でも耳を慣らす機能があれば便利だと思う。

これは自宅のケーブルテレビでCNNとBBCのニュースなんかを見ているときも感じることで、CNNのアメリカ英語は大体分かるけれど、BBCのクィーンズイングリッシュになると、時々「えっ??」と感じることも。面白いことに、どちらもアジアとか本国以外のスタジオからの放送も多く含まれますが、CNNの場合はそれが香港だったりインドだったりしても有る程度理解出来るけれど、BBCだと同じ香港のスタジオからの中継でも、一寸難しいときがある。「類は友を呼ぶ」では無いけれど、やはり本国の影響というか傾向が反映されるんだろうか。最も、一番分かりづらいのは、オーストラリアの発音ですが。未だに電話会議で一番苦労するのは、それだったりする。昔はインド人の英語が聞き取れなかったけれど、会社にインド系のエンジニアが増えて話しをするようになると、何となく理解出来るようになり、逆に余り馴染みの無いオーストラリアが今のところ一番の難関です(笑)。

そう言うクセとか地域性を反映した発音を聞かせてくれるサービスが有れば、一寸使ってみたい気がするんだけれど。で、私の返事もAIが学習して、どう言う発音が苦手なのか分析し、大体はそう言う音もそうだけれど、耳がその単語の周波数になれていないという事も有るだろうから、ノイズとか音楽を流して、耳の可聴領域を広げるとか、色々アイデアは有りそうですよね。

0 件のコメント:

コメントを投稿