Experience Prototypistのマルチリンガル子育て+プログラミングブログ

Design Thinking、語学(英語、中国語、韓国語)、日中マルチリンガル育児、littleBitsやRaspberry Pi, Arduinoを使ったExperience Prototypingネタ。

発音の矯正が可能なソフト

最近、音声認識をベースに話者の発音が正しい(あるいは通じる)かどうかを判定する英会話練習ソフトウェアが出てきている(たとえば、新しいところでは下で紹介しているソースネクストの「いきなり英会話」シリーズなど)。こういった外国語教育分野に音声認識エンジンを適用することは、結構難しいところがある。

一点目には、日本語のネイティブ話者が日本語の音声認識エンジンを使ってディクテーションを行っても、必ずしも100%の認識率が得られないことからもわかるように、人にとって通じる話し方が、必ずしも音声認識エンジンにとっても通じる話からではないということが指摘できる。

また二点目には、グラマベースの(つまり発話内容をあらかじめ設定しておき、話者の発話内容がそのグラマに対してどの程度のスコアが得られたのかという)音声認識では、相当いい加減な発話をしない限りは、それなりの認識結果になってしまうのではないかという点が指摘できる(こちらに関しては、私も既存のソフトウェアを元に評価をしてみたいと思っている)。

最後に三点目として、音声認識エンジンは「間違っている」「理解できない」ということは指摘できたとして、じゃあ、どうすればいいのかを利用者に提案することはできないという点が上げられる。もちろん、正解の"rice"という発話に対して、録音しておいたユーザの発話を、グラマ1 "rice" と グラマ2 "lice" とで照合して、グラマ2による解析結果の方が高スコアであれば、「ラ」の音は下を歯茎の裏につけずに"r"で発音しましょう、なんてことができなくはないが、すべてに対してそんな間違いそうな発音のパターンを用意しておくのは、なかなか困難である。また、発音の間違い方というのは往々にして母語による干渉を受けるので、日本人向けの教材が(たとえば、)中国人向けにはそのまま使えない、という点で、その英会話教材を世界展開しようとするなら、膨大な作業量が必要となってしまうだろう。

ということで、産総研ニュースリリース、「口や舌など発声器官レベルで矯正指導が可能な英語自動ティーチングシステム」である。

口や舌など発声器官レベルで矯正指導が可能な英語自動ティーチングシステム

当然のことながら、ネイティブ話者は学習者の発音が「合っている」「間違っている」「通じる」「通じない(別の意味に聞こえる)」「通じにくい」というような判断はできるにしても、(普段は無意識的に発話していることから)どう直せばよいのかを指摘することは(専門の教育を受けたのでなければ)なかなかできない(そういう意味では現状の音声認識ベースのシステムであっても、ネイティブと同じ程度には利用価値がある)。さて、このシステムを使えば、唇を丸く、などと具体的な指示をしてくれるようである。

しかし、電総研の担当者の方、「自宅でこっそり発音訓練」ってのは、ちょっと発想が暗くないですか? べつにこっそり発音訓練しなくても、堂々と発音訓練すればいいじゃないですか? このシステムが実用化されたとして、最初に導入すべきは、自宅じゃなくて、中学校などの教育機関だと思いますよ。個々人の現状のレベルに合った(かつ反復練習の必要な)教育を提供するというのが、コンピュータを使った教育の利点であって、自宅で一人(みんなの気づかないうちに上達してやる)勉強するというのは、ちょっとねぇ。英語がうまくなっても、コミュニケーションがうまくない人間を量産してしまい、英語ができるが故に日本のイメージ低下を招いてしまいそうな気がします。

ところで、発音はとても重要なのは事実ですが、ネイティブだって食事しながら(口に物を入れて咀嚼しながら、正しくない口の形で)会話が成立しているわけで、過度に神経質になるのはどうかと思いますよ。もちろん、日本人が間違った発音をする際の法則性と、ネイティブが食事しながら「正しくない」発音をする際の法則性の間には大きな違いがあるのは事実ですが。