Siriなどの人工知能(AI)アシスタントに指示をうまく聞き取ってもらうには、人間側がある程度型にはまった話し方をする必要があります。しかしながら、なかには吃音症の方など、それが難しい方もいらっしゃいます。AppleやGoogle、Amazonはそのような方でもAIアシスタントを手軽に使ってもらえるよう研究を行っているそうです。
ポッドキャストの音声を使って研究中
Appleはポッドキャストの音声のなかから、吃音で話されている28,000のオーディオクリップを抽出しました。
そして、これらを利用し、話している人が吃音かどうかを自動的に検出する方法について研究しています。
また、このデータは吃音を含む非定型の音声パターンを持つ方たちのための音声認識システムを改善するのに役立てる予定だそうです。
Appleはすでに、2015年にHold to Talkと呼ばれる機能で、Siriに対してどれくらいの時間話し手の音声を聞いていてほしいかを制御できるようにしています。これは、話している途中で吃音を起こしたユーザーに対してSiriが処理を中断するのを防ぐのに役立ちます。
また、iOS11で導入されたType to Siriと呼ばれる機能により、音声を一切使わずにSiriを利用することも可能です。
GoogleとAmazonも非定型音声に対する改善を行う
非定型音声に対する取り込みを行っているのはAppleだけではありません。
Googleの”Project Euphonia”と呼ばれるプロジェクトでは、非定型音声パターンを持つ人々に対して、その人々の話し方を理解できるようにソフトウェアをトレーニング可能なプロトタイプアプリをテストしています。
また、AmazonはAlexa Fundが支援するイスラエルの新興企業であるVoiceittをAlexaに統合することを昨年12月に発表しました。Voiceittは、音声障害を持つ人々の発声パターンを認識するアルゴリズムを訓練するためのものです。
人がより自然にAIアシスタントに話しかけても、やりたいことをくみ取ってくれる日が来るのは近いのかもしれません。
Source:The Wall Street Journal via MacRumors
(ハウザー)
- Original:https://iphone-mania.jp/news-349660/
- Source:iPhone Mania
- Author:iPhone Mania
Amazonベストセラー
Now loading...