アマゾンの音声アシスタントのAlexaは大きな課題に挑んでいる。多言語対応の製品として動作するだけでなく、対応している各言語の地域による違いもAlexaが認識できるようにすることだ。
これを実現するためにAlexaはあらゆるバリエーションを完全に学習しなおした。これにはたいへんな時間とリソースを要する。しかしAlexaのAIチームは、音声認識をトレーニングする新しい機械学習ベースの方法を開発した。これにより、既存の言語の新しいバリエーションのモデルを構築しなおす作業は大幅に減る。
North American Chapter of the Association for Computational Linguisticsに提出された論文によると、アマゾンのAlexa Alの上級応用サイエンスマネージャー、Young-Bum Kim氏のチームは、テストに使用した米国、英語、インド、カナダの4種類の英語について、正確さがそれぞれ18%、43%、115%、57%向上する新しいシステムを設計したという。
チームは、ユーザ一がどこでリクエストしたかにかかわらず答えがあまり変わらない場合よりも、あるドメインのユーザーからのリクエストに対する答えが地域に固有のものであることが前もってわかっている場合(近くのレストランを教えて、と聞かれたときなど)に重みをつけて学習アルゴリズムを調整する方法を実装した。
次にAlexaのチームは、地域に固有のモデルを1つに統合し、その言語で場所の影響を受けないモデルも追加した。その結果、前述の向上が見られた。
基本的には、共通の基盤を活用し、答えが大きく変化することについて差異を追加するだけにすれば、あまり手間をかけずに地域によって違う答えを返すようになる。時間をかけてAlexaはもっと賢く、速く、言語面で柔軟になるはずだ。
[原文へ]
(翻訳:Kaori Koyama)