Microsoft(マイクロソフト)は米国時間3月22日、同社の翻訳サービスを改訂したことを発表した。新しい機械学習技法によって、多数の言語間における翻訳が著しく改善されるという。「spare Mixture of Expert(Mixture of Expertを出し惜しみする)」アプローチを使用するという同社のProject Z-Code(プロジェクト・ズィー・コード)を基盤とする新モデルは、盲検法評価で同社の以前のモデルより3~15%高いスコアを記録した。Z-CodeはMicrosoftのXYZ-Codeイニシアチブの一環で、複数の言語を横断してテキスト、視覚、音声を組み合わせることによって、これまで以上に強力で有効なAIシステムを作る。
「Mixture of Experts」はまったく新しい技法というわけではないが、翻訳の場面では特に有効だ。システムはまず、タスクを複数のサブタスクに分割し、それぞれを「expert(エキスパート)」と呼ばれるより小さい特化したモデルに委譲する。次に、どのタスクをどのexpertに委譲するかを、独自の予測に基づいてモデルが決定する。ごく簡単にいうなら、Mixture of Expertsは複数のより特化されたモデルを内包するモデルと考えることができる。
「Z-Codeを使うことで、驚くほどの進展が見られました。それは、単一言語と複数言語のデータに対して転移学習(transfer learning)とマルチタスク学習の両方を使って最先端の言語モデルを作ることができたからです。これで品質と性能と効率性の最善の組み合わせを顧客に届けることができます」とMicrosoftのテクニカルフェロー兼Azure(アジュール)AI最高技術責任者のXuedong Huang(シュードゥン・ホァン)氏はいう。
この結果、例えば、10種類の言語間で直接翻訳することが可能になり、複数のシステムを使う必要がなくなる。すでにMicrosoftは固有表現抽出、文章要約、カスタム文章分類、キーワード抽出など、同社AIシステムの他の機能の改善にZ-Codeモデルを使い始めている。しかし、翻訳サービスにこのアプローチを利用したのはこれが初めてだ。
翻訳モデルは伝統的に著しく巨大で、製品環境に持ち込むことは困難だった。しかしMicrosoftのチームはsparse(スパース)アプローチを採用し、タスクごとにシステム全体を動かす代わりに、少数のモデルパラメータのみを起動する方法を選んだ。「これによって大幅にコスト効率よく実行できるようになります。家の暖房を1日中全開されるのではなく、必要な部屋を必要な時だけ暖めるほうが安くて効率がよいのと同じことです」とチームがこの日の発表で説明した。
画像クレジット:Keystone/Getty Images / Getty Images
[原文へ]
(文:Frederic Lardinois、翻訳:Nob Takahashi / facebook )