翻訳アプリのReversoがデスクトップ版をリリース、文書翻訳や企業内サイト翻訳など事業も拡大中

言語学習会社のReverso(リバーソ)が、macOSならびにWindows用のデスクトップアプリ(Reversoサイト)をリリースした。モバイル版と同様に、翻訳辞書にアクセスして、文脈付きの例文を取得することができる。2日間で4万回のダウンロードがあった。

Google翻訳は大成功を収めているが、一方でReversoはiOSとAndroid上で2000万ダウンロードを達成している。ほとんどのユーザーはフランス、イタリア、ロシア、米国からアクセスしている。同社のウェブサイトには、毎月数千万ものユニークビジターが集まり、そのページビューは5億人を超えている。

今回の新しいデスクトップアプリを使うことで、コンピューターを使用しているときにReversoに素早くアクセスできるようになる。任意のアプリ上で、1つまたは複数の単語をハイライトさせて、キーボードショートカットを使用してReversoでそれらの単語を検索できる。問い合わせの結果を表示するアプリウィンドウには自動的に切り替わる。

アプリから同義語にアクセスしたり、単語の発音を聞いたりすることもできる。モバイルと同様に、アプリは無料で、より多くの機能にアクセスするためのサブスクリプションオプションがある。

そのほかのニュースとして、Reversoは最近Reverso Documents(リバーソ・ドキュメンツ)もローンチした。このサービスを使えば、自分のドキュメントをアップロードして、オリジナルのレイアウトで翻訳を得ることができる。ドキュメントをダウンロードする前には、翻訳を確認し編集することができる。舞台裏では、同社はこの種の製品のためのニューラル機械翻訳技術の向上を行ってきた。

現在Reverso Documentsは、Word、PowerPoint、PDF、Excelファイルをサポートしていおり、毎月5万人がReverso Documentsを利用しているという。このサービスを利用する際には、1回ごとの支払いか、サブスクリプション支払いかを選ぶことができる。

同社はまた、企業クライアントと協力して、ユーザーガイドや社内ガイドラインなどの翻訳支援を進めている。企業はReversoが特定の語彙について学習できるように、すでに翻訳されているドキュメントをアップロードすることができる。クライアントには銀行や自動車メーカーなども含まれている。

Reversoは、ウェブ広告以外への収益源の多様化を行っている最中だ。また、同社は入口に大きなユーザーベースを抱えており、この先多くのReverso製品との出会いが期待される。

カテゴリー:ソフトウェア
タグ:Reverso、翻訳

画像クレジット:Romain Vignes / Unsplash

原文へ

(翻訳:sako)

Appleも翻訳アプリ投入、オフラインで日本語など11言語に対応

翻訳は何百万という人が毎日スマホで使っている機能だ。しかしいくつかのマイナーな機能を除き、Apple(アップル)は概ねライバルに遅れをとっている。しかしこうした状況は一変する。同社は「Translate」という機能そのままの名称の新たなiOSアプリを発表した。11言語に対応し、インターネット接続は不要だ。

このアプリは話し言葉あるいは短いテキストで使用するためのものだ。言語のセレクター、テキスト入力スペース、録音ボタン、そのほかお気に入りや辞書といった追加のウィジェットが用意されている。

差し当たってTranslateが対応する言語は英語、北京語、フランス語、ドイツ語、スペイン語、イタリア語、日本語、韓国語、アラビア語、ポルトガル語、ロシア語で、今後他の言語も追加される。使うには、言語2つを選び、文言をペーストするか音声を録音する。すると、翻訳されたものがすぐに表示される。

インターフェースをシンプルにできるランドスケープモードもある。

このアプリの最も優れている点は、他の翻訳アプリと異なり完全オフライン仕様となっていることだ。つまり通信状況に関係なく、あるいは普段使っている通信会社のサービスが届かないところでも利用できる。通信データ量を節約するのにもいい。

リリース詳細はまだ明らかになっておらず、おそらくiOS 14へのアップグレードで使えるようになる。

[原文へ]

(翻訳:Mizoguchi

耳栓型の双方向翻訳機WT2が1月に発売、リアルタイム翻訳の実現も近い

Timekettleは、昨年のTechCrunch Shenzhen(深圳)で披露した翻訳をするウェアラブルWT2のその後の進歩を、われわれにどうしても見せたいようだった。昨年の3Dプリントしたプロトタイプと違って、このクラウドファンディングされた耳あては、今や発売可能だ。

すでに初期支援者には現物を送り始めており、1月には予約購入者にも送り始める。そのハードウェアは、しっかり作られている。外見は大きすぎるAirPodケースのようで、二つを磁石で閉じる。使い方は、開いた状態で片方を話す相手に渡す〔下のビデオ参照〕。

アプリで言語を選び、各自が一つ耳につける。二つの翻訳機は区別できないが、光っているロゴの上に細い線(“まゆげ”)がある方が二号機だ。

GoogleのPixel Budsなどのウェアラブル翻訳器はあまり売れなかったが、こいつはそれらよりもずっと巧妙だ。着用者がお互いにアイコンタクト(視線を交わす)したり、ボディーランゲージ(身振り手振り)を使えたりするところが、ミソだ。それらは、言葉が違う者同士のコミュニケーションでは、とても重要だ。

しかし、でも、それが障害になるかもしれない。多くの場合、見知らぬ人に片方の耳あての装着をお願いすることになるだろう。それが、つらい。でも、まじめなビジネスの場面なら、とっても便利なツールだ。

でも前者のような場合には、アプリとその画面でコミュニケーションできる(下図)。お互いにロゴをタップしてから話す、という、ウォーキートーキー(トランシーバー)的な使い方もできる。それは、まわりの騒音を拾わないための工夫だ。

全体的にぼくは、かなり感銘を受けた。同社のCEOとの会話を書き起こした上図の例でお分かりのように、翻訳は完璧ではない。でも、あたりのノイズと、上質でないセル接続と、会話の相手が‘歩きながら’にこだわったことを考えると、WT2の仕事は賞賛に値する。

現在は、翻訳に遅延がある。話終わってから数秒後に、相手の耳に翻訳が行く。これは、言葉の勉強を助けるためかもしれない。でも、発売までにはリアルタイム翻訳に近い性能にしたい、と同社は言っている。

〔訳注: WTはたぶん、Wearable Translatorの頭字語。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

翻訳サービスのReversoが同義語辞典アプリケーションとモバイルアプリをローンチ

言語学習サービスReversoが、新しいWebアプリケーションおよびモバイルアプリとして、Reverso Synonymsを立ち上げた。これは一種のシソーラスサービス(類義語辞典)で、これを使ってユーザーは、新しい言葉を覚えたり自分のボキャブラリーを増やしたりできる。

この機能は、翻訳アプリケーションのReversoに前からあった。語や語のグループを翻訳しているときに、“S”ボタンを押すと、関連語が表示される。

でもそれは、あくまでもソフトロールアウトだったけど、今回は単独の完全なサービスとして提供される(“ハードロールアウト”)。対応している言語は、英語、フランス語、スペイン語など12か国語だ。

使い方は簡単で、単語をタイプするとたくさんの同義語が表示される。例文がついているし、詳しい語義もある。語をタップすると、意味を確認できる。

しかしそれだけではなくて、スラングを翻訳してくれるし、複数の意味がある語には複数の類義語が出る。単語だけでなく、“beside the point”のように複数の語から成る語句も扱える。有料会員は、さらに多くの機能を利用できる。

さらにおもしろいのは、Reversoがこの新サービスのための大きなデータベースを、短時間で作ったことだ。つまり同社は何年もかけて翻訳用の辞書を作ってきたから、そのデータを利用して新製品のためのベーシックなデータベースを作れたのだ。

Reversoの翻訳サービスReverso Contextには、20億語から成るバイリンガルの辞書がある。二つの語が、複数の言語で同じ翻訳結果になれば、同義語だと見なせる。もちろんそのデータは、アルゴリズムの改良と、一部は人間の手により、調整されてきた。

翻訳や辞書ではGoogle Translateがもっぱら優勢だが、それでもReversoは各月のユーザーが数千万いて、Webアプリケーションだけでも4億5000万のページビューを生成している。Googleのほぼ独占の中で、かなり健闘している。メインのサービスはあくまでも翻訳だが、今度の新しいサービスもなかなかおもしろい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの翻訳結果が‘字義通りだけど無意味’なので警官の捜索が憲法違反に

外国語の機械翻訳がとても便利であることは確かだが、どこかへの行き方やおすすめのランチ以上の話題になると、その浅さが現実的な障害になる。そしてそれが、法律や基本的人権の問題になると、“まあまあの翻訳”では役に立たない、とある判事が裁定した。

その判決(PDF)にそれほど重大な意味があるわけではないが、翻訳アプリは今や法曹の世界でも使われ始めているので、その今後の正しい進化のためにも、気にする必要があるだろう。今は幸いにも多言語社会になっているが、しかし現在および短期的な未来においては、異なる言語間の橋渡しがどうしても必要だろう。

その裁判では、Omar Cruz-Zamoraという名前のメキシコ人がカンサス州で警官に、道路脇への停車を命じられた。警官たちが彼の同意のもとに車の中を調べると、大量の覚醒剤やコカインが見つかり、当然ながら彼は逮捕された。

でも、ここからが問題だ。Cruz-Zamoraは英語が話せなかったので、車の中を捜索する同意はGoogle Translateを介する会話によって得られた。法廷は、その会話が十分に正確ではないので、“当事者の自発的かつ了解のもとに”得られた同意を構成しない、と見なした。

アメリカの憲法修正第4条は、不合理な捜索や押収を禁じている。そして正当な理由がない場合公務員は、Cruz-Zamoraが、車内の捜索を断ってもよいことを理解していることを必要とする。会話からは、その理解が明確でなく、一貫して両者は、相手の言っていることの正しい理解に失敗している。

それだけでなく、アプリが提供した翻訳は、質問を十分に正しく伝えていない。たとえば警官は英語から翻訳されたスペイン語で“¿Puedo buscar el auto?”、と質問している。その文字通りの意味は、“車を見つけてもよいですか”に近く、“車を捜索してもよいですか”にはならない。Cruz-Zamoraがその“字義通りだが無意味な”(←裁判長の言葉)翻訳結果から、車の捜索に同意するかという本当の質問を類推できた、という証拠はない。彼自身に選択の権利があることすら、理解しなかったかもしれない。

同意が無効なので車の捜索は憲法違反となり、Cruz-Zamoraの告訴は取り下げられた。

Google Translateなどのアプリでは同意が不可能、という意味ではない。たとえばCruz-Zamoraが自分でトランクやドアを開けて捜索をさせたら、それはたぶん同意を構成しただろう。しかし、アプリを使った対話が正確でないことは、明らかである。これは、英語の話せない人を助けたり調べるためにパトロールしている警官だけの問題ではなく、法廷の問題でもある。

機械翻訳サービスのプロバイダーは、その翻訳がほとんどの場合に正確だ、数年後にはとても難しい場合をのぞき人間翻訳者をリプレースする、とわれわれに信じさせようとしているかもしれない。しかし今回の例が示すのは、機械翻訳がもっともベーシックなテストに失敗することもありえる、ということだ。その可能性があるかぎり、私たちは健全な懐疑主義を持ち続けるべきだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのTranslateアプリがインターネット版と同じく機械学習の使用へ(全59言語)

GoogleのTranslateアプリは、iOSでもAndroidでも、現状ではインターネットにアクセスした方がオフラインで使うより結果が断然よろしい。その理由は、オフラインの翻訳は機械翻訳の古いテクニックであるフレーズ(語句)ベースの翻訳であるのに対し、オンラインでは最新の機械学習によるシステムを利用しているからだ。しかしそれが今日(米国時間6/12)から変わり、TranslateアプリではオフラインのNeural Machine Translation(NMT)が59の言語をサポートする。

今日はまだ、少数のユーザーがそのアップデートを体験できるだけだが、数週間以内に全ユーザーに展開される予定だ。

サポートされる言語はとても多くて、自分の好きなのだけ挙げてもしょうがないから、ここではそのすべてをご紹介しよう:

Afrikaans, Albanian, Arabic, Belarusian, Bengali, Bulgarian, Catalan, Chinese, Croatian, Czech, Danish, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Galician, Georgian, German, Greek, Gujarati, Haitian, Creole, Hebrew, Hindi, Hungarian, Icelandic, Indonesian, Irish, Italian, Japanese, Kannada, Korean, Latvian, Lithuanian, Macedonian, Malay, Maltese, Marathi, Norwegian, Persian, Polish, Portuguese, Romanian, Russian, Slovak, Slovenian, Spanish, Swahili, Swedish, Tamil, Telugu, Thai, Turkish, Ukrainian, Urdu, Vietnamese and Welsh(アフリカーンス語、アルバニア語、アラビア語、ベラルーシ語、ベンガル語、ブルガリア語、カタルーニャ語、中国語。クロアチア語、チェコ語、デンマーク語、オランダ語、英語、エスペラント語、エストニア語、フィリピン語、フィンランド語、フランス語、ガリシア語、ジョージア語、ドイツ語、ギリシャ語、グジャラート語、ハイチ語、クレオール語、ヘブライ語、ヒンズー語、ハンガリア語、アイスランド語、インドネシア語、アイルランド語 、イタリア語、日本語、カンナダ語、韓国語(朝鮮語)、ラトビア語、リトアニア語、マケドニア語、マレー語、マルタ語、マラーティー語、ノルウェー語、ペルシャ語、ポーランド語、ポルトガル語、ルーマニア語、ロシア語、スロバキア語、スロベニア語、スペイン語、スワヒリ語、スウェーデン語、タミール語、テルグ語、タイ語、トルコ語、ウクライナ語、ウルドゥー語、ベトナム語、ウェールズ語)。

これまでは、ハードウェアの能力の限界などにより、スマートフォンの上でディープラーニングのモデルを動かすことはできなかった。しかし最近のハードウェアとソフトウェアの進歩により、その問題は克服され、またGoogleやMicrosoftなどはモデルを小さく圧縮して使う方法を見つけた。Googleの場合、それは一言語につき30から40メガバイトになる。

なおMicrosoftも今年の初めに、同社のTranslatorアプリに同種の機能を発表した。ただし当面それは、対象言語が1ダースぐらいだ。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoft翻訳が新AIアルゴリズムでオフライン化――サードパーティーのデベロッパーも利用可能

外国に旅行するとき自動翻訳アプリをインストールしていく人は多いだろう。しかしいざというときにインターネット接続がなかったら? 旅行先ではありがちだ。たいていの翻訳アプリはオフラインでも作動する。しかし高度な、ということはつまり処理量の大きいクラウド上の機械学習アルゴリズムを利用することができない。これまではMicrosoft Translatorもその例にもれなかった。

しかし今日(米国時間4/18)からAmazon FireAndroidiOSのアプリはオフラインでも(多少の変更は行われているものの)ニューラルネットワークを用いた翻訳が実行できるようになる(iOSユーザーあと数日待つ必要あある。現在アプリをAppleがレビュー中)。

このアップデートで興味深いのはMicrosoftがどんなプラットフォームでもAI処理を実行できるということだ。これまでのようにAI処理専用のカスタムチップを必要としない。

Microsoftの Arul Menezesは私の取材に対して、「新しい翻訳アプリは劇的に改良されている」と答えた。従来のアプリが依拠していた古い機械学習が不自然な文を生成しがちだったのに対して、今回のバージョンで採用された新しい機械学習のアプローチははるかに優れているという。しかもアプリのサイズも従来の半分だ。現在対応言語はアラビア語、簡体字中国語、フランス語、ドイツ語、イタリア語、日本語、韓国語、ポルトガル語、ロシア語、スペイン語、タイ語だが、今後さらに言語を増やしていくという。

Menezesによれば、Microsoftはこのローカルデバイス上のニューラルネット翻訳をHuaweiと共同で昨年から開発を始めたのだという。当初、Mate 10と Honor 10のAIコ・プロセッサを利用したが、Menezesによれば「細心の注意を払ったエンジニアリング」のおかげで開発チームはAI専用チップの必要を失くすことができた。

またデータセンターのサーバーに比べればモバイル・デバイスの能力は限定的なのでチームはモデルを多少スケールダウンせざるを得なかった。つまりオフラインで翻訳をさせた場合、オンラインの品質に達していない場合があり得る。しかしMicrosoftでは「オンラインとオフラインの翻訳品質の差はほとんど気づかれない程度だ」と述べている。「新しいニューラル翻訳はオフラインであってもわれわれの古いオンライン翻訳をはるかに上回っている。その差は大きい」という。MenezesはMicrosoft翻訳をGoogle翻訳と比べることもためらわなかった。

今回のアップデートでオフライン翻訳が可能になったが、同時に、Microsoftは他のAndroidアプリのデベロッパーにもこの能力を開放していく(もちろん有料だろう)。つまりサードパーティーのアプリはバックグラウンドでMicrosoftの翻訳アプリを呼び出し、翻訳を実行させ、表示することができる。オフラインであれば、アプリは翻訳アプリをオフラインで動かし、オンラインであればクラウド上で実行し、結果を受け取ることになる。

画像:Christophe Morin/IP3 / Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

APIとユーザープロダクトとの統合で機械+人力の翻訳サービスを提供するUnbabelが$23Mを調達

リスボンに本社を置くUnbabelは、彼らの言葉によると“AIを使い、人間の手で精製する”翻訳プラットホームで、ここを利用すると低コストでビジネスをグローバルに展開できる、という。その同社が今日(米国時間1/11)、シリーズBで2300万ドルを調達した。

このラウンドをリードしたのはScale Venture Partners、これにMicrosoft Ventures, Salesforce Ventures, Samsung Next, Notion Capital, Caixa Capital, Funders Clubらが参加した。この前のシリーズAのラウンドは2016年10月で、調達額は500万ドルだった。

Y Combinatorの2014年冬季を卒業したUnbabelは、AI/機械学習を利用し、約55000名の人間翻訳者のネットワークを併用しながら、メールやチャット、Webサイトなどのテキストを翻訳する。ただし翻訳結果ではなくAPIによるユーザープロダクトとの統合という形で提供され、すでにSalesforce, Zendesk, WordPress, Mailchimpなどのエンタープライズソフトウェアで利用されている。

Unbabelの協同ファウンダーでCEOのVasco Pedroによると、今度の資金は主に同社プラットホームのAI/機械学習部分の増強に充てられる。それは同社の成長とともに、重要性が増している。

もうひとつ資金を投じたいのが、営業とマーケティングだ。それは同社がこれまであまり力を入れなかった部分だ。ただし現在あるアメリカのオフィスは主に営業専門、ポルトガルは製品開発とエンジニアリングが主体だ。

課題のひとつは、Unbabelのようなソリューションがあるのだ、という認識の普及。つまりそれは、Google Translateのような機械翻訳か、それとも複数の言語を知ってる人間にやらせるか、という二者択一ではない。

Unbabelのプラットホームは機械を人間が補強し、人間を機械が補強する。その両方向だ。どっちが多くなるかは、コンテンツのタイプや、スピードと精度/ニュアンスのトレードオフで決まる。

たとえばチャットに翻訳機能を持たせたいユーザーは、機械翻訳によるリアルタイムに近いスピードを選ぶだろう。しかしメールは非同期だからやや遅くてもよいので、人間の出番が多くなる。

Unbabelは上で挙げたエンタープライズ向けサービスのほかに、Facebook(Oculus), Buzzfeed, Booking.com, Pinterest, Under Armourなども利用している。Pedroによると、今回の投資家たちがMicrosoftやSalesforce、Samsungなどと関係があるのも、今後のエンタープライズ顧客を獲得していくためだ。

Samsung Nextの社長Nick Nigamが、声明文の中で言っている: “地理的境界をなくしてしまう技術には投資対象としての魅力がある。Unbabelは語数あたりの利用料金が継続的に下がっているので、国境のないコミュニケーションがプロフェッショナルでスケーラブルに、しかも手頃なお値段で可能になる”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

両義的な文の機械翻訳で正しい訳語をガイドするGoogleのTransformerシステム

機械学習が翻訳にも大きく貢献することが実証されてきたが、弱点もある。たとえば翻訳モデルには、逐語主義(一語々々仕事をしていく)という性癖があり、それが深刻なエラーに導くこともある。Google Researchの今日(米国時間8/31)のブログ記事が、この問題の性質と、それに対する解決方法を詳述している。

同社の自然言語処理の部署にいるJakob Uszkoreitが、問題をうまく説明している。次のような二つのセンテンスがあるとしよう:

I arrived at the bank after crossing the street.

I arrived at the bank after crossing the river.

もちろん、これらの“bank”の意味は同じではない。でも、その意味はセンテンスを最後まで読まないと分からないから、アルゴリズムはこの語を拾ったとき間違った訳を与えるかもしれない。いろんな文章を注意して読むと、このような曖昧性は至るところにあることに気づく。

ぼくならセンテンスを書き換えるが(StrunkとWhiteはこれについて警告している)、もちろんそれは翻訳システムの能力にはない。また、このような曖昧なケースのすべてに対応できるように、ニューラルネットワークの振る舞いを変えることも、たいへんすぎて非現実的だ。

Googleのソリューションは、Attention Mechanismと呼ばれる。同社はそれを、Transformerと名付けたシステムへ実装した。それはセンテンス中の各語をすべてのその他の語と比較して、お互いのあいだにどれぐらい重要な影響関係があるか調べる。たとえば、“he”が話しているのか、“she”が話しているのか、それとも“bank”のような語に特別の意味があるのか…。

訳文を構築するとき、Attention Mechanismは各語を、他のすべての語の末尾につけた形で比較する。下のGIF画像は、その様子を表している。…ある程度はね。

今週のこの記事〔未訳〕を読まれた方は、すでにAttention Mechanismの用例をご存知だろう。その記事では協同ファウンダーが、この問題にはいちばん苦労した、と言っている。そして、Googleのポストが参考にしているコーネル大学のペーパーも教えてくれた。もちろん、Googleがそのペーパーの記述を模倣しているわけではない。しかしDeepLの実装はとても効果的で、Googleのよりも良いかもしれない。

Googleのやり方には、面白い副作用があって、システムのロジックをのぞき見できる: Transformerは各語に、すべてのほかの語との関連性をスコア(得点)で与える。下図では色の濃淡がスコアだが、左のセンテンスではitはanimalとの関連性が濃く、右のセンテンスではitはstreetとの関連性が濃い: 〔tired(疲れている)のはanimal、wid(広い)のはstreetだ〕

これは、うまいやり方だよね。少なくともぼくは、そう思う。この例では“it”がstreetかanimalかに関して曖昧性があり、最後の語を知らないとどっちが正しいか分からない。人間は教わらなくても分かるが、機械には、何でも教えなければならないのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

TimekettleのWT2は1対のイヤホンを使って、簡単な内容の会話をリアルタイムに翻訳してくれる

先月深圳(シンセン)で開催されたTechCrunchイベントで、私たちはWT2を試す機会があった。これはスタートアップTimeKettleによる、賢く野心的なデバイスだ。これは1対の無線式イヤホンだ。多言語会話に参加する双方が1つずつ耳に装着する。するとデバイスが話されたことを、お互いの言語に翻訳して聞かせる仕組みだ。本質的にはバベル魚(小説「銀河ヒッチハイクガイド」に登場する、万能翻訳を可能にする魚)だが、もちろんまだとても原始的なものだ。

デバイスは、小さな充電ケースに入れられている。そして、あなたの言語を知らない人と話したくなった時に、それらを取り出す。1つは自分の耳に、もう1つは相手の耳に装着する。ケースから取り出されると、それらは自動的にiOSアプリとペアリングされ、音声のモニタリングを開始する。

あなたが英語で話すと、少し遅れて、あなたの話し相手はそれを中国語(またはこの後追加されるどのような言語でも)で聞くことになる。相手は中国語で応答し、あなたはそれを英語で聞く。とてもシンプルだ。

もちろん、すでに似たようなことをしている翻訳アプリもあるが、このイヤホンを共有するという非常にシンプルな方法は、取り扱いの際の様々な面倒を省いてくれることを意味する。まるであなたの言語を話す人と話しているかのように話し、アイコンタクトや普通のジェスチャーでそれを補うことになる。

これがTimeKettleの創業者であるWells Tuが達成したかったものだ。彼と私は(英語と中国語を使って)コミュニケーションの複雑さや、ボディーランゲージの重要性について語り合った。もしWT2を一度も見たことも使ったこともない人たちを相手にするのなら、操作の簡便さもとても重要だ、と彼は言う。

  1. wt2_1.jpg

  2. wt2_2.jpg

  3. wt2_4.jpg

  4. wt2_3.jpg

現在、デバイスはまだプロトタイプに過ぎないが、デザインと利用されるチップセットはほぼ最終形に近いものだ。通常よりも大きめのBluetoothヘッドセットに期待できるもののように、それは私の耳にかなりよくフィットした。

翻訳の品質に関しては、過剰な期待を抱かない限りは良いものだった。複雑な話やイディオムには対応することはできない。とはいえそれでも多くの会話を行うことが可能だ。私が感じた問題は、主に遅延だ。アプリが仕事をしている間、私とWellsはお互いに黙って見つめ合いながら、数を3つカウントしていた。とはいえ、私が使用したバージョンは速度に関しての最適化を施されていないものだった。チームは現在それを改善するために必死で作業している。

「沢山の作業を行い、イヤホン、アプリ、サーバ間のデータ伝送プロセス全体を最適化して、遅延を1〜3秒へ短縮しようとしています」とWellsは語った。

会場での不安定なワイヤレス接続も悪い方向に働いていた。少なくとも、オフラインでの翻訳が十分に機能するようになるまでは、確実なデータ接続が必要だ。

WT2はまだ出荷可能なものではない、しかしWellsと私は、たとえ最初のバージョンが完璧なものでなくとも、誰かがそれをやらなければ、誰も何も成し遂げることはできない、という意見で一致した。この種のテクノロジーは将来的には普遍的なものになるだろう。しかし最初の段階では、珍しく、奇妙で、4分の3の時間位しか動作しなかったりするものだ。ランゲージバリアを乗りを越えてコミュニケーションを改善するという目標を達成するための、それぞれのステップに、私は惜しみない賞賛を送りたい。

WT2の詳細については、Webサイトで知ることができる。来月に開始される予定のKickstarterに注目しておいて欲しい。

[ 原文へ ]
(翻訳:Sako)

AmazonがAWS上のユーザープロダクトに翻訳サービスを提供、アプリケーションの多言語化を推進

CNBCの報道によると、デベロッパーがAWSを使ってアプリケーションやWebサイトを作るとき、そのコンテンツを複数の言語に翻訳できる機能を提供しようとしている。クライアントのプロダクトを複数の言語で提供するために使用されるその機械翻訳技術は、Amazonが自社のプロダクト全域で使っている技術がベースだ、とその記事は述べている。

翻訳サービスはクラウドサービスでAmazonと競合するAlphabetやMicrosoftが、Amazonに負けていないと主張できる重要な要素のひとつであり、Googleは最近、ニューラルネットワークで強化した翻訳機能のデベロッパー向け実装を提供開始した。Amazonは2年近く前に機械翻訳のスタートアップSafabaを買収し、それによって実装した翻訳機能でAmazon.comなどのサイトを多言語化している。

最近Amazonは競争力強化のためドイツのハイデルベルク大学と提携して、翻訳結果に対する誤訳の指摘など、ユーザーフィードバックに対応できる機械翻訳プラットホームの開発を進めている。

この件に関し本誌は今、Amazonのコメントを求めている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ABBYYのOCRソフトTextGrabberが翻訳機能つきでiOSに登場、海外旅行で便利

ABBYY日本)は大昔からOCR(optical character recognition, 光学式文字認識)ソフトを作っているが、今回そのソフトウェアをモバイルに持ち込んだ。画像中のテキストをリンクのようにアクション化したいときには、とても便利に使える。

それは、ABBYYのiOSアプリTextGrabber 6.0で、AppleのAppStoreにある。文字認識機能はリアルタイムで、インタフェイスのデザインもすっかり変わった。

テキストは、どんな背景のどんな色の文字でもよい。また写真の中でも、目の前の実画面でもよい。文字認識はリアルタイムでデバイス上で行われ、インターネットへの接続は要らない。61の言語を認識するが、それは類似製品中で最多だ。また得られたテキストは、コピー、編集、共有等ができ、有料拡張機能により104の言語に翻訳でき、VoiceOverに音読させることもできる。

そのテキストがリンクや電話番号、メールアドレス、番地、イベントの詳細などだったら、クリックしてアクションに結び付けられる(たとえばメールが開く)。QRコードも読む。

旅先で案内板などを見たときには、このアプリをとくに便利と感じるだろう。レストランのメニューなどでも、あなたの自国の言葉にすぐに翻訳してくれる。

それらの新しい機能は、ABBYY独自のReal-Time Recognition SDKで実装されている。写真をユーザーのデバイスに保存したりしないから、セキュリティの面でも安心だ。

TextGrabber for iOSは6月29日まではAppStoreで無料、それ以降は4ドル99セントだ。翻訳機能は、アプリ内購入で3ドル99セントだ。〔Android用はここ。〕

〔参考(類似アプリ): iOSAndroid。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftのPresentation Translatorはプレゼンの翻訳をリアルタイムに行なう

Microsoftが今週のBuild Conferenceで発表しているものの多くは、明らかに開発者向けのものである。しかし、Azure、Visual Studio、.NETに関する膨大な数のニュースの合間に、同社は一般ユーザーを対象としたPowerPointの新しいアドインのプレビューも披露した。Presentation Translatorは、リアルタイムで自動的に翻訳された字幕を提供したり、元の書式を維持しながら、実際のP​​owerPointプレゼンテーションのテキストを翻訳したりすることができる。

現在は、アラビア語、中国語、英語、フランス語、ドイツ語、イタリア語、日本語、ポルトガル語、ロシア語、そしてスペイン語をサポートしている。ここでは翻訳機能に焦点を当てたが、同じサービスを使用して、ろう者や聴覚障害者のために、プレゼンテーションにキャプションを追加することも可能だ。

 Microsoft Garageから発表されたこのプロジェクトは、現在は非公開のプレビュー中だが、ここから早期アクセスを申し込むことができる。アドインはMicrosoft Translatorによって支えられており、こうしたAI搭載サービスがゆっくりと、しかし確実に、生産性向上アプリに入り込みつつある様子を示すための例題の役割を果たしている。

実際に、PowerPointはこの分野におけるMicrosoftの努力を示すための格好の場所である。QuickStarterとDesignerという2つのツール(現在内部プレビュー中)の力を借りれば、PowerPointは既に、指定したトピックに基づく基本的なスライドショーを自動的に生成して、そのコンテキストに基づいて見栄えを良くすることもできるのだ。

[ 原文へ ]
(翻訳:Sako)

ディープラーニングの導入でパワーアップしたGoogle翻訳にサポート言語がさらに増加

昨年の秋にGoogleは、Google Neural Machine Translation(GNMT)と呼ばれる新しい翻訳システムを導入した。それは、語句だけではなく文全体に、多層的ニューラルネットワークを利用するいわゆるディープラーニングを適用することによって、翻訳の質を大幅に上げようとするシステムだ。11月の時点でそれは、8つの言語ペア(後述)に適用されたが、今日からは新たにロシア語とヒンズー語をベトナム語がサポートされる。

Neural Machine Translationが昨年の時点でサポートした言語ペアは、英語とフランス語、ドイツ語、スペイン語、ポルトガル語、中国語、日本語、韓国語、トルコ語だ〔8ペアだが、片方はつねに英語〕。これらが世界の人口の約1/3をカバーし、Google Translateのクェリの35%以上を占める、と当時のGoogleは言っていた。

今日発表された新たな言語は、アメリカ国内だけでも、ベトナム語はネイティブスピーカーが129万2448人、ロシア語は83万6171人、ヒンズー語は58万6173人いる、とGoogleは国勢調査のデータを挙げている。今後数週間で、タイ語など新たな言語がさらに加わる予定だ。

Google Translateは、月間ユーザー数が5億あまり、1日の翻訳量は1400億語に達する、とThe New York Timesの12月の記事が報じている。その記事によると、翻訳システムのAIへの完全移行は今年の年内に完了するそうだ。

hindi_googletranslate_v2b

Neural Translationは機械学習における最新の技術を利用するから、これまでの翻訳システムに比べて大きな進歩であり、翻訳がより正確になるだけでなく、言葉の扱い方が人間のそれに近くなる。つまり従来のように、センテンスの各部分をひとつひとつ訳していくのではなく、まずセンテンス全体の構造や形を見る。それによって翻訳システムは文のコンテキストが分かるようになり、より適切な翻訳が可能になる。そして最後に、出来上がったセンテンスを正しい文法に則って調整し並べ替える。

しかもニューラルネットワークシステムの特性として、時間の経過とともに自分を改良し、長く使えば使うほどより自然な翻訳ができるようになる。

この、ニューラルネットワークを利用するGoogle翻訳は、今日(米国時間3/6)から供用開始される。それはtranslate.google.comにおける翻訳サービスだけでなく、Web上の検索、検索アプリ、そしてiOSとAndroid向けGoogle Translateアプリも含まれる。Google Chromeブラウザーにおけるページの翻訳にも、近日中に適用される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google翻訳、リアルタイム翻訳機能を日本語でも提供開始

translate_-_cash_only-width-1023

Google翻訳はすでに日本語に対応しており、撮影した写真に含まれる文字を英語に翻訳することができた。しかしさらにワンステップ上のことができるのをご存知だろうか。カメラを標識やメニューなど日本語の書かれたものに向けるだけで、ただちに英語に翻訳してくれるようになっているのだ(逆もできる)。iOS版およびAndroid版のGoogle翻訳に搭載さGoogleのリアルタイム翻訳、日本語にも対応開始れているWord Lens機能が日本語に対応したわけだ。

リアルタイム翻訳を使ったことのない人は、どれだけ便利になったのかがよくわからないかもしれない。しかし日本語がほとんど使えずに日本に滞在することになってしまった人にとって、大変に便利なものであるのは間違いない。たとえば私の友人は、洗濯用の漂白剤だと思って別用途のものを買ってしまった。その漂白剤を使って洗濯したところ、一部分だけ色抜けしてしまい、残りの滞在期間をその服で過ごすはめになってしまった。手軽に翻訳することができれば、そのような失敗も減るに違いない。

Word Lensは、Googleが2014年に買収したQuest Visualにより開発されたものだ。以後、GoogleはWord Lensの機能をGoogle翻訳アプリケーション内で成長させつつある。2015年に最初に対応したのはスペイン語だった。最近になってGoogleは翻訳アプリケーションにAIによる機能強化を加えつつあるところだ。これにより、翻訳制度やスピードを大幅に改善しつつある。それもあり、今後はますますWord Lens対応言語が増えていくことは間違いない。

原文へ

(翻訳:Maeda, H

ユニバーサルトランスレーター(多国語同時翻訳機)を解剖する

View of the 'Warp Core,' the engine of the USS Enterprise, in a scene from an episode of the television series 'Star Trek: The Next Generation' entitled 'Force of Nature,' California, November 15, 1993. (Photo by CBS Photo Archive/Getty Images)

【編集部注】著者のVadim BermanはAspect Softwareのエンジニアリングディレクターである。
2015年のLinguaSysの買収に伴いAspectに入社した。2010年にLinguaSysを共同創業し、最高技術責任者(CTO)を務めていた。彼は最近オーストラリアのメルボルンからマサチューセッツ州に移住した。

映画評論家たちは、異星人の言葉を解読しようとするある言語学者の努力に焦点を当てた、ドゥニ・ヴィルヌーヴのSFドラマであるArrivalを称賛し続けている。スタートレックは最近50周年を迎えた。言語のオタク兼SFファンとして、私はスターシップエンタープライズの乗組員が使用するユニバーサルトランスレーター(多国語同時翻訳機)の実現可能性を調べることは論理的だと感じた。

先にお断りしておくが、これは機械翻訳技術についての新たな記事ではない。そこでは、既に様々なアプローチ新しい有望な開発が現実のものとなっている。人間の翻訳エキスパートのレベルには達していないものの、機械翻訳は既に複数のシナリオで利用可能だ。(既知の言語の翻訳は、もちろん、スタートレックのユニバーサルトランスレーターの一部でもあり、スタートレックの言語学者たちは、言語的な内部構造を手動で調整する必要に迫られることもある)。

この記事では、未知の言語の解読に用いられる装置のデコードモジュールに焦点を当てる。

現実世界における解読

どんなに洗練されていたとしても、すべての解読技術は同じコアを持っている:未知の言語を既知の知識にペアリングすることだ。古典的なロゼッタストーンは、最も有名な例である:古代エジプトの象形文字、古代ギリシア語、そしてまた別のエジプト語(デモティック)による碑文を持つ石版が、長い間失われていた言語を理解するための出発点として使用された。

今日では、対応テキストを「仮想ロゼッタストーン」として利用することで、統計的機械翻訳エンジンも同様の方法で生成される。しかし、対応テキストが存在しない場合には、解読は密接に関連した言語や、なんであれ適用可能な手掛かりに依存することになる。

おそらく、解読に関する最も劇的なエピソードは、冷戦の緊張によって増幅された2つの相反する視点を含む、マヤ文字に関するものだろう。最近では、MITのRegina Barzilayが、既知の言語との類似性を仮定して、機械学習を使用することにより、長い間忘れられていた言語を解読した

しかし、ロゼッタストーンや類似言語が存在しないときにはどうすれば良いだろう?対面でのやり取りでは、Arrivalで描かれたシナリオのように、ジェスチャー、物理的なオブジェクト、そして表情を使って語彙を構築する。こうした方法は、新世界を探索した船乗りたちによって使用され、今日ではアマゾンのピダハン族(Pirahã)の人々と数十年を過ごしたDaniel Everettのような人類学者や言語学者によって採用されることがある。

現実が空想を模倣する:汎用言語(lingua universalis)

しかし、対面でのやりとりが不可能なときには、どうすべきだろうか?

何十年もの間SETIの研究者たちは地球外知性の兆候を探して、空をスキャンして来た。そのうちの何人かは、特に以下のような問いに集中している「私たちが信号を受信したらどうなるのか?」そして「どうすれば受信したものがノイズではなく信号だと知ることができるのだろうか?」。

これらの問題に取り組んでいる最も注目すべきSETIの人びとがLaurance DoyleJohn Elliottの2人だ。Doyleの研究は、コミュニケーションシステムがその複雑さにおいて人間のコミュニケーションと似ているかどうかを判断するために、クロード・シャノンの情報理論の応用に焦点を当てている。Doyleは、有名な動物行動・コミュニケーション研究者Brenda McCowanと共に、様々な動物コミュニケーションデータを分析し、その情報理論の特徴を人間の言語の特徴と比較した。

どんなに洗練されていたとしても、すべての解読技術は同じコアを持っている:未知の言語を既知の知識にペアリングすることだ。

John Elliottの仕事は、未知のコミュニケーションシステムに特化している;出版しているトピックは、伝達が言語的なものかを検出することから、言語の構造を評価することまで、そして最後に、彼が「検出後解読マトリックス(post-detection decipherment matrix)」と呼ぶものを構築するところにまで及ぶ。Elliott自身の言葉によれば、このマトリックスは「『全人類の発話』全体を表すコーパス」を使用して、教師なし学習ツールを適用し、そして最近の仕事では他のコミュニケーションシステム(例えば動物のコミュニケーション)なども取り込んでいる。Elliottの仮説的システムは、概念のオントロジーを「普遍的な意味論的メタ言語」に依存している(ちょうどスワデシュ・リストが共通の基本概念を集めているのと同様に)。

興味深いことに、空想の産物であるユニバーサル・トランスレーターと現実の科学者が問題に取り組む方法との間には、ある種の類似点がある。カーク船長(スタートレックの登場人物)の説明によれば 、「特定の普遍的なアイデアと概念」は「すべての知的な生命体に対して共通」なので、トランスレーターは「脳波パターン」の周波数を比較し、認識したアイデアを選び出し、必要な文法を提供する。

いろいろな仮説上の神経中心が、認識可能な活動パターン(脳波であるか否かに関わらず)を生成し、そのコミュニケーションが神経中心の特定領域を活性化する刺激を生成すると仮定すると、このアプローチにはメリットがあるだろう — こうした変動を検出することが十分に可能なハードウェアが提供されるとすればだが。周波数解析はElliottとDoyleの仕事全体に渡って言及されているジップの法則にも沿ったものである。

その他のスタートレックシリーズでは、翻訳を容易にするために使用される翻訳マトリックスが、曖昧ながらも繰り返し言及されている。芸術的表現や過剰技術表現はさておくとして、「マトリックス」という言葉と膨大な翻訳対の組み合わせが、実世界の中間言語(interlingua)モデルに対応している。その中間言語は知識を抽象的で特定の言語からは独立した形で表現する。

スタートレックの中では、ユニバーサルトランスレータが動作しないときの最後の手段として使用されるlinguacode(初期接触に用いられる特別なマトリックス)についても言及されることがある。このlinguacodeの現実世界における相当品として、lincosというものが存在している。Lincosとその派生言語は共に、普遍的な数学的概念を使用して、他の種とコミュニケートするように設計された人工言語だ。

エンジンルームからの眺め

言語に依存しないセマンティック(意味)エンジンについて10年以上仕事をしてきた者として、セマンティック分析の前提条件としてElliottによって記述されたシステムとオントロジが、私が構築したものに非常に近いことに気づいたとき、私は非常に興奮した。すべての言語を「全人類の発話」に束ねてしまうと、システムを目標とするコミュニケーションシステムからあまりにも遠すぎる「ワンサイズフィッツオール」(1つで何にでも間に合わせること)へ向かわせてしまうことがある。

そのようにする必要はないのだ。 (限定されたエンティティのセットだけでなく)シンタックス構造とセマンティクスの両方をマッピングできるシステムでは、相互作用シナリオの普遍性に依拠した、より正確に順序付けられた統計モデルを構築することを可能にする「シナリオのコーパス」を作りだすことが可能である。

例えば:

  • 対話の一部であることが意図されている殆どのメッセージは、大部分の言語で、挨拶で始まる。
  • ほとんどの技術文書は数字を含む。
  • すべての請求は依頼を含み、多くの場合脅迫も含む。
  • ニュースアカウントは1つの事象を参照する。
  • 大部分の長い文書は章に分割され、またそれらの章の間には章番号か章名が挟まっている。
  • 参考記事は独立した実体を記述する。

こうしたものは特定の言語構造とは無関係であり、一般に、尊重すべき最少労力の原則、あるいはグループ内での効率的なコミュニケーションの必要性から生じる。

セマンティクス上で操作を行うシステムを使用することで、表面的な表現に依存せず、語意を記録することなしに、コーパスを構築することが可能になり、純粋に意味的で真に汎用的なコーパスを得ることができる。意味論的にグループ化された構文構造を持つことにより、より多くの可能性が開かれる。

ロゼッタストーンの代わりに、このシステムはハイテク版「ロゼッタルービックキューブ」として機能し、最高のマッチングコンビネーションが見つかるまで、膨大な数の組み合わせが試される。

言葉を超えて

地球外知性からの仮説的なコミュニケーションよりもアクセスしやすい何かを用いて、「ユニバーサルトランスレーター」ソフトウェアをテストすることは可能だろうか?多くの研究者は可能だと信じている。鯨類のコミュニケーションが人間の言語のすべての特徴を持つことは証明されていないが、それが可能であることを強く示唆する証拠はある。

例えばイルカは、人間の名前と同等であるように見える、いわゆる個人署名ホイッスルを使用する。とりわけ、署名ホイッスルは個体を特定するために使用され、したがって、コミュニケーションシステムが言語と見なされるための要件の1つである超越性(displacement)を満たす。 Louis Hermanの実験の過程では、イルカたちは変形版の米国手話をなんとか学んで「右」や「左」のような抽象的な概念を理解することができた。なんといっても、イルカの複雑な社会生活には、効率的かつ同様に複雑なコミュニケーションによってのみ実現される活動の調整が必要なのだ。

しばしば引用される鯨類に加えて、他の種にも複雑なコミュニケーションシステムを持つ証拠がある。一連の実験では、蟻のコミュニケーションは無限であり(すなわち、人間の言語のような無限の組み合わせを持つ)、おそらくコンテンツを効率的に「圧縮」していることが示されている(例えば、 「左回り、左回り、左回り、左回り」と言う代わりに「左回り4回」と言う)。

DoyleとElliottは鯨類のコミュニケーションを情報理論が提供する様々なツールで研究した。Elliottは、人間の言語、鳥の歌、イルカのコミュニケーション、ホワイトノイズや音楽などの非言語的なソースのエントロピーを計算した。

コミュニケーションシステムは共通の「対称A型振幅」(symmetric A-like amplitude)形状を持っていて、人間とイルカの対称性はより高く、鳥の対称性はより低い。Doyleはザトウクジラの声で同様の測定を行い、同様の結論に達した。

以上がいくつかの動物コミュニケーション団体が、SETIと協力している理由である。真に普遍的な解読のフレームワークは、複雑な動物コミュニケーションシステムを取り込んで学ぶ能力がなければ、不完全なものとなるだろう。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: CBS PHOTO ARCHIVE/GETTY IMAGES

GoogleのAI翻訳ツールは独自の内部的言語を発明したようだ、そうとしか言えない不思議な現象が

terminat-visio2-620x340

まあ、パニックになる必要もないけど、今やコンピューターが自分たちの秘密の言語を作って、たぶんまさに今、われわれについて話しているんだ。ちょっと話を単純化しすぎたし、最後の部分はまったくのフィクションだけど、GoogleのAI研究者たちが最近、おもしろそうで、しかも人間にとって脅威になるかもしれない、事態の進展に、遭遇しているんだ。

憶えておられると思うが、Googleは9月に、同社のNeural Machine Translation(ニューラルネットワークによる機械翻訳)システムが稼働を開始したと発表した。それは、ディープラーニングを利用して複数の言語間の翻訳を改良し、より自然な翻訳にする、というものだ。そのこと自体はクールだが…。

これの成功のあと、その翻訳システムの作者たちは、あることが気になった。翻訳システムに、英語と韓国語双方向と、英語と日本語双方向の翻訳を教育したら、それは韓国語を日本語へ、あいだに英語を介さずに翻訳できるのではないか? 下のGIF画像を見ていただきたい。彼らはこのような翻訳方式を、“zero-shot translation”(ゼロショット翻訳、分枝のない翻訳)と呼んだ(オレンジ色のライン):

image01

そして — その結果は!、明示的なリンクのない二つの言語でありながら、まあまあの(“reasonable”)翻訳を作り出したのだ。つまり、英語はまったく使っていない。

しかしこれは、第二の疑問を喚起した。形の上では互いにリンクのない複数の概念や語のあいだの結びつきをコンピューターが作れるのなら、それは、それら複数の語で共有される意味、という概念をコンピューターが作ったからではないのか? 一つの語や句が他のそれらと同じ、という単純なレベルではなく、もっと深いレベルで。

言い換えると、コンピューターは、言語間の翻訳に自分が用いる概念(共有される意味概念)を表現する独自の内部的言語を開発したのではないのか? ニューラルネットワークの記憶空間の中では、さまざまなセンテンスがお互いに関連し合っているのだから、その関連の様相から見て、言語とAIを専門とするGoogleの研究者たちは、そうだ、と結論した。

A visualization of the translation system's memory when translating a single sentence in multiple directions.

翻訳システムの記憶の視覚化: 一つのセンテンスを複数方向へ翻訳している

この中間言語(“interlingua”)は、日・韓・英の三言語の文や語の類似性を表している表現の、ずっと深いレベルに存在しているようだ。複雑なニューラルネットワークの内部的処理を説明することはおそろしく難しいから、今これ以上のことを言うのは困難だ。

非常に高度なことをやってるのかもしれないし、あるいは、すごく単純なことかもしれない。でも、それがとにもかくにもある、という事実…システムが独自に作ったものを補助具として使って、まだ理解を訓練されていない概念を理解しようとしている…もしもそうなら、哲学的に言ってもそれは、すごく強力な‘才能’だ。

その研究論文は、Arxivで読める(効率的な複数言語翻訳に関する論文だが、謎のような中間言語にも触れている)。システムが本当にディープな概念を作ってそれを利用しているのか?、この疑問への答は今後の調査研究の課題だ。それまでは、最悪を想定していよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

オンライン翻訳の八楽、コニカミノルタなど大手3社と資本業務提携

yarakuzen

オンライン翻訳ツール「ヤラクゼン」を提供している八楽は9月5日、コニカミノルタ、ソニーネットワークコミュニケーションズ(旧ソネット)、アドバンスト・メディアの3社と資本業務提携を行ったと発表した。八楽は2013年5月、ニッセイ・キャピタルや日本ベンチャーキャピタルなどから1億800万円の資金調達を実施している。今回の調達金額は非公表。

3年ほど前にTechCrunchが取材を行った際、同社のサービスは「ワールドジャンパー」という名称でウェブサイトの多言語化に特化していた。昨年10月のヤラクゼンのローンチ以降、HTML以外にもワード、エクセル、パワーポイント、CSV、PDFとビジネスシーンで広く使われているファイル形式に対応。日本語を含む翻訳可能言語数は、21言語まで増加した。

メールやプレゼン資料といったビジネス文書のほか、ウェブサイトやマニュアルなどを翻訳する際の利用を想定しており、メールにいたっては280種類もの英文テンプレートまで準備されている。

Top

ヤラクゼンのトップ画面

ヤラクゼンの使い方は極めてシンプルで、まずボックス内に翻訳したいテキストを直接入力するか、翻訳したいファイルをドラッグ&ドロップすると、テキストの解析・機械翻訳がスタートする。その後、原文と機械翻訳文が隣り合わせに並べられた画面に移動し、ユーザーは好みに合わせて訳文の修正をできる。

翻訳の精度を高めたい場合は、クラウドソーシングサービスを利用したクラウド翻訳(言語や内容に応じて文字/ワード当たり6円〜18円)や、プロの翻訳家にお願いするプロ翻訳(言語に応じて文字/ワード当たり15円〜20円)を1文単位から利用可能だ。

機械翻訳時には数百万件におよぶフレーズ集(翻訳メモリ)が参照されるため、メールなど簡単な内容のテキストであれば、機械翻訳だけでも実用に耐えうるレベルの訳文が生成される。さらに自分で修正を加えた訳文の情報もデータベースに保存されるため、以後の翻訳時には修正が加えられたフレーズが参照され、翻訳の精度がさらに高まる仕組みになっている。ブランド名や商品名、社内用語など、異なる文書間で統一したい訳語についても単語集に追加できる。

translation-screen

翻訳作業画面

翻訳メモリや原文・訳文のパラレル表示、文章のセグメンテーションなどは、翻訳業界標準のTradosやWordfastといった翻訳支援ツールに採用されている機能にも関わらず、基本機能だけのフリープランであれば、ヤラクゼンを無料で利用することができる。その他にも、自動翻訳の文字数や、フレーズ集の最大保存可能数、ユーザー間のファイル共有などの条件に応じて月額980円(月ごとの契約の場合は1280円)のプレミアムプランや、月額3980円(同4800円)のカンパニープランが用意されている。

八楽で取締役COOを務める湊幹氏によれば、現状のユーザーは外国語でのコミュニケーションが必要になる機会の多い、ITやインバウンド(宿泊施設・飲食店)、メーカーといった業界で働く人がメインだ。具体的な数値は公表されていないものの、現時点ではフリープランを利用しているユーザーの数が圧倒的に多く、プレミアム・カンパニープランの利用者はそれぞれ数%程だ。そのため、今回発表された業務提携を通じて、プレミアム・カンパニープランのユーザー数を増やしていきたいと同社代表取締役の坂西優氏は語っていた。

さらに、提携先のひとつであるアドバンストメディアは音声認識技術で知られていることから、今後モバイル分野へも注力して行き、会話の内容を認識して翻訳まで行う”翻訳機”アプリや、複数言語対応の議事録自動作成ツールなどの開発を検討していると湊氏は語る。

外国語に対応したPOPを作成するなどのインバウンドサービスに取り組むコニカミノルタとは、共同で法人向け多言語コンテンツ制作サービスを新たに公開する予定だ。

もうひとつの提携先であるソニーネットワークコミュニケーションズとは、ヤラクゼンの法人向け販売で協力していく。

WordPressのオフィシャルプラグインが公開されているように、八楽はAPIの導入にも力を入れており、今後提携先のネットワークや調達資金を利用して、法人向けサービスのマーケティングや営業力の向上に努める予定だ。

クラウドソーシングを使った翻訳事業を展開するエニドア、ロゼッタが約14億円で買収へ

クラウドソーシングを使った人力翻訳サービス「Conyac」を運営するエニドア。同社がM&Aによるイグジットを果たしたようだ。翻訳事業を手がけるロゼッタは8月10日、株式取得および簡易株式交換により、エニドアを完全子会社化すると発表した。

ロゼッタはエニドアの発行済み株式1263株のうち633株(議決権ベースで50.12%)を8月15日付けで7億3200円にて取得。残りの630株を株式交換で取得する(エニドア1株に対してロゼッタ311株を割り当てる。合計19万5930株。1株3414円で算定し、6億6891万円)。合計すると約14億円でのM&Aとなる。

ロゼッタはこれまでプロ翻訳者による「翻訳通訳事業」と機械翻訳による「MT事業」、プロ翻訳者と機械翻訳を活動する「GLOZE事業」を展開してきた。エニドアの提供するConyacがこのGLOZE事業とMT事業の間の領域を補完するとしている。なお、エニドア代表取締役の山田尚貴氏らは引き続きConyac事業を担当する。

エニドアは2009年2月の設立。スカイライトコンサルティング主催のビジネスプランコンテスト「起業チャレンジ2009」で最優秀賞を受賞し、その賞金をもとに起業した。これまでにサムライインキュベートのほか、スカイライトコンサルティング、ベンチャーユナイテッド(当時はngi groupで、ファンドもngiベンチャーコミュニティ・ファンド2号からの出資)、ANRI、East Ventures、三菱UFJキャピタル、SMBCベンチャーキャピタルなどから出資を受けている。同社の2016年3月期業績は売上高5億6900万円、営業利益が2億7000万円、経常利益が2億6900万円、純利益が2億2300万円となっている。

オンライン言語検索サービスのLudwigで英文をブラッシュアップ

fullsizerender

これまで母国語以外の言語で文章を書く経験をした人であれば、恐らく誰もが少なくとも2つのことを知っているだろう。ひとつは、普段に比べて文章を書くのにとても時間がかかるということ。そしてもうひとつは、オンライン翻訳サービスには間違いが多いということだ。

イタリア出身の研究者Antonio Rotoloも、学生生活の早い段階で同じ問題に直面した。国際的なキャリアを築いていきたいと思った彼は、論文を英語で執筆しなければならなかったのだ。そして、MITに入学してから半年後に、Rotoloは新しい形のオンライン翻訳サービスのアイディアを思いついた。彼の思い描いたサービスは、The New York TimesやBBCなどの信頼できる情報源が文法的な誤りを犯していない限り、間違いようのないものだった。

2016年2月に公開されたLudwigは、正しい英語の文章を書くサポートをする言語検索エンジンだ。イタリアのカターニアを拠点とするLudwigは、シチリア島出身でアメリカ、ノルウェー、ドイツ、スペインの大学での勤務経験を持つ研究者やエンジニアのグループによって設立された。同社は、2014年7月に153億ドル規模の電気通信会社Telecom Italiaより2万5000ユーロ(2万7880ドル)の補助金を受け取った。

Ludwigについてまず知っておかなければならないのが、ユーザーはアクティブな役割を担わなければいけないということだ。「私たちの最終的なゴールは、ユーザーが自分の力で英文を書けるようになることです」と共同設立で公共経営博士のFederico Papaは語った。「私たちは言語学習がアクティブなプロセスだと堅く信じています」

  1. まず、ユーザーはチェックしたい文章を入力する。すると、Ludwigが正しい例文を表示する。
  2. さらにユーザーはLudwigに英文の空いている箇所を埋めさせることもでき、文脈に合う語彙のリストを確認できる。
  3. 熟語はLudwigのデータベース上に登録されている。
  4. Ludwigは辞書としても使うことができる。
  5. Ludwigのウェブサイト上には、英語について書かれたブログもある。

Ludwigを使う際、ユーザーはLudwigバーに(Google翻訳を使うときのように)翻訳したい文章を入力するのではなく、自分なりの英訳文を入力しなければならない。そして、アルゴリズムが入力された文章を、The New York Times、PLOS ONE、BBC、学術論文などの信頼できる情報源を基にした例文データベースと比較する。その後、Ludwigが検索結果を表示し、ユーザーは例文を確認するとともに正しい表現を学ぶことができる。

「私たちはLudwigがGoogle翻訳の競合サービスだとは考えていません」とCEOのRotoloは話した。「Google翻訳でまず翻訳を行って、その後Ludwigで翻訳が正しいかチェックすることはできますけどね」

Ludwigの社名は、20世紀の最も影響力がある哲学者で、数ある中でも言語哲学に焦点を当てた研究を行っていたルートヴィヒ・ヴィトゲンシュタイン(Ludwig Wittgenstein)に由来する。「ヴィトゲンシュタインは、言葉の意味はその文脈に依存するという結論にたどり着きました」とLudwigの共同設立者で認知科学者でもあり、現在ペンシルベニア大学ウォートンスクールで経営学の博士過程に在籍しているRoberta Pellegrinoは説明する。「そして、文脈こそが、何百万という数の信頼できる情報が集まったデータベースを検索し、Ludwigが提供する唯一の情報なのです」

別のオンライン翻訳ツールとして知られるReversoは、複数言語で表記された巨大な例文データベースを保有している。「Reversoのデータベース上に存在する文章は、必ず他の言語と対になっていなければなりません」とRotoloは語った。「LudwigはReversoと違い、英語で入力されたどんな文章でも、信頼できる英文を基にチェックすることができます」

しかし、少なくともひとつのケースにおいて、Ludwigのユーザーは行き詰まってしまうことになるかもしれない。例えば、「data」が単数形なのか複数形なのか確認したいとする。しかし、Ludwig上には「data are」と「data is」という両方の形の例文が表示されてしまう。こういった場合、ユーザーは検索結果の数を確認するか、ウェブ上で追加の確認を行うことができると、エンジニアのFrancesco AronicaとSalvatore Monelloは説明する。

The team of Ludwig is composed by eight people: Antonio Rotolo (CEO and co-founder), Roberta Pellegrino (design manager and co-founder), Federico Papa (legal expert and co-founder), Francesco Giacalone (designer and designer and developer), Daniele Tagliavia (communication manager), Antonino Randazzo (head software developer), Francesco Aronica (database expert) and Salvatore Monello (algorithm expert).

Ludwigは8人から構成されている。 写真の6名が左から、Francesco Aronica(データベースエキスパート)、Salvatore Monello(アルゴリズムエキスパート)、Francesco Giacalone(デザイナー兼ディベロッパー)、Antonio Rotolo(CEO兼共同設立者)、 Roberta Pellegrino(デザインマネージャー兼共同設立者)、Federico Papa(法務エキスパート兼共同設立者)で、写真には写っていない残りの2名がDaniele Tagliavia(コミュニケーションマネージャー)とAntonino Randazzo(ヘッドソフトウェアディベロッパー)。 写真提供: Ludwig

同社によれば、現在Ludwigは1日あたり平均1万ページビューを記録しており、168ヶ国から7万5000人のユーザーが日常的にサービスを利用している。

留学生はLudwigのターゲット層のひとつだ。Institute for International Educationによれば、2014年から2015年にかけて、約100万人の留学生がアメリカの短期大学や大学に在籍していた。そして、その大部分(44%)がSTEM分野の学科に入学し、科学、技術、工学、数学関連職の人材のパイプラインを形成していたのだ。

オンライン版のLudwigは現在無料で利用可能だが、同社は4つの方法でサービスのマネタイズを行おうとしている。オンライン版への広告掲載がまずひとつ。そして、ふたつめの収入源が語学学校のオンラインプラットフォームに統合することができるLudwigのAPI版の提供だ。さらに、Ludwigは広告無しのデスクトップアプリのローンチを秋に予定している。最後に、同社は信頼できる情報源に対して、オンラインアーカイブへのトラフィックを増加させるためのパートナーシップを持ちかけようとしている。

将来的にLudwigは、メンターにもなってくれるようなエンジェル投資家をみつけたいと考えている。シチリア島を離れてシリコンバレーに移動することについて、Pellegrinoは「どんな選択肢も受け入れようとは思っていますが、私たちの夢は国際的なチームと共にシチリア島で生活しながら仕事をすることです」と語った。

注記:原文の一部の文章や前置詞は、Ludwigを使ってチェックしつつ執筆されており、本記事の執筆者は英語ネイティブではない。

原文へ

(翻訳:Atsushi Yukutake/ Twitter