動画音声を本人の自然な声で別言語に吹き替えるAIシステムのPapercupが約11億円を調達

すでにゲームやテレビ業界で使われているが、話した人の声で別の言語に変換するスピーチ技術を開発した英国のAIスタートアップPapercup(ペーパーカップ)は、800万スターリングポンド(約11億円)の資金を調達した。

このラウンドはLocalGlobeとSands Capital Venturesが主導し、Sky、GMG Ventures、Entrepreneur First(EF)、BDMIが参加している。Papercupは今回の資金を機械学習研究と、AI通訳動画の品質改善やカスタマイズのための「Human in the loop」(人間参加型)品質管理機能の拡大に追加投入すると話している。

Papercupは、これ以前からエンジェル投資家の支援も受けている。その中には、後にAmazon(アマゾン)に買収されAlexaを誕生させたEvi Technologies(イービー・テクノロジーズ)の創設者William Tunstall-Pedoe(ウィリアム・タンストールペドー)氏や、Uber(ウーバー)で主任サイエンティストとAI担当副社長を務め、現在はGoogle Brain(グーグル・ブレイン)リーダーシップチームの一員であるZoubin Ghahramani(ズービン・ガラマニ)氏も含まれている。

2017年、EFの企業創設者向けアクセラレータープログラム参加中にJesse Shemen(ジェシー・シーメン)氏とJiameng Gao(ジアメン・ガオ)氏が立ち上げたPapercupは、話し手の声や話し方をそのままに別の言語に変換する能力、と同社が説明するAIと機械学習に基づくシステムを開発している。よくあるテキストの読み上げシステムとは異なり、通訳された音声は人間の声と「判別が不可能」だと彼らは主張している。しかも、そこがユニークな点だと思われるが、話し手の声の特徴もできるだけ引き継がれる。

もともとこの技術は、すでにこれを利用しているSky News(スカイ・ニュース)、Discovery(ディスカバリー)、YouTube(ユーチューブ)の人気チャンネル「Yoga with Adriene」、その他の動画を自主制作するクリエイターたちに向けて開発された。その売り文句は、もっとずっと幅広い応用が可能であり、したがって本物の人間による吹き替えに取って代わる安価な手段だと訴えている。

「世界の動画と音声のコンテンツは1つの言語に縛られています」とPapercupの共同創設者でCEOのシーメン氏はいう。「YouTubeの数十億時間分の動画、何百万本というポッドキャスト、Skillshare(スキルシェア)やCoursera(コーセラ)の何万件ものオンライン学習講座、Netflix(ネットフリックス)の何万本もの番組などもそうです。そうしたコンテンツの所有者は、ほぼ全員が世界展開を強く望んでいますが、字幕に勝る簡単で費用対効果の高い方法がまだありません」。

もちろん「予算がたっぷりあるスタジオ」なら、プロ用の録音施設で声優を雇い最高級の吹き替えが可能だが、ほとんどのコンテンツ所有者には高すぎて手が出せない。裕福なスタジオであっても、対応する言語が多ければ、制約が加わわるのが普通だ。

「そのため、ロングテールやそれに準ずるコンテンツ、それはまさに全コンテンツの99%に相当しますが、その所有者は海外のオーディエンスにリーチしたいとき、字幕以上の方法を諦めたり、そもそも不可能だったりします」とシーメン氏。もちろん、そこがPapercupの狙い目だ。「私たちの目標は、翻訳された言葉を、できるだけ元の話し手の声に近づけることです」。

それを実現させるために、Papercupは4つの課題に取り組む必要があったという。1つめは「自然に聞こえる」声だ。つまり、合成音声をできる限り明瞭で人間の声に近づけることだ。2つめの課題は、元の話し手が表現した感情や速度(つまり喜怒哀楽)を失わないこと。3つめは、人の声の特徴を捉えること(たとえばドイツ語でもモーガン・フリーマンが話しているように聞こえるといったように)。そして最後は、翻訳されたセリフを動画の音声に正確に揃えることだ。

シーメン氏はこう説明する。「私たちはまず、できる限り人間に近い、自然に聞こえる音声を作ることから始めました。その目的に沿って技術の洗練させてゆく過程で、私たちは音質の面で飛躍的な技術革新を果たしました。いま作られているスペイン語音声合成システムの中で、私たちのものは最高水準にあります」。

「現在私たちは、さまざまな言語に変換するときに、元の話し手の感情や表現をできるだけ残したままで行う技術に重点を置いています。その中で、これこそが吹き替えの質を左右するものだ気がつきました」。

間違いなくこれが最も大きな難関となるが、次の課題は「話者適応」だ。つまり、話し手の声の特徴を捉えることだ。「それが適応の最終段階です」とPapercupのCEOは話す。「しかし、それは私たちの研究で最初に実現したブレイクスルーでもあります。私たちにはこれを達成できるモデルはありますが、感情や表現に多くの時間をかけています」。

とはいえPapercupは、いずれはそうなるかもしれないものの、完全に機械化されているわけではない。同社では、翻訳された音声トラックの修正や調整に「人間参加型」のプロセスを採り入れている。そこでは、音声認識や機械翻訳のエラーの修正、タイミング調整、さらには生成された音声の感情(喜びや悲しみ)の強調や速度の変更が人の手で行われている。

人間参加型の処理がどれほど必要になるかは、コンテンツのタイプや、コンテンツ所有者のこだわりによって異なる。つまり、どれだけリアルで完璧な吹き替え動画を求めるかだ。逆にいえば、これはゼロサムゲームではないため、大きな規模で考えた場合、大半のコンテンツ所有者は、そこまで高い水準は求めないということだ。

この技術の始まりについて尋ねると、共同創設者でCTOのジアメン・ガオ氏の研究からPapercupはスタートしたとシーメン氏は答えた。ガオ氏は「驚くほど頭が良く、異常なほどに音声処理にのめり込んでいた」という。ガオ氏はケンブリッジ大学で2つの修士号を取得し(機械学習と音声言語技術)、話し手に順応する音声処理に関する論文も書いている。Papercupのようなものを作ることができる可能性に気づいたのは、ケンブリッジ在学中だった。

「2017年の終わり、Entrepreneur Firstで勉強していたときに、私たちは最初のプロトタイプシステムを作りました。前例のないものながら、この技術は使えると感じました」とシーメン氏。「当初、人から聞いた意見から、私たちが作っているものには予想を超える膨大な需要があることを知りました。制作スタジオでの使用を想定して開発しているものの、ほんの一機能に過ぎなかったのですが」。

カテゴリー:人工知能・AI
タグ:Papercup合成音声機械翻訳資金調達

画像クレジット:Papercup

原文へ

(翻訳:金井哲夫)

Googleが中間テキスト化不要の音声機械通訳の成果を発表

あの銀河ヒッチハイク・ガイドに出てくる不思議な万能翻訳機「バベルフィッシュ」がどんどん現実に近づいている。 Googleの新しい研究プロジェクトは音声で話しかけられた内容をリアルタイムで音声で通訳できるシステムを目指している。

従来の機械翻訳とは大きく異なった仕組みで、中間にテキスト化の段階を含まず、すべて音声レベルで処理される。これは処理の高速化に役立つのはもちろんだが、もっと重要な点は話者の語調その他の音声的ニュアンスをいっそう正確に処理できることだ。

このプロジェクトはTranslatotronと名付けられており、長年の研究を基礎としているものの、まだ開発の初期段階にあるという。Google他の開発者はスピーチから直接スピーチに変換するリアルタイム通訳の実現を目指して努力を重ねてきたが、見るべき成果が上がり始めたのはほんの数年前からだ。

現在、スピーチのリアルタイム翻訳はいくつかの部分に分割して実行されるのが普通だ。ソースのスピーチを音声認識によりテキストに変換(STT、Speech-To-Text)し、テキストを機械翻訳した後、出力テキストをスピーチに変換(TT、Stext-To-Speech)する。この方式は実際かなりの成果を上げているが、完璧には遠い。各ステップに特有の誤差があり、累積すると大きな誤差となってしまう。

またバイリンガル、マルチリンガルの人々が複数の言語を使う場合のプロセスの研究が示すとおり、テキスト化を挟む機械翻訳」は人間の複数言語思考ともかけ離れている。現段階では大脳でどのような処理が行われているのか正確にいうことはできないが、バイリンガルの話者が外国語を使うときに発話内容をいちいちテキスト化して思い浮かべ、それを翻訳しているのでないことは確実だ。人間の思考プロセスは機械学習アルゴリズムを進歩させる上でガイドないしモデルとして利用できる場合が多い。

スピーチの音声スペクトル画像。テキストを介した翻訳ではスペイン語の人名「ギェルモ」が対応する英語の人名「ウィリアム」に翻訳されてしまうのに対して、音声直接通訳では「ジエルモ」になっている。これでも正確ではないが、通訳としてベターだ。

これに対して研究者は音声スペクトルを解析して直接対応言語の音声スペクトルを合成しようと努力している。これは伝統的なテキストを介する3段階方式とまったく異なる機械翻訳のアプローチだ。これには弱点もあるが、上の例で示したようにメリットも大きい。

簡単なところでは、十分な計算機資源が用意できるなら現行の3ステップ方式より1ステップのTranslatotronの方が処理が速い。しかしユーザーにとってもっと重要な点は、音声から音声への直接通訳は元の発話の音声の特徴をよく再現できることだ。テキストを介した合成音声がいかにもロボット的に不自然に聞こえるのに対して、Translatatronで生成される文はオリジナルの発話に近いものとなる。

これは意味内容だけが対象言語に翻訳されるのではなく、発話の音声に込められた感情やニュアンスも再現されるという点で、機械翻訳を画期的に進歩させる可能性がある。これは通訳アプリに限らず、音声合成のユーザーは非常に大きな影響を与えるだろう。

今のところ、音声直接翻訳の精度は従来のテキストを介した翻訳に及ばず、この点では改良が必要だという。しかし部分的にせよ、非常に優れた翻訳も生まれている。研究グループは「出発点に立ったところであり、可能性を実証した段階」と控えめに表現しているが、実用化されたときのインパクトの大きさを想像するのは難しくない。

オリジナルの研究論文はArxivで公開されている。またう従来型のテキストを介した通訳とTranslatotronによる通訳のサンプルはこのページにある。これらのサンプルはあくまで音声直接翻訳というアプローチの可能性を試すために選ばれており、翻訳精度のアップそのものをを狙ったものではないという。

画像:Bryce Durbin / TechCrunch

原文へ

(翻訳:滑川海彦@Facebook

新Googleレンズは外国語を読み取って翻訳結果を合成音声で読み上げてくれる

米国時間5月7日に開幕したGoogle I/O 2019カンファレンスでは、強力なGoogle翻訳をさらに強化する機能がいくつも発表された。その1つがGoogleレンズのアップデートだ。スマートフォンで外国語のメニューや標識の写真を撮ると、Googleレンズがユーザーが指定する言語に翻訳してくれるデモが披露された。

この機能の一部はGoogle翻訳アプリにすでに組み込まれているが、今日はさらに機能が追加された。「聞く」ボタンをタップすると、Googleレンズは翻訳されたテキストを合成音声で読み上げる。また読み上げている箇所がハイライトされるのでユーザーはどの箇所なのか知ることができる。

レンズ開発チームはインドでベータテストを実施し、このテクノロジーが比較的能力の低いデバイスでも作動できるよう軽量化に務めてきた。Googleによればこの機能はわずか100KBで実装されているという。この機能はまだ一般公開されていない。

公開時期が不明なのにデモしたのかという不満も聞こえてきそうだが、ま、これがGoogle I/Oだ。

原文へ

(翻訳:滑川海彦@Facebook

Googleドキュメントの文法チェッカーがAIベースになり精度が向上

米国時間2月26日、Googleは、Google Docs(G Suiteユーザーのみ)に、機械学習を応用した新しい文法チェッカーを組み込んだことを発表した。同社は当社この新機能をCloud Next 2018で発表したが、それ以来限定公開状態が続いていた。

文法チェッカーは新しいものではなく、Docs自身にも以前からあった。何が新しいかといえば、文の明らかな間違いや微妙な問題を見つけ出すために機械翻訳技術を応用したことだ。書かれたものを辞書にある単語と比較して間違いに印をつけるも一つの仕事だが、地域や文体によっても異なる複雑な文法規則を理解することはまったく別の話だ。このようなチェックを決められた規則のみに則って行うのは非常に難しいが、同社の機械翻訳技術を使って見つけることが可能になった、と言っている。

「機械翻訳を使用することで、間違いを認識して修正を提案することができる」とG Suiteのプロダクトマネージャー、Vishnu Sivajiが今日の発表で説明した。「われわれは言語学者と密に協力して機械翻訳モデルのルールを解読し、それを元にユーザーの文書に対して自動的に提案するしくみをつくった。すべてAIの力を利用している」

つまりGoogleは、まず大量の正しい文を使ってモデルを訓練し、次に英語からフランス語に翻訳するときに使う同様のモデルを使って、誤りのある文を正しいものに修正している。

[原文へ]

(翻訳:Nob Takahashi / facebook

Liltは中核に人間を据えた機械翻訳ビジネスを構築する(お望みならAI書記も)

ウェブサービスで読むあらゆる文章を、速やかに自動的に翻訳できる能力は大したものだが、本当に使えるのは、概略で足りる外国語の記事やメニューや道路標識といった程度の文章だ。この素晴らしいツールは、もっと有効に使われるべきではないだろうか。それは可能だ。Liltという企業が、もう密かに始めている。しかも嬉しいことに、人間的な要素を置き去りにしようとは考えていない。

人間の翻訳者の専門知識と、自動翻訳のスピードと汎用性とを組み合わせれば、双方のもっとも優れた能力を引き出すことができ、大きなビジネスになる可能性がある。

機械翻訳の問題点は、それを本気で使おうとしたときにわかるが、下手なことだ。トマトとポテトと間違えることはないが、一連の言葉の文字通りの意味を正確に訳す以上のことになると頼りない。ほとんどの場合は文字通りの意味で事足りる(メニューなどはそうだ)が、長い文章となると、十分とは言えなくなる。

単に利便性の問題ではない。業務においても個人的なものであっても、言葉は重大な障壁になり得る。

「英語でしか読めないものが大量にあります」と、Liltの共同創設者でCEOのSpence Greenは話す。中東で大学院に通いながらアラビア語を勉強していたとき、彼はその問題に遭遇し、英語を話さない人たちの不自由さを知った。

そうした情報は、ほとんどが機械翻訳には適さない内容だと彼は説明する。Google翻訳で訳された説明書を頼りに重機を操作しなければならない事態や、自分の読めない言語でしか移民法が書かれていない国で仕事をする状況を想像して欲しい。

「本、法的な情報、投票に関する資料……、質が求められるものの場合は人間の関与が必要です」と彼は言う。

中東で翻訳の仕事を行い、その後の2011年にGoogleでインターンとして働いていたとき、Greenは機械翻訳に関心を抱いた。ほとんどのシステムで内容が劣化してしまうのだが、質を保ったまま情報にアクセスできるように改善するにはどうしたらよいか。

そうして彼が、共同創設者のJohn DeNeroとともに追求し実現させたのが、翻訳のためのツールとしてだけではなく、翻訳者のためのツールにもなる機械翻訳システムだった。翻訳システムの中で作業することで、翻訳者はより速く、より良い仕事ができるようになり、認知的負荷が軽減される。

Liltのツールの基本的な考え方は、次の文章や段落の作業の参考になる翻訳をシステムが提供するというものだ。文章構成、時制、慣用句などを翻訳者が参照できることで、少なくとも可能性として、より短時間により良い作業ができる。Liltでは、1時間あたりの翻訳語数は5倍にもなると説明している。結果は、人間の訳者だけが行った場合に比べて同等か、それ以上のものが期待できるとのことだ。

「私たちは複数の論文を発表しています。……この技術が有効であることを、私たちはわかっていました。私たちは翻訳者たちと研究を重ね、大規模な実験も行いました」とGreenは言う。しかし、知りたいのはどのように進めたかだ。

大企業に話を持ちかけて興味を持ってもらったのか? 「それを行うことで、大企業は消費者向けアプリケーションにばかり目を向けていることを私たちは感じました。品質の基準はどこにもありません。それが翻訳業界の実態です」とGreenは語る。

学術研究に留まり、補助金を使ってオープンソース化する? 「お金は、ほぼ枯渇状態です」とGreen。911の事件の後、情報収集とコミュニケーション能力の改善という名目で、予算は潤沢に与えられた。しかし、あれから10年が経過すると切迫感が消え、同時に補助金も消えた。

会社を立ち上げた? 「この技術が必要であることは、わかっていました」と彼は話す。「問題は、誰がそれを市場に持ち込むかでした」ということで、自分たちがそれを行おうと決めた。

面白いことに、翻訳の世界の大きな変化は、彼らが本格的に取り組み始めたときに起こった。統計ニューラルネットワーク・システムが、文章のようなものを効率的に効果的に解釈する自然に近い親和性のあるアテンション・ベースのシステムに取って代わられたときだ。文章の中の単語は、画像の中のピクセルと違い、前後の言葉に構造的に依存している。彼らは中核的な翻訳システムを再構成する必要があったが、それが結果的には発展につながった。

両義的な文の機械翻訳で正しい訳語をガイドするGoogleのTransformerシステム

「これらのシステムは、ずっと流暢です。とにかく優れた言語モデルなのです。次に、学習が速い。わずかなアップデートで特定の分野に適応できます」とGreenは言う。つまり、ひとつの分野に限れば、技術書や不動産の法律など、難しい専門用語や特別な法則に素早く対応できるということだ。

もちろん、だからと言ってすぐさま翻訳ビジネスの真ん中に飛び込で、出版からリアルタイムのもの、技術系文書から無数のバーティカル市場にまで広がる世界に、「ほら、AIを使おう!」と言うことはできない。

「この業界には、何であれ現実に自動化することに対して猛烈な構造的抵抗力があります」とGreenは話す。大手出版社には、今使えている方式を変えようという気はなかった。

「有効なものが見つかるまで、私たちはいくつものビジネスモデルを試しました。『うん、この人間を組み入れた方式は問題を根本的に解決してくれる。それを基盤に会社を興そう』なんていう企業はひとつもありませんでした。そこで私たちはバーティカルに統合したのです。大企業や行政と協力して、彼らのための翻訳のワークフロー全体を私たちが持つことにしました」

品質を落とさずに高速化する方式は、基本的に効率性を倍加させる。正確に訳さなければならない文書が大量にあるが、ほとんどを自腹でやらなければならない組織にとって、それはマタタビのようなものだ。

こう考えて欲しい。それぞれ異なる言語を話す20カ国で製品を販売する企業の場合、パッケージ、広告、説明書などの翻訳は、実質的にはいつまでも完了しない作業だ。それが速く安く、高品質でできるなら、そしてそれを一手に引き受けてくれる企業があったなら、渡りに船だ。

「私たちは、Zendesk、Snap、Sprinklrなどと仕事をしています。すべての翻訳作業を引き受けています。これは海外市場への進出を手助けするものです」とGreen。翻訳用の予算や人員に限りがあり、一定期間内で可能な新規市場の開拓が5〜6件だった企業も、Liltを使えば、効率化の度合いにより、同じ予算と人員で開拓件数は2倍から3倍にできる。

現在彼らは、自然な流れとして顧客の獲得に努めている。「去年の第四半期には、初めての営業チームを結成しました」とGreenは教えてくれた。しかし、行政との最初の仕事はとくに励みになった。なぜなら「独特な用語が必要」であり、文書の量も膨大だったからだ。現在、Liltは29の言語に対応しているが、今年末には43言語に対応するという。校正機能は、翻訳者ばかりでなく編集者の作業効率も高めてくれる。

彼らはまた、学術経験者とのつながりを増やすことにも努めていて、Liltの周りに翻訳コミュニティーを構築している。学術経験者は翻訳者に欠かせない情報源であり、言語の専門家であり、大きな市場でもある。科学文献のほどんどは、高度に技術的な内容を他の言語に翻訳することが大変に難しいため、英語でのみ出版されている。

「ハイテク企業はあらゆる才能を吸い取って、アシスタントやらAlexaとやらにつぎ込んでいます」と話すGreenは、優れた研究者が退屈な仕事をさせられていることに腹を立てているように見える。AIやロボティクスのような先端技術の分野では、何度も繰り返されていることだ。

最後にGreenはこう話していた。「この輪を閉じて、書籍の翻訳に挑戦することが私の最大の夢です。儲かる仕事とは言えませんが、第三の目標なのです。もし可能なら、それは何か意味のあることを成し遂げたと気になれる道になります」

まずはアプリの説明書や政府の無秩序な契約書といった仕事から始まるのだろうが、Liltの人間を輪に組み入れた作業方法を受け入れやすい、そうした部類の文書や市場は増える一方だろう。それに、AIと人間が協力し合う未来は、人間が置き換えられる未来よりも心強い。少なくとも翻訳の世界では、人間の手が排除できるようになるのは、ずっと遠い話だ。

[原文へ]
(翻訳者:金井哲夫)

オンライン翻訳の八楽、コニカミノルタなど大手3社と資本業務提携

yarakuzen

オンライン翻訳ツール「ヤラクゼン」を提供している八楽は9月5日、コニカミノルタ、ソニーネットワークコミュニケーションズ(旧ソネット)、アドバンスト・メディアの3社と資本業務提携を行ったと発表した。八楽は2013年5月、ニッセイ・キャピタルや日本ベンチャーキャピタルなどから1億800万円の資金調達を実施している。今回の調達金額は非公表。

3年ほど前にTechCrunchが取材を行った際、同社のサービスは「ワールドジャンパー」という名称でウェブサイトの多言語化に特化していた。昨年10月のヤラクゼンのローンチ以降、HTML以外にもワード、エクセル、パワーポイント、CSV、PDFとビジネスシーンで広く使われているファイル形式に対応。日本語を含む翻訳可能言語数は、21言語まで増加した。

メールやプレゼン資料といったビジネス文書のほか、ウェブサイトやマニュアルなどを翻訳する際の利用を想定しており、メールにいたっては280種類もの英文テンプレートまで準備されている。

Top

ヤラクゼンのトップ画面

ヤラクゼンの使い方は極めてシンプルで、まずボックス内に翻訳したいテキストを直接入力するか、翻訳したいファイルをドラッグ&ドロップすると、テキストの解析・機械翻訳がスタートする。その後、原文と機械翻訳文が隣り合わせに並べられた画面に移動し、ユーザーは好みに合わせて訳文の修正をできる。

翻訳の精度を高めたい場合は、クラウドソーシングサービスを利用したクラウド翻訳(言語や内容に応じて文字/ワード当たり6円〜18円)や、プロの翻訳家にお願いするプロ翻訳(言語に応じて文字/ワード当たり15円〜20円)を1文単位から利用可能だ。

機械翻訳時には数百万件におよぶフレーズ集(翻訳メモリ)が参照されるため、メールなど簡単な内容のテキストであれば、機械翻訳だけでも実用に耐えうるレベルの訳文が生成される。さらに自分で修正を加えた訳文の情報もデータベースに保存されるため、以後の翻訳時には修正が加えられたフレーズが参照され、翻訳の精度がさらに高まる仕組みになっている。ブランド名や商品名、社内用語など、異なる文書間で統一したい訳語についても単語集に追加できる。

translation-screen

翻訳作業画面

翻訳メモリや原文・訳文のパラレル表示、文章のセグメンテーションなどは、翻訳業界標準のTradosやWordfastといった翻訳支援ツールに採用されている機能にも関わらず、基本機能だけのフリープランであれば、ヤラクゼンを無料で利用することができる。その他にも、自動翻訳の文字数や、フレーズ集の最大保存可能数、ユーザー間のファイル共有などの条件に応じて月額980円(月ごとの契約の場合は1280円)のプレミアムプランや、月額3980円(同4800円)のカンパニープランが用意されている。

八楽で取締役COOを務める湊幹氏によれば、現状のユーザーは外国語でのコミュニケーションが必要になる機会の多い、ITやインバウンド(宿泊施設・飲食店)、メーカーといった業界で働く人がメインだ。具体的な数値は公表されていないものの、現時点ではフリープランを利用しているユーザーの数が圧倒的に多く、プレミアム・カンパニープランの利用者はそれぞれ数%程だ。そのため、今回発表された業務提携を通じて、プレミアム・カンパニープランのユーザー数を増やしていきたいと同社代表取締役の坂西優氏は語っていた。

さらに、提携先のひとつであるアドバンストメディアは音声認識技術で知られていることから、今後モバイル分野へも注力して行き、会話の内容を認識して翻訳まで行う”翻訳機”アプリや、複数言語対応の議事録自動作成ツールなどの開発を検討していると湊氏は語る。

外国語に対応したPOPを作成するなどのインバウンドサービスに取り組むコニカミノルタとは、共同で法人向け多言語コンテンツ制作サービスを新たに公開する予定だ。

もうひとつの提携先であるソニーネットワークコミュニケーションズとは、ヤラクゼンの法人向け販売で協力していく。

WordPressのオフィシャルプラグインが公開されているように、八楽はAPIの導入にも力を入れており、今後提携先のネットワークや調達資金を利用して、法人向けサービスのマーケティングや営業力の向上に努める予定だ。