ニュース記事に特化した文章要約AI「ニュースタンテキ」を展開するバズグラフが約1億円調達

ニュース記事に特化した文章要約AI「ニュースタンテキ」を展開するバズグラフが約1億円調達

自社開発の自然言語処理AIをベースに、文章要約AI「ニュースタンテキ」を展開しているバズグラフは9月16日、第三者割当増資による1億600万円の資金調達を発表した。引受先は個人投資家。調達した資金は、ニュースタンテキの新機能開発、またベースとなる自然言語処理エンジンのAPI開発など、より良いソリューションを提供できる環境整備の開発にあてる。

ニュースタンテキは、独自の自然現処理エンジンにより、主にニュース記事を中心とした文章に対し、AIによる文章要約を可能としたサービスという。今秋に有償版リリースを予定しており、現在は全機能無料公開中。

URLによる本文抽出機能、最大1万文字まで要約可能、10%~90%の文章要約圧縮率選択、ニューラルマップ(文章構造図)の閲覧、キーワード出現率の表示などを特徴としている。

本物の人間そっくりに答えるAI音声アシスタントでカスタマーサービスを自動化するPolyAI

PolyAIが、シリコンバレーのKhosla Venturesがリードする投資ラウンドで1400万ドル(約15億4000万円)を調達した。参加したのは、これまでの投資家であるPoint72 VenturesとAmadeus Capital、Sands Capital Ventures、Passion CapitalそしてEntrepreneur Firstとなる。これは同社の1200万ドル(約13億2000万円)のシリーズAに次ぐもので、主に米国のチームとスタッフの増員に当てられる。同社の調達総額は、これで2800万ドル(約30億7000万円)になる。

PolyAIは同社製の音声アシスタントを使ってカスタマーサービスを自動化する。同社によると、それは本物の人間のように聞こえるという。それによって企業は、まるで人間が話しているような音声オペレーターを安上がりかつ人数に制限なく利用でき、さらに顧客の待ち時間を減らし、顧客の満足度と定着率を上げることができる。

共同創業者のNikola Mrkšić(ニコラ・ムルクシッチ)博士によると「私たちの技術を技術用語でいえば、それは『マルチターンの会話的AI』となります。しかし実際には、すべての通話者がやることは、人と話すようにそれに話しかけることだけです。これまでのコールセンターに比べると私たちのアシスタントは顧客満足度を40%向上させ、対応時間を最大で5分間減らします」。

「競合他社と比べると、私たちはこのシステムをとても迅速に開発しています。弊社のトランスフォーマーをベースとする言語理解モデルと、基盤となる対話管理プラットフォームにより、このようなユーザー体験を2週間から4週間で実装しています」。

「PolyAIは、BERTやGPT-3のような最新世代の大規模な訓練済みのディープラーニングモデルを実際のエンタープライズプロダクトで使っている最初のAI企業の1つです。そのため彼らは、自動化AIエージェントをわずか2週間でデプロイでき、音声アシスタントの旧来のプロバイダーが古い技術のデプロイに最大で6カ月は要していたことと比べて、極めて対照的だです」とVinod Khosla(ビノッド・コースラ)氏は声明で述べている。

 

ケンブリッジ大学からスピンアウトしたPolyAIによると、パンデミックでコールセンターの人手不足になり、多くの企業がスマートボイスアシスタントをデプロイするようになったため、それは、最初から開いてるドアを開けるような楽な営業だった。消費者はタイプするよりも話すことを好むため、チャットボットと同等に比較することはできない。

Landry’s傘下のGolden Nugget Hotels & CasinosのBrian Jeppesen(ブライアン・ジェプセン)氏は「通話の40%ほどを扱ってくれればよい、と思っていましたが、立ち上げ初期から80%、2週間後には87%になりました。AIエージェントを人間だと思っているお客さんも多い。音声アシスタントは失敗しないし、24時間365日稼働しているので、それはすばらしいことです。こんなエージェントなら、もっとたくさんいてもいいね」という。

競合他社は、最近Microsoftが買収したNuanceやIsoft、Interactions、SmartAction、Replicantなどとなる。しかしPolyAIの主張では、同社の音声アシスタントは起動が早く、また対応言語も多く、分単位の料金となっているという。

同社の共同創業者は、CEOのニコラ・ムルクシッチ博士とCTOのTsung-Hsien Wen(ツォンシェン・ウェン)氏、そして技術部長のPei-Hao Su(ペイハオ・スー)氏で、2人はSteve Young(スティーブ・ヤング)教授の下で博士論文に取り組んでいるときに出会った。ヤング教授は音声対話システムのリーダーであり、SiriやGoogleアシスタントやAlexaのような音声アシスタントを支えている多くの技術の開拓者だ。

PolyAIの最近のクライアントには、Landry’s Entertainment、Greene King、Starling Bank(スターリング銀行)そしてViasatなどがいる。

画像クレジット:PolyAI

原文へ

(文:Mike Butcher、翻訳:Hiroshi Iwatani)

Zoom商談を書き起こしSalesforceに自動入力するオンライン商談自動化ツール「アンプトーク」が発売開始

Zoom商談を書き起こしSalesforceに自動入力するオンライン商談自動化ツール「アンプトーク」が発売開始

amptalkは9月6日、オンライン商談自動化ツール「アンプトーク」の発売を9月1日より開始したと発表した。また2021年5月、ジェネシア・ベンチャーズ、モバイル・インターネットキャピタルより、シードラウンドにおいて約1億円の資金調達を実施したと明らかにした。調達した資金は、今後のプロダクト開発・販売の為の人材の採用に活用する予定。

2020年5月設立のamptalkは、「データによって価値あるアドバイスを」作り出すことをミッションとし、「昨日まで世界になかったチャンスを」作り出すことをビジョンに、「人」だけではできなかったことを成しとげ「人」がより効率的に働ける世の中を作ることを目指すスタートアップ企業。

Zoom商談を書き起こしSalesforceに自動入力するオンライン商談自動化ツール「アンプトーク」が発売開始

アンプトークは、Zoom商談の録画を自動で取得して書き起こし、Salesforceに自動入力するというツール。営業担当者は商談の記録などの付加業務の負担が減り、商談に集中できるようになるという。

また、アンプトーク独自のシステムで商談内容を自動解析することで、誰が・何を・どれくらい話したのかを可視化可能。これにより営業のトッププレーヤーと他プレーヤーの差を明らかにすることで、育成指導やナレッジシェアの工数を減らしながらスキルを改善、受注率の向上につなげられるとしている。Zoom商談を書き起こしSalesforceに自動入力するオンライン商談自動化ツール「アンプトーク」が発売開始

機械学習のデベロッパーツールを開発するExplosionはオープンソースと商用プロダクトを併用

オープンソースの機械学習ライブラリと一連の商用のデベロッパーツールを併用してサービスを提供するExplosionは米国時間9月2日、1億2000万ドル(約131億7000万円)の評価額による600万ドル(約6億6000万円)のシリーズAを発表した。SignalFireはこのラウンドをリードし、同社は投資額は評価額の5%に相当するという。

この投資にともない、SignalFireのOana Olteanu(オアナ・オルテアヌ)氏が取締役会に加わる。なおこのラウンドには、同じ評価額による1200万ドル(約13億2000万円)の追加投資の保証が含まれている。

Explosionの共同創業者でCEOのInes Montani(イネス・モンタニ)氏は、次のように語っている。「基本的にExplosionはソフトウェア企業であり、AIと機械学習と自然言語処理のデベロッパーツールを開発しています。目標はデベロッパーの生産性を上げ、自然言語処理をもっと利用していただき、大量のテキストを理解できるように機械学習のモデルを訓練し、それによって工程の一部を自動化していただくことです」。

同社が発足したのは2016年で、モンタニ氏がベルリンで共同創業者のMatthew Honniba(マシュー・ホニバ)氏に会ったときだ。そのときモンタニ氏はオープンソースの機械学習ライブラリspaCyを書いていた。その後、そのオープンソースのプロジェクトは4000万回以上ダウンロードされた。

2017年、同社は機械学習のモデルのためにデータを生成する商用プロダクトProdigyを加えた。モンタニ氏は次のように語っている。「機械学習はコード、プラス、データであるため、その技術を有効に利用するためには、常にモデルを訓練してカスタムのシステムを作らなければなりません。なぜなら、最も価値があるものは、ユーザーにとって固有の問題(一般性汎用性のない)と、そのビジネスそして、何を見つけたいのかということです。そのため訓練用のデータを作って機械学習のモデルを訓練するという部分には、ほとんど注意を払いません」。

今回資金を調達した最大の理由が、Prodigy Teamsと呼ばれる同社の次のプロダクトだ。モンタニ氏によると「Prodigy Teamsはユーザーに対しホスティングされるサービスで、ユーザー管理とコラボレーションの機能をProdigyに追加します。しかもそれをセキュリティ完備のクラウドで動かすため、Prodigyが好まれている最大の理由、すなわちデータの守秘が損なわれず、いかなるデータもサーバーがそれを見る必要性がありません」。そのためには、データをプライベートクラウドにある顧客のプライベートクラスターに置き、それからパブリックなクラウドサービスにあるProdigy Teamの管理機能を使っていく。

今日では、MicrosoftやBayerなどおよそ500社がProdigyを利用し、また数百万のオープンソースユーザーによる大きなコミュニティもある。Explosionわずか6名の初期の社員たちで、これらのシステムをすべて開発したが、年内には20名に増員したいとのこと。

ダイバーシティに関して、モンタニ氏の意見では雇用に際してこだわり過ぎると、それ自体が問題になる。「何も考えずに結果的にダイバーシティが実現するのはいいけど、義務感に駆られてダイバーシティを気にするようになると、それ自体が問題になる」と彼女はいう。

「現在、自分の会社に20代の白人男性が50名いて、そこにいわゆるダイバーシティのために20代の非白人男性を入れようとすると、なかなかうまくいかずそれ自体が問題になります。しかし私たちの場合、いい人を雇おうとしているだけなので、いい人だけを採用していたら自然にダイバーシティになる。スタートアップの教科書のようなものを気にし始めたら、いろいろなことで制約にぶつかる」。

彼女によると、彼女自身はこれまで、出来合いの教科書のようなものを気にしたことがない。「資金を調達するのも今回が初めてだし、チームは自然に成長した。外部資金を導入するまでは、会社の利益と独立性だけを気にしていた」と彼女は言っている。

しかしお金以上に問題になるのが、モンタニ氏によると、オープンソースに対する投資家の理解だ。会社のあらゆる部分を大きくできるだけの資本を持っているだけでなく、そのビジネスのオープンソースの側面を理解できる投資家を見つける必要がある。「オープンソースはユーザーと顧客と従業員のコミュニティです。彼らは今生きてる人間であり、スタートアップというゲームの『歩(ふ)』ではなく、しかもゲームですらありません。リアルな人間のリアルな営みです」とモンタニ氏はいう。

「彼らは単なる私の手足ではない。だから資本と引き換えに少量の株を売ったからといって、オープンソースは依然として私たちの企業の核であり、妥協できない部分です」とモンタニ氏は言っている。

画像クレジット:Usis/Getty Images

原文へ

(文:Ron Miller、翻訳:Hiroshi Iwatani)

メンタルケアしてくれる「AIパートナー」や高精細な「バーチャルヒューマン」で人とAIの共生を目指すCapexが1.3億円調達

「人とシステムの共生を実現、普及し、人類の機能を拡張する」というビジョンのもと、AIと人間の共生を目指して、ライフパートナーAIアプリ「PATONA」やバーチャルヒューマン事業を展開するCapexが、UTEC、イーストベンチャーズ、Skyland Venturesから総額1億3000万円を調達した。

同社は、自然言語処理を活用した自社開発対話エンジンおよび3DCGを用いたバーチャルヒューマンの開発を強みとし、今回の調達で、事業拡大やエンジンの高度化、バーチャルヒューマン事業の推進を図るという。

寂しさを抱えるあなたに寄り添うAIパートナー「PATONA」

個人向けAIパートナーアプリの「PATONA」は、友達や恋人、メンターとして、個人に寄り添い、理解してくれる存在をコンセプトとしてローンチされた。感情の記録をつけたり、天気を調べることも可能だ。2020年12月にiOS版をリリース、2021年3月にAndroid対応、同年8月には、利用可能な機能がより解放されたサブスクリプション版となるPATONA Premiumがリリースされた。

新型コロナウイルスの影響で人と交流する機会が減少する中、孤独によるメンタルヘルスの不調をサポートしていくため、メンタルヘルス専門家が監修した認知行動療法などを活用した対話を100以上提供。利用者がより自然に対話できるよう、フリーテキスト対話エンジンの開発に注力している。

また、親近感を感じられるよう、顔や髪型、洋服、靴、部屋などがカスタマイズ可能な3DCGモデルの増強も行ってきた。実際に、新型コロナウイルスの影響で寂しさを感じ、ソリューションを検索していたら同サービスにたどり着いたという利用者も多くいるとのこと。従業員のメンタルヘルスケアアプリとして福利厚生の一環でPATONAの導入をした法人もあるという。

3次元との見分けが難しいほど高精細なバーチャルヒューマン

バーチャルヒューマン事業では、もはや本当の人間にしか見えない像を作り出している。個人向けと法人向けの両方で展開。法人からは、スキャンダルリスクを軽減するなどの目的で、看板タレントにバーチャルヒューマンを用いたいというリクエストや、カスタマーサポート担当、社内教育担当などに活用したいというニーズがあるとのこと。個人からは、経営者や著名人などから「自身のバーチャルヒューマンAIを世に残したい」という相談があるそうだ。

Capexは、クライアントがリーチする顧客に応じて最適な体験を提供できるようにするため、デフォルメキャラクターからフォトリアルなバーチャルヒューマンまで幅広い表現をカバーしている。「自然言語処理技術の向上であっと驚くような対話体験を提供する対話AIが作れる。当社の対話AIとバーチャルヒューマンを組み合わせて法人個人のさまざまな需要に対応していきたいと考えている」と代表取締役の小亀俊太郎氏はいう。

同社は2019年に創業。対話エンジンやアプリケーションを開発するエンジニアに加え、アートディレクターや3DCGモデラー、そして自然な会話を構築するためのシナリオライターなどで構成されている。対話は、雑談をこなす非タスク型と質疑応答などのタスク型で分類され、いずれも自社独自開発の対話AIが日々学習をしているという。日本語は英語と比べてデータが少なく大変ではあるが、独自のAIを育てているそうだ。小亀氏は「これまで人間でしか提供できなかった対話体験と比べても遜色ないほどに対話AIの品質が上がってきている。今後も、AIと人が共生する社会の実現に向けて事業を推進していきたい」と語った。

関連記事
自分だけのAIライフパートナーと対話できる「PATONA」アプリのCapexが総額1億円を調達
ソフトバンクの人型ロボット「Pepper」が「りんな」を手がけるrinnaのAI会話エンジン最新版を採用
AIチャットボット「りんな」のrinnaとUneeQを日本展開するデジタルヒューマンが協業、顔・声・視聴覚を持つ雑談AI実現

rinnaが日本語に特化したGPT-2とBERTの事前学習モデルを開発しオープンソース化

rinnaが日本語に特化したGPT-2とBERTの事前学習モデルを開発しオープンソース化

rinnaは8月25日、日本語に特化したGPT-2とBERTの事前学習モデルとその学習を再現するためのソースコードを、GitHubおよびNLPモデルライブラリーHuggingFaceにオープンソースソフトウェア(OSS)として公開したと発表した。ライセンスはMIT。製品開発のための実験過程で開発したもので、日本語の自然言語処理(NLP)の研究・開発コミュニティに貢献するためという。

rinnaは、2021年4月に日本語に特化した中規模サイズのGPT-2(GPT2-medium)をOSS化しており、今回はモデルサイズが異なる2つのGPT-2(GPT2-small、GPT2-xsmall)を公開したことになる。モデルサイズの違いはパフォーマンスとコストのトレードオフとしており、研究者や開発者は最善のモデル選択可能となるという。また、GPT2-mediumも、学習データと学習時間を増やし、より高性能なモデルへとアップデートしているそうだ。

またGPT-2に加え、BERTを改良したモデルであるRoBERTaも公開した。 GPT-2とBERTの公開により利用者は目的に合わせたモデル選択や、追加学習により多様なタスクへの応用が可能となる。

GPT-2は、予測したい単語より前の単語を考慮して次の単語を予測する言語モデルとなっており、BERTについては、予測したい単語の前の単語だけでなく後の単語も考慮して予測を行う。例えばGPT-2では以下図のように「吾輩」「は」を考慮して「猫」を予測するが、BERTでは前の単語「吾輩」「は」と後ろの単語「で」「ある」を考慮して「猫」を予測する。

rinnaが日本語に特化したGPT-2とBERTの事前学習モデルを開発しオープンソース化

また、今回公開のRoBERTaはBERTを改良したモデルにあたり、BERTより高い性能が報告されているという。RoBERTaを用いて、「4年に1度、[MASK]は開催される。」の[MASK]部分を予測すると、オリンピックやワールドカップといった4年に1度開催されるイベントが上位に予測される。

rinnaが日本語に特化したGPT-2とBERTの事前学習モデルを開発しオープンソース化

文章生成タスクにおいては、文章を1単語ずつ順次予測するGPT-2が用いられるものの、文章分類タスクなどの文章全体を考慮したタスクにおいては、BERTが利用される。文章分類タスクの他にも、質問応答タスクや固有表現認識タスクなど多様なタスクに適用することが可能という。

rinnaの研究チームが開発する大規模な事前学習モデルは、すでに同社製品で広く利用しているという。同社は今後も、AIに関する研究を続け、高性能な製品を開発するとともに、研究・開発コミュニティに貢献するために、研究成果を公開していく予定としている。他社との協業も進めることで、AIの社会実装の拡大を目指す。

rinnaの日本語事前学習モデルの特徴

    • 学習データとして、日本語CC-100と日本語Wikipediaの計75GBのオープンソースデータを使用
    • 8つのNVIDIA Tesla V100 GPUを用いて、75GBの日本語テキストを最大45日間かけ学習。その結果、すべてのモデルにおいて、十分に学習された汎用性があるモデルとなっているという。学習された事前学習モデルはHuggingFaceにおいてMITライセンスで公開
    • 事前学習モデルの学習に用いたソースコードはGitHubにMITライセンスで公開。利用者は、日本語CC-100とWikipediaのオープンソースデータを用いることで、自分のマシンでrinnaによる結果を再現可能
    • GPT-2ではモデルサイズが異なるGPT2-medium(3.36億パラメータ)、GPT2-small (1.10億パラメータ)、GPT2-xsmall (0.37億パラメータ)の3つのモデルを公開。またBERTを改良したRoBERTa (1.10億パラメータ)も公開
    • 利用者の目的に沿った多様なタスク(ドメインに特化した文章生成、文章分類、質問応答など)について、rinnaが公開した事前学習モデルを用いた追加学習により実現できる

ソフトバンクの人型ロボット「Pepper」が「りんな」を手がけるrinnaのAI会話エンジン最新版を採用

ソフトバンクの人型ロボット「Pepper」が「りんな」を手がけるrinnaのAI会話エンジン最新版を採用

rinnaは8月20日、法人向けAIチャットボット開発プラットフォーム製品「Rinna Character Platform」新バージョンが、ソフトバンクロボティクスのヒューマノイドロボット「Pepper」(ペッパー)に採用されたと発表した。

rinnaは、MicrosoftのAI&リサーチ部門でAIチャットボットの研究を行っていたチームがスピンアウトして2020年6月に設立したAI開発企業。ディープラーニング技術を活用し、AIが文脈に応じた会話文を自動生成して人間と自然に会話する「共感チャットモデル」、AIが話し声や歌声で豊かに感情表現することを可能にする「音声合成システム」などの技術を発表してきた。これら技術は、rinnaが運営するLINE上のAIチャットボット「りんな」、法人向けAIチャットボット開発プラットフォーム製品「Rinna Character Platform」に応用されている。

Rinna Character Platformは、会話内容や音声表現をカスタマイズしてキャラクター性を持たせたAIチャットボットを開発可能。2021年春リリースの新バージョンでは、新開発のチャットエンジン「Style Transfer Chat」(STC)を使用することで、大規模会話データから構築した事前学習済みモデルに、作り上げたいキャラクターの性格や口調を反映した少量の会話データを追加学習させるだけで、キャラクター性を反映した自由会話が可能という。

また新バージョンでは、外部サービスと柔軟に連携でき、WebHookフィルターを利用しユーザーが自由に機能を拡張可能。カスタム機能はどのような言語でも開発可能という。カスタム機能とチャットボットのサーバーを分離し、チャットボットの各モジュールを小さくシンプルにすることで、耐障害性とセキュリティも向上させた。

ソフトバンクロボティクスのPepperでは、2019年からRinna Character Platformを採用しているという。同新バージョンの最新チャットモデルの効果により、Pepperの会話機能が向上し、Pepperが提供するサービスの顧客満足度が高まることが期待されるとしている。また、Rinna Character Platformの新しいアーキテクチャによってシステムの導入が容易になるとともに運用効率と耐障害性が向上し、自由会話のAIチャットボットをより低コストで安定したサービスとして提供できるようになるとした。

医療現場のバラバラな書類からデータ構造を解明するMendelが約19.7億円調達

医療業界には膨大なデータが存在するが、データが非構造化されていたり、バラバラな場所に存在していたりするため、多くの場合その価値を理解することは難しい。

情報の内容を取り込み、整理するためのAIプラットフォームを構築しているスタートアップ企業Mendel(メンデル)は2021年6月上旬、その成長を継続し「臨床データ市場」を構築するための1800万ドル(約19億7100万円)の資金調達を発表した。またこの資金は、カリフォルニア州サンノゼとエジプトのカイロにある2つのオフィスで、技術面やサポート面での人材を増やすためにも使用される予定だ。

今回のシリーズAラウンドには、DCMを筆頭に、OliveTree(オリーブツリー)、Zola Global(ゾラグローバル)、MTVLPの他、以前からのサポーターであるLaunch Capital(ローンチキャピタル)、SOSV、Bootstrap Labs(ブートストラップラブズ)、UCSF Health Hub(UCSFヘルスハブ)の会長であるMark Goldstein(マーク・ゴールドスタイン)も参加している。

メンデルによると、研究機関や製薬会社の間では、患者の長期的な治療や経過をより良く理解するために、より優れたデータを収集することへの関心が高まっている。特により広範なユーザーにおいてのデータ収集に関心が高まっており、これは現在人の観察や試験の実施が困難だからという理由だけではなく、AIを使用して大きなデータセットを活用することで、より良い洞察を得ることができると考えられているからだ。今回の資金調達はこうした見解に基づくものだ。

これは例えば、具体的な病気の症状や病理の特定だけでなく、具体的な治療コースに対する反復的でより典型的な反応を積極的に特定する上で重要となる。

メンデルについては、2017年に、定期的に実施されているさまざまな臨床試験とがん患者をよりよくマッチングさせるための200万ドル(約2億1900万円)のシードラウンドを同社が受けた際の記事を書いた。この際のアイデアは、特定の臨床試験は特定のタイプのがんや患者のタイプに対応しているため、新しいアプローチを試したいと思っている人には、適しているアプローチとそうでないものがあるというものだった。

しかし結局のところ、マッチングアルゴリズムを機能させるために必要なデータに問題があったということが、メンデルのCEOであり創業者のKarim Galil(カリム・ガリル)博士によって明らかになった。

彼はインタビューでこう述べた。「トライアルビジネスを立ち上げようとする中で、もっと基本的な問題が解決されていないことに気づいたのです。それは、患者さんの医療記録を読んで理解することでした。それができなければ、臨床試験のマッチングはできません」。

「そこで当スタートアップは、少なくとも3年間は研究開発屋になって、その問題を解決してからトライアルを行うことにしました」と彼は続けた。

今日、非構造化情報を解析してより良い洞察を得ようとしているAI企業は数多くあるが、メンデルは、個別の業種や専門分野に特化したAI知識ベースを構築しているハイテク企業の代表格と言える(例として、GoogleのDeepMind(ディープマインド)も医療分野でのデータ活用を検討している主要なAIプレイヤーだが、別の業種なら法律や経済業界に注力しているEigenが挙げられる)。

自然言語を「読む」ことの問題は、医療の世界ではこれが想像以上にニュアンスに左右されるということだ。ガリル氏は、英語の「I’m going to leave you」というフレーズになぞらえて、これが例えば部屋を出て行くという意味と、人間関係から抜け出すという意味があると説明する。真の答えは ─ 人間である私たちは、真実でさえわかりにくいことがあるとわかっているが─ 文脈の中でしか見つからない。

ガリル氏は、医師とその観察記録も同様であると述べる。「行間には多くのことが隠されていて、問題は人(や状況)によって異なることもあります」。

この分野に取り組めば、利益を得られることがわかっている。

メンデルは、臨床環境とAIアルゴリズムの構築の両方において豊富な経験を持つチームによって構築されたコンピュータビジョンと自然言語処理を組み合わせて使用しており、現在、臨床データの抽出を自動化するツール、OCR、記録を共有する際に個人を特定できる情報を自動的に再編集・削除できる特別なツール、臨床データを検索するための検索エンジン、そして例の臨床試験と人とのより良いマッチングを可能にするためのエンジンを提供している。顧客は、製薬会社やライフサイエンス企業、リアルワールドデータとリアルワールドエビデンス(RWDとRWE)のプロバイダー、研究グループなどだ。

またメンデルは、今回の資金調達と同時に、多くの医療機関で利用されているオンラインファックスソリューション「eFax」との提携を発表し、医療の世界にはまだやるべきことがたくさんあることを強調している。

私の子どもたち(10代)は「Fax」が何であるかさえ知らないかもしれないが、ヘルスケアや医療の世界では、Faxは人と人との間で文書や情報をやり取りするための最も一般的な手段の1つであり、現在では業界の90%がFaxを使用している。メンデルとのパートナーシップにより、これらのeFaxが「読まれ」、デジタル化され、より広範なプラットフォームに取り込まれ、そのデータをより有用な方法で活用できるようになるだろう。

メンデルの役員であり、DCMのパートナーでもあるKyle Lui(カイル・ルイ)氏は、声明の中でこう述べている。「世界のヘルスケア業界がAIを活用することには大きな可能性があります。メンデルは、医療機関がAIを使用して臨床データを自動で意味がわかるものにするための、ユニークでシームレスなソリューションを生み出しました。私たちは、次の成長段階に向けて引き続きチームと協力していくことを楽しみにしています」。

関連記事
米FDAが脳血管内手術で利用されるステントを応用した脳コンピューター接続デバイス「Stentrode」の臨床試験を許可
初実験で致命的な脳腫瘍を30%縮小させた磁気ヘルメット
医療機関用災害対策システム「Smart:DR」を手がけるSmart119が災害時の病院初期対応アプリを公開

カテゴリー:ヘルステック
タグ:Mendel資金調達医療人工知能コンピュータービジョン自然言語処理

画像クレジット:National Cancer Institute / Unsplash

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)

Microsoft AzureがPyson向け機械学習プラットフォーム「PyTorch」のエンタープライズサポートを提供

Microsoft(マイクロソフト)は米国時間5月26日、PyTorch Enterprise(パイトーチ・エンタープライズ)を発表した。Azure(アジュール)上でPyTorchを使うための新たなサポートをデベロッパーに提供する新サービスだ。

PyTorchはPython(パイソン)向けのオープンソース機械学習プラットフォームで、コンピュータビジョンと自然言語処理に焦点を当てている。当初開発したのはFacebookで、Google(グーグル)の人気フレームワークであるTensorFlow(テンサーフロー)と似ている部分もある。

Microsoftのコミュニケーション担当コーポレートVPであるFrank X. Shaw(フランク・X・ショー)氏は、新サービスPyTorch Enterpriseについて「データサイエンス業務にPyTorchを使っている組織のデベロッパーに、より信頼性の高い生産体験を提供する」ものであると説明した。

PyTorch Enterpriseは、MicrosoftのPremier(プレミア)およびUnified(ユニファイド)のサポートプログラム・メンバーに、ホットフィックス、バグ、セキュリティ・パッチなどの優先リクエスト、直接サポート、ソリューションなどを提供する、とショー氏は説明した。Microsoftは毎年、長期的なサポートを行うPyTorchのバージョンを1つ選んでいる。

AzureはすでにPyTorchを比較的容易に使用できるように作られていて、Microsoftは2020年、PyTorch for Windowsの開発を引き継ぐなど、長年このライブラリに投資してきた。この日の発表でMicrosoftは、最新リリースのPyTorchはAzure Machine Learningに統合され、デベロッパーから入手したPyTorchコードを公開PyTorchディストリビューションにフィードバックすることを約束した。

PyTorch Enterprizeは、Windows 10およびいくつかのLinuxディストリビューションで動作しているPyTorch バージョン1.8.1以上で利用できる。

「Microsoftが提供するこの新しいエンタープライズレベル製品は、重要なギャップを埋めるものです。PyTorchは私たちの研究者がモデルをデザインしたり実験を行う上で、これまでにない柔軟性を与えてくれます」とNuance(ニュアンス)の上級主任研究員Jeremy Jancsary(ジェレミー・ジャンクサリー)氏はいう。「しかしこれらのモデルを製品化するのはチャレンジです。Microsoftが直接関わることで、私たちはAzure上に新しいバージョンのPyTorchを安心して展開できます」。

この新サービスの提供でMicrosoftは、オープンソースプロジェクトの上に追加サービスを提供することによって、スタートアップにオープンソース収益化戦略の見本を示している。PyTorchはスタートアップが開発したものではないため、メジャーなクラウドサービスがオープンソースコードの上に自社の商品バージョンを載せることも、問題なく受け入れられるだろう。

関連記事

マイクロソフトのブラウザ「Edge」は起動が速くなりタブがスリープする機能も搭載する
マイクロソフトはGPT-3を使い自然言語でコードを書けるようにする
マイクロソフトが今や1日に1億4500万人が利用するTeamsの開発者向け新機能やツールを発表
マイクロソフトのナデラCEOがBuild 2021で「自らテストしてきた」次世代Windowsに言及

カテゴリー:ソフトウェア
タグ:MicrosoftMicrosoft BuildMicrosoft Build 2021Microsoft Azure機械学習自然言語処理PyTorchオープンソース

画像クレジット:Gingagi / Getty Images

原文へ

(文:Frederic Lardinois、翻訳:Nob Takahashi / facebook

マイクロソフトはGPT-3を使い自然言語でコードを書けるようにする

2021年のMicrosoft Build開発者会議には例年ほどの大きな驚きはなかったが、開発者がおそらく注目するであろう発表が1つある。Microsoftは同社のノーコード / ローコードサービスであるPower AppsでOpenAIの強力なGPT-3自然言語モデルを使って、話し言葉を最近発表されたPower Fx言語のコードに翻訳する。

しかし我を忘れてはいけない。自然言語だけを使って次のTikTokを開発しようということではないのだ。MicrosoftがやっているのはPower Appsのようなツールでローコードになっている部分の一部をなくすことであり、AIを使って基本的にノーコードのエクスペリエンスにしようともしている。現時点で主眼となっているのはPower Appsの数式で、これはもともとローコードのサービスではあるが、高度なアプリを開発しようと思ったら遅かれ早かれ何らかの数式を書かなくてはならない。

Microsoftのローコードアプリケーションプラットフォーム担当CVPであるCharles Lamanna(チャールズ・ラマンナ)氏は「このような高度なAIモデルを使うことで、まさに私たちがノーコードと呼んでいるものになり、Microsoftのローコードツールはさらに多くの人たちに使われるようになります」と述べた。

実際には、シチズンプログラマーが「find products where the name starts with ‘kids’」(「kids」で始まる名前の製品を見つける)のように書くと、Power Appsが「Filter(‘BC Orders’ Left(‘Product Name’,4)=”Kids”)」とレンダリングする。

MicrosoftはOpenAIに投資しているので、MicrosoftがこのエクスペリエンスにOpenAIのモデルを利用することに決めたのは当然だ。

関連記事:Microsoftがイーロン・マスクらのOpenAIに1000億円超を投資、Azueクラウドの人工知能化を目指す

画像クレジット:Microsoft

これによってプログラミングが簡単になるが、そうはいってもユーザーは自分が開発しているアプリケーションのロジックを理解する必要があるとMicrosoft自身が強調していることは重要なポイントだ。同社は今回の発表の中で「この機能によって自分が実装しているコードを理解する必要性がなくなるわけではありませんが、プログラミング言語のPower Fxを学んでいる人を支援し、必要な結果を得るための正しい数式を選ぶ助けとなります。高度なアプリ開発へのアクセスが劇的に広がり、ローコードツールの使い方をこれまで以上に短期間でトレーニングできます」と説明している。

ExcelやPowerBI、Googleスプレッドシートなどで利用できる自然言語クエリ機能を使うのと、まったく違うというわけではない。これらも結局のところ、自然言語を数式に翻訳している。おそらくGPT-3はもう少し高度でもっと複雑なクエリを理解できるだろうが、自然言語を数式に翻訳するという点ではそれほど新しくはない。

長期的にはこのようなツールがもっと賢くなって複雑なプログラミングタスクを処理できるようになると見られる。しかし複雑なプログラミングができるようになることは、翻訳の問題よりもずっと高いステップアップだ。概して、クエリが複雑になるほどプログラムをしっかり理解することが必要だ。数式はたいてい自己完結型のステートメントだが「本物の」コードを生成できるようなモデルではもっと多くのコンテクストを処理しなくてはならない。

この新機能は、2021年6月末までに北米のユーザーに対して英語版のパブリックプレビューが公開される。


関連記事:マイクロソフトのブラウザ「Edge」は起動が速くなりタブがスリープする機能も搭載する

カテゴリー:ソフトウェア
タグ:MicrosoftMicrosoft BuildMicrosoft Build 2021ノーコードローコードPower Apps自然言語処理OpenAI

画像クレジット:Getty Images

原文へ

(文:Frederic Lardinois、翻訳:Kaori Koyama)

ウェブを閲覧しながら外国語を学べるToucanが約4.9億円を追加調達

ウェブを閲覧しながら新しい言語を学ぶことができるスタートアップのToucan(トゥーキャン)が、シード資金調達で450万ドル(約4億9000万円)を追加したと発表した。

2020年秋にお伝えしたように、カリフォルニア州サンタモニカを拠点とするこのスタートアップは、ユーザーが読んでいるウェブサイトのテキストをスキャンして、選ばれた単語を学習対象の言語に翻訳するChrome拡張機能を開発した。つまり、わざわざ勉強する時間を作ったり、日常的な行動パターンを変えることなく、外国語の語彙を増やすことができるのだ。

関連記事:ウェブをブラウズしながら外国語を学習できるToucanが3億円を調達

Toucanは現在、スペイン語、韓国語、フランス語、ドイツ語、イタリア語、ポルトガル語、日本語の7言語に対応している。同社共同設立者でCEOを務めるTaylor Nieman(テイラー・ニーマン)氏によると、同社の月間アクティブユーザー数は約6万人で、すべて有機的に獲得したものだという。

「Toucanは表面的にはおもちゃのように見えますが、その裏には大規模なエンジニアリング技術が存在します」と、ニーマン氏は付け加えた。

例えば、このスタートアップには人間の翻訳者チームがいるが、機械学習と自然言語処理を利用して、各単語の文脈を理解し、適切な翻訳になるように努めている。ニーマン氏によると、時間の経過とともに、表示される翻訳にインテリジェントでパーソナライズされたアプローチを適用することで、翻訳をより複雑にすることができ、ユーザーの意欲を維持するという。

画像クレジット:Toucan

Toucanは無料で利用できるが、ユーザーは月額4.99ドル(約544円)を支払って、より密度の高い翻訳が提供されるToucan Premiumに加入することもできる。Toucan Premiumの加入者は、広告の表示 / 非表示を選択することも可能だ。どうやら「Own The Word広告」(その単語が翻訳されるたびにスポンサーのメッセージが表示される機能)は人気があるため、有料ユーザーの中にはこの機能を失いたくない人もいるらしい。

Toucanは今回の追加によって総額750万ドル(約8億2000万円)を調達した。この投資ラウンドは、LightShed Ventures(ライトシェド・ベンチャーズ)が主導し、新規投資家となったNext Play Ventures(ネクスト・プレイ・ベンチャーズ)、Concrete Rose Capital(コンクリート・ローズ・キャピタル)、GingerBread Capital(ジンジャーブレッド・キャピタル)、Form Capital(フォーム・キャピタル)、Goodwater Capital(グッドウォーター・キャピタル)、Hampton VC(ハンプトンVC)、Spacecadet Ventures(スペースカデット・ベンチャーズ)、GTMfund(GTMファンド)、Baron Davis Enterprises(バロン・デイビス・エンタープライゼス)、Human Ventures(ヒューマン・ベンチャーズ)が、既存の投資家であるGSV Ventures(GSVベンチャーズ)、AmplifyHer Ventures(アンプリファイハー・ベンチャーズ)、Vitalize(ヴァイタライズ)とともに参加した。

LightShed VenturesのゼネラルパートナーであるRichard Greenfield(リチャード・グリーンフィールド)氏は、声明の中で次のように述べている。「若い世代は常にネットに接続した状態で生活しているため、画面を見ている時間は世界的に増加しています。Toucanは、シンプルなブラウザの拡張機能を介して、すでに利用しているウェブサイト(まもなくアプリも)に言語学習をシームレスに統合し、画面を見ている時間を学習する時間に変えることができます」。

ニーマン氏によると、Toucanは今回の資金調達により、チームを12人から16人に拡大する予定だという。また、英語からスペイン語への翻訳だけでなく、スペイン語から英語への翻訳など、さらなる国際化も計画している。新たにSafari(サファリ)の拡張機能もリリースされる(将来的には、より多くのブラウザをサポートする予定だ)。最終的なビジョンは、Toucanが「どこにいてもレイヤー化されている」ことである。

「私たちは、ウェブ、モバイルブラウジング、人気のソーシャルアプリ、さらには物理的な世界においても、学習の拡張レイヤーになりたいと思っています」と、ニーマン氏はいう。将来は「街中で目にする地下鉄の標識を翻訳し、あらゆるところで学習のマイクロモーメントを提供する超クールなコンタクトレンズを、人々が装着しているかもしれません」と、彼女は予測する。

カテゴリー:ネットサービス
タグ:Toucan語学学習資金調達翻訳機械学習自然言語処理

画像クレジット:Toucan

原文へ

(文:Anthony Ha、翻訳:Hirokazu Kusakabe)

NVIDIAがArmベースのデータセンター用CPU「Grace」発表、2023年に搭載システム立ち上げ予定

NVIDIAがArmベースのデータセンター用CPU「Grace」発表、2023年に搭載システム立ち上げ予定

「Grace」という名の由来は、プログラミング言語COBOLの開発者グレース・ホッパー氏とのこと

AppleがM1チップを開発したように、NVIDIAがArmベースの独自CPU「Grace」を発表しました。同社初のデータセンター向けCPUで、AIスーパーコンピューティングや自然言語処理など、大規模なデータ処理を対象としています。

NVIDIAによると、「Grace」を搭載したシステムは、x86ベースの「DGX」システムと比較して、1兆個のパラメーターを持つ自然言語処理(NLP)モデルの学習を約10倍速でこなします。

このパフォーマンス向上を支えるのが、NVIDIA独自の「NVLink」インターコネクト技術です。同技術の適用により、Grace CPUとNVIDA製GPU間で900GB/sのスループットを実現し、これは現在の主要なサーバーの約30倍の速度だとNVIDIAは説明しています。また、LPDDR5xメモリの採用により、Graceシステムのエネルギー効率は10倍に向上、DDR4 RAMの2倍の帯域幅を実現しています。

この「Grace」は、スイス国立スーパーコンピューティングセンター(CSCS)と、米国のロスアラモス国立研究所に採用予定。両施設とも2023年に「Grace」を搭載したシステムを立ち上げ予定で、その頃には他の顧客にも「Grace」を採用したシステムが広がる見通しです。

NVIDIAはこのほか、Amazon Web Servies(AWS)との提携も発表。NVIDIA GPUをAWSのArmベースのCPU「Graviton2」と組み合わせると発表しました。このNVIDIA GPUを搭載したAWSインスタンスは、Androidゲームをネイティブに実行できるだけでなく、モバイル機器にゲームをストリーミングしたり、レンダリングやエンコードを高速化できるといいます。

加えて、NVIDIAはArmベースのHPC(ハイパフォーマンス・コンピューティング)用の開発者キットも発表。同キットには、Armのサーバー向けCPUである「ARM Neoverse」を80コア、NVIDIA A100 GPUを2基、ネットワークやセキュリティの高度化、ストレージを高速化する「NVIDIA BlueField-2 DPU」を搭載しています。

NVIDIAがArmベースのデータセンター用CPU「Grace」発表、2023年に搭載システム立ち上げ予定

エネルギー効率の高いArmアーキテクチャは、膨大な電力を消費するデータセンターと相性が良いとされています。コンシューマーPC分野におけるApple M1の登場に続き、データセンター向けにもArmベースの製品が拡充されたことは、x86アーキテクチャを主力とするインテルの新たな脅威と言えそうです。

(Source:NVIDIAEngadget日本版より転載)

関連記事
Armが次世代プロセッサーアーキテクチャ「Arm9」を発表
NVIDIAとハーバード大がゲノム解析を短時間低コストでこなすAIツールキット「AtacWorks」開発
英国の市場規制当局がNVIDIAのArm買収に関し意見募集、ソフトバンクから買収成立なるか
Armの買収に伴ってNVIDIAが医学研究に特化したUKスーパーコンピュータの開発を発表
NVIDIAがイタリアの大学コンソーシアムが主導する欧州発の世界最速AIスパコン「Leonardo」にGPUを供給へ
クボタが農業機械のスマート化に向けNVIDIAと協業、適切な農作業の判断と適時実行を行う完全無人農機を目指す
メルセデス・ベンツとNVIDIAのタッグが「ソフトウェアを中心に据えた」自動車を2024年に市場投入
NVIDIAがAmpereアーキテクチャのデータセンター用GPUを出荷、タンパク質モデリングなどAI学習の性能が20倍に

カテゴリー:ハードウェア
タグ:Amazon Web Services / AWS(製品・サービス)Arm(企業)自然言語処理 / NLP(用語)GTC / GPU Technology ConferenceGPU(用語)NVIDIA(企業)

AIチャットボット「りんな」を手がけるrinnaが日本語特化のGPT-2大規模言語モデルをオープンソース化

AIチャットボット「りんな」を手がけるrinnaが日本語特化のGPT-2大規模言語モデルをオープンソース化

AIチャットボット「りんな」などを手がけるrinna(リンナ)は4月7日、日本語に特化したGPT-2の大規模言語モデルを構築し、GitHubおよびNLPモデルライブラリー「HuggingFace」において、トレーニングコードと言語モデルをオープンソースソフトウェアとして公開した。

また今回公開したモデルは、GPT2-mediumと定義される中規模サイズのものという。今後、パフォーマンスとコストのトレードオフに基づいてユーザーおよび研究者が最善の選択を行えるよう、異なるサイズのモデルも公開する予定。異なるデータでトレーニングした新しいモデルの公開も計画している。

rinnaの研究チームが開発している大規模な言語モデルは、すでに同社プロダクトに広く使用されているという。同社は今後も、異なるテキストスタイルや異なるデータ量を含む、より高精度でより大規模な言語モデルの研究開発を続け、AIチャットボットの能力を高めるとしている。また、日本語の研究コミュニティのために、これらのモデルのオープンソース化を行う。

日本語GPT-2モデルの機能

言語モデルとは、言語データの機械学習を基に、会話や文章の「人間が使う言葉らしさ」を確率としてモデル化したもの。GPT-2の場合は、単語レベルの確率の組み合わせから文の確率を計算する言語モデル(自己回帰言語モデル)を採用している。

例えば、「確率(吾輩は猫である) = 確率(吾輩) × 確率(は|吾輩) x 確率(猫|吾輩,は) × 確率(で|吾輩,は,猫) × 確率(ある|吾輩,は,猫,で)」のような方法で推定を行う。この能力を使って、GPT-2は「吾輩は猫で」という接頭辞(Prefix)を与えられたとき、確率の推定から次にくる単語として「ある」を選択し、文章を自動生成する。

今回rinnaが公開した日本語GPT-2モデルは、一般的な日本語テキストの特徴を有した高度な日本語文章を自動生成できる。ユーザーおよび研究者は、特定のテキストデータを微調整して、このモデルから独自のモデルを作成することも可能としている。

例えば、Prefixとして「誰も到達していない人工知能の高みへ、ともに」という文章が与えられたとき、特定のコンテキスト(デモ1:講演の感想、デモ2:書籍の紹介)で応答文を生成するように、微調整できるという(掲載した画像のデモは生成する文章の文字数上限を設定しており、実際に生成される全文ではない)。

デモ1:講演の感想のコンテキストで文章生成

デモ1:講演の感想のコンテキストで文章生成

デモ2:書籍の紹介のコンテキストで文章生成

デモ2:書籍の紹介のコンテキストで文章生成

rinnaの日本語GPT-2モデルの特徴

rinnaの日本語GPT-2モデルは、トレーニングデータとしてCC-100のオープンソースデータを使用しているという。

またNVIDIA「Tesla V100 GPU」を用いて、70ギガバイトの日本語テキストを約1カ月の長期間にわたってトレーニングしたそうだ。その結果同モデルは、約18 perplexityという性能を達成した。この「18perplexity」は、GPT-2モデルが前に与えられた単語から次の単語を予測するときに、正しいものを含む18のオプションだけを残せるという性能を意味するという。モデルは十分にトレーニングされており、汎用性があるとしている。

rinnaは、Microsoft(マイクロソフト)のAI&リサーチ部門でAIチャットボットの研究を行っていたチームがスピンアウトして2020年6月に設立したAI開発企業。ディープラーニング技術を活用し、AIが文脈に応じた会話文を自動生成して人間と自然に会話する「共感チャットモデル」、AIが話し声や歌声で豊かな感情表現を可能にする「音声合成システム」などの技術を発表している。

これらの最新技術は、同社運営のAIチャットボット「りんな」や、会話内容や音声表現をカスタマイズしてキャラクター性を持たせたAIチャットボット「AIキャラクター」の開発に応用しており、企業のマーケティングなどに採用されているという。

同社は、製品開発のための自然言語処理(NLP)の実験過程で、日本語に特化したGPT-2の大規模言語モデルを構築。日本語のNLP研究コミュニティに貢献するために、開発した言語モデルと、研究者が自分のマシンで実験結果を再現するためのトレーニングコードを、GitHub、およびNLPモデルライブラリHuggingFaceで、オープンソースとして公開した。

関連記事
ウイルスの突然変異予測からClubhouse話者識別まで、今、人工知能に期待されていること
Copy.aiのAI利用記事作成システムは「使える」レベルの驚異的な出来、日本語も対応
テキストアドベンチャー「AI Dungeon」のLatitudeが「無限の物語」を生み出すゲーム制作のために3.5億円調達
OpenAIのDALL-Eは言葉による指示で「それらしい」画像を作り出す
LINEがOpenAI「GPT」・Google「T5」同様の超巨大汎用言語モデルをNAVERと共同開発、世界初の日本語特化
日本語音声合成向けに東京式アクセントを自動推定する自然言語処理ソフト「tdmelodic」がオープンソース化
OpenAIがテキストベースのAI機能利用が簡単になる汎用APIを開発
マイクロソフトはOpenAIと協力してAzure上に世界第5位となるスーパーコンピューターを構築
OpenAIは非常に優れたテキストジェネレータを開発したが、そのままリリースするのは危険すぎると考えている

カテゴリー:人工知能・AI
タグ:OpenAI(組織)自然言語処理 / NLP(用語)GPT / Generative Pretrained TransformeGPU(用語)ディープラーニング / 深層学習(用語)Microsoft / マイクロソフト(企業)日本(国・地域)

ウイルスの突然変異予測からClubhouse話者識別まで、今、人工知能に期待されていること

2021年2月に開催された「『自然言語処理(NLP)』の可能性 -コロナ禍のウイルス対策から、感情を理解する音声認識まで-」というイベントで、AppierのAIチーフサイエンティストであり、台湾国立精華大学准教授でもあるMin Sun(ミン・スン)氏が登壇、昨今のAI技術のトレンドやそのユースケースについて解説した。今回はそのレポートをお届けする。

ミン氏は、世界での人工知能に関する論文を学会で多数発表しており、2015年から2017年までCVGIP(Computer Vision Graphics and Images Processing)より最優秀論文賞を3年連続で受賞している。今回、ミン氏は、新型コロナウイルス関連でのAIの活躍と、AI系でトップクラスの学会であるVirtual NeurIPSで近年注目されている自然言語処理技術の2点について語った。

新型コロナウイルス関連において、AIはフェイクニュース検知だけでなく、医療分野でも活躍している。ウイルスの突然変異検知や新薬生成では、GoogleのDeepMindによって開発された人工知能プログラムAlphafoldが注目されている(2020年にはバージョン2が開発されている)。また、生物医学領域においてタンパク質構造を記憶することで異変のある配列を持つアミノ酸を検知し、新型コロナウイルスの突然変異の判別や予測が可能だという。さらにX線結晶学を組み合わせることで、従来より5万倍早い速度で抗ウイルス薬を検証できるとのこと。

患者が重度の場合、検証、対策はしやすいが、軽度や無症状患者の場合、ウイルスの突然変異は予測が難しく、軽度や無症状患者を介した爆発的拡大は防ぎづらい。しかしAIによる突然変異検知が進むことで、このパンデミック防止も防げるのではないかと考えられている。

自然言語処理技術の話題について、ミン氏は2つの技術を紹介した。トップクラスの学会であるNeurIPSの2020年開催分でBest Paperにも選ばれた、GPT-3(Generative Pretrained Transformer)という文章生成言語モデルが現在、注目されている。これはElon Musk(イーロン・マスク)氏やMicrosoftが出資する非営利団体OpenAIが制作しており、一つ前のモデルであるGPT-2と比較すると、事前学習に使用されるテキストデータは約1100倍となる45TB、パラメータ数は約117倍の1750億個と、データセットが飛躍的に大きくなっている。事例を少し与えただけで、続きの文章をまるで人間が書いたかのように自然に生成してくるとエンジニアの間で話題になった。

そんなGPT-3を超えると注目を集めているのが、Googleの研究者たちが集結するGoogle Brain Teamが発表した、1兆個を超えるパラメータを持つことができると言われているNLP AIモデル、Switch Transformerだ。その特徴は、処理のところどころにゲーティングネットワークを置き、与えられた処理を最も効率的に行ってくれそうなエキスパートと呼ばれる特化型FFN(Feed Forward Network)に聞きに行くこと。FFNは順伝播型ニューラルネットワークと訳され、一方向に処理を進める。戻りがないため再帰型と比較し処理が速くなるが、これによって従来より7倍以上の事前トレーニングの高速化が可能だと言われており、実際、研究者たちがSwitch Transformerを用いて、一部の単語をマスクした状態で欠落した単語を予想するなどのトレーニングを行ったが、不安定性がないという。

Real time Voice Cloningの操作画面キャプチャ

Min Sun(ミン・スン)氏

自然言語処理能力の向上は、音声解析分野での期待が大きい。コロナ禍で自宅で過ごす時間が多くなり、ポッドキャストや音声SNSのClubhouseの利用者は増加。従来、話者が複数で長時間録音された音声データの書き起こしは要素が多すぎることもあり難しいとされてきたが、大規模処理モデルを用いれば、その処理や新たな音声コンテンツの作成も期待できるという。例として、Real time Voice Cloningを使用することで、リアルタイムに音声をコピーし、別の話者の声に変換することもできるという。

今後もAIの進化、そしてAIが叶える未来に期待が膨らむ。

カテゴリー:人工知能・AI
タグ:Appier新型コロナウイルス自然言語処理

AI利用記事作成システムのGPT-3は驚異的テクノロジーだった

TechCrunchは先程、AI利用のライティングサービスを提供するCopy.ai資金調達ラウンドに成功したことを取り上げた。このスタートアップはGPT-3を利用してエンタープライズ・ユーザーの記事、文章作成プロジェクトを支援する。GPT-3はGenerative Pre-trained Transformer 3の(生成的事前学習トランスフォーマー)の頭文字で、OpenAIが開発したAIシステムだ。これはユーザーからテキストを受け取りユーザーに代わって非常に多様な文章を生成することができる。

Copy.aiの資金調達ラウンドを取材する際に私はAIによる文章作成を実際に試してみた。その結果、非常に魅力的なアイデアだと感じた。以前からコンピュータによる文章作成の自動化に対していわれない恐怖感などはもっておらず、むしろ好奇心を抱いていた。インタビューしたときにCopyチームは「GPT-3は優れたAIライティングツールです」と主張したので興味を持ったわけだ。

この好奇心を満たすためには実際に使ってみるのが手っ取り早い。そこで今朝、CopyのライバルであるHeadlimeと比較しながら利用してみた。結論から言えば、CopyのチームがGPT-3テクノロジーをベースに作り上げたプロダクトにはすばらしい能力があるという印象を受けた。

GPT-3はもちろん提供された素材を拡大して記事を作成できる。 しかしこのテクノロジーはそれ以上のことができる。 GPT-3を搭載したHeadlimeアプリは十分に中程度の出来栄えと評価できる記事を書くことができた。それだけでなく、素材を取材したときに私の頭の中にあったが、提供した素材そのものでは触れいなかったコンセプトが表現されていた。

このあたりは微妙な部分でうまく説明するのが難しい。Headlimeを初めて使用したときにGTP-3が自らどういう判断を下したのか実例を見てもらうしかないだろう。現在の株式市場のトレンドについてわざと素材の事実だけを提供してシステムがそれをどう処理するか試してみた。

 

つまりカルシウム含有量の高い棒に肉をくっつけた二足動物である私は、シリコン素材のコンピューターより知的に圧倒的に優れていることが証明きるのではないか思ったわけだ。実のところ、素材情報には最低500文字が必要とわかり、規定の長さを埋めるために少しばかり無駄口をきいた。

 

さあ次のステップだ。ボタンを押すと私が作成を求めている記事のタイトルの候補がいくつか表示された。正直なところどれもかなり的確だった。

 

このあたりで私は「これはいいんじゃないかな?」と思い始めた。

最初の候補がいいと思ったので見出しが気に入ったのでそれを選び、作業を進めた。次は記事のリード部分をまとめる作業だ。普段なら頭を使う作業だかこの場合はクリックするだけだ。

 
ここで提示された別の選択肢は以下の通り。

 

これも悪くなかった。

印象的だったのはそれぞれの選択肢が単に言葉づかいの細部を変えただけのものではなかったことだ。システムに私が入力したかなりいい加減な500文字の異なる部分に焦点を当て構文レベルから異なる文章となっていた。GPT-3にはもう少し良い素材を与えるべきだったのではないかと感じた。システムは非常に頑張っていたが、実は私はそうではなかった。
 
リード部分を確定した後、ある種のCMS的なものが登場し、リード部分の後に本文を書くことを要求された。私はすでにシステムの謙虚な下僕状態で喜んで引き受けたが、すぐにシステムが私の執筆を止め、後を引き継ぐと申し出た。

 
無料トライアルだったので2クレジットというのがいくらに相当する処理量なのかまったく判断でできなかったが、ともあれWrite for meというボタンを押した。その結果が次の記事だ。

 
私はダッシュを含むわかりにくい文章を素材として入力してしまったが、このソフトはどう処理したか見ていこう。さすがにダッシュには手こずったようだが、すぐに元に戻り、「金利の上昇によってベンチャーキャピタルのような非伝統的でリスクの高い投資クラスは魅力を失う」と正しく論じた。私は仰天した。

私はこの後もGPT-3のテクノロジーやベースにした製品をさまざまな角度から試していくつもりだ。レポートを期待していただきたい。しかし今はとりあえず立ち止まって新しい有望なテクノロジーを発見した喜びをシェアしたい。正直、これはすごい。新しいテクノロジーに驚かされたのは久々だ。GPT-3、よくやった。きみはすごいぞ。

画像:Possessed Photography ( Unsplash (Image has been modified)

原文へ

カテゴリー:
タグ:

(文:Alex Wilhelm 翻訳:滑川海彦@Facebook

自然言語処理ライブラリをオープンソースで提供するHugging Faceが43.6億円調達

Hugging FaceがシリーズBで4000万ドル(約43億6000万円)を調達した。Additionがラウンドをリードしている。同社は、オープンソースの自然言語処理(NLP)ライブラリを開発してきた。GitHubにそのTransformersライブラリはあり、4万2000のスターと1万のフォークがある。

米国時間3月11日に行われた投資にはLux CapitalやA.Capital、Betaworksなど、これまでの投資家も参加。さらにDev Ittycheria(デヴ・イッティケリア)氏、Olivier Pomel(オリヴィエ・ポメル)氏、Alex Wang(アレキサンダー・ワン)氏、Aghi Marietti(アギ・マリエッティ)氏、Florian Douetteau(フロリアン・ドゥエトー)氏、Richard Socher(リチャード・ソーチャー)氏、Paul St. John(ポール・セント・ジョン)氏、Kevin Durant(ケビン・デュラント)氏そしてRich Kleiman(リッチ・クレイマン)氏らも参加した。

TransformersではBERT、GPT、XLNet、T5、DistilBERTなどの、よく使われているNLPのモデルを利用でき、これらのモデルを使ってテキストを、テキストの分類、質問への自動回答、テキストの生成などの処理といったいろいろなやり方で操作できる。

NLPのユースケースは極めて多い。現在多いのは、チャットボットのサポートだ。たとえばチャレンジャーバンクのMonzoは、Hugging Faceを楽屋裏で使って顧客からの質問に答えている。Hugging Faceを使っている企業はおよそ5000社あり、用途はさまざまだ。Microsoftは同社の検索エンジンBingに使っている。

ビジネスモデルとしては、同社は最近、優先順つきのサポートを立ち上げ、プライベートなモデルを管理したり、推論APIを提供したりしている。BloombergやTypeformも顧客となっている。

同社は今回新たに得た資金で、ニューヨークとパリの従業員数を3倍にする。その中にはリモートで仕事をする従業員もいる。同社が以下のように、銀行口座の詳細の一部を共有していることは少々興味深い。

Hugging Faceは、2021年1月と2月のキャッシュフローがポジティブだった。同社は1年あまり前に1500万ドル(約16億3000万円)のラウンドを実施したが、そのとき得た資金の90%は現在も同社の銀行口座にある。それ以降、同社の評価額は5倍になった。実際に調達の必要がないときは、そのことが交渉で好条件になるため、意外なことでもない。

同社はNLPデベロッパーの活気に満ちたコミュニティの世話をしているため、正しい路線上にあるといえる。モデルデータセットを閲覧でき、デベロッパーはそれらを利用したり寄与貢献したりして、Hugging FaceはNLP愛好家の要となる。

カテゴリー:ソフトウェア
タグ:Hugging Face資金調達自然言語処理オープンソース

画像クレジット:Hugging Face

原文へ

(文:Romain Dillet、翻訳:Hiroshi Iwatani)