規制上のハードルをすべてクリアし、Microsoftが2.3兆円のNuance買収完了へ

Microsoft(マイクロソフト)は2021年に、200億ドル(約2兆3000億円)でNuance Communications(ニュアンス・コミュニケーションズ)を買収すると発表した。同社はヘルスケア分野への進出を実現しようとしたが、規制がますます厳しくなる中、確実に買収できるというわけではなかった。しかし、ようやく規制上のハードルをすべてクリアし、同社は米国3月4日、買収が成立したと発表した。

Satya Nadella(サティア・ナデラ)CEOはビデオ声明で、NuanceをエンタープライズAIのパイオニアと呼び、両社が協力して何を達成できるかを楽しみにしていると述べた。「私たちは共に成果ベースのAIの未来を切り開いていきます。医療従事者が患者との時間を増やし、文書作成に費やす時間を減らせるようにします。私たちは共に、業界の主要なワークフローを安全にクラウドに移行することを支援します。そして、一緒にAIの力を使って、あらゆる業界の組織が摩擦のない、一人ひとりにあわせた顧客体験を実現できるよう支援します」と同氏は話した。

ナデラ氏の発言は、同社がNuanceの技術を、第一の対象であるヘルスケア以外にも幅広く活用する意向を強く示唆するものだった。既存のソリューションを基盤としてMicrosoftの膨大なリソースを活用し、金融サービス、小売、通信などの他分野にも導入していく。それがどのように実現されるかは、時間が経てばわかる。

MicrosoftとNuanceの統合に関して、今日のような発表に至るということが、決まりきっていたわけではない。業界の一般的な常識では、Microsoftはこの買収によってどの市場も支配することはないだろうと考えられていた。ただ、政府が最大のハイテク企業、もっと言えば競争に悪影響を与える可能性のあるメガディールをより厳しく見ている規制環境では、統合の実現が明白だとは言えなかった。

昨年、米司法省がこの取引を承認し、その後EUからも承認を受け、最後のハードルとして残った英競争市場局(CMA)の承認を待っていた

今週、CMAはこの取引を承認し、今日の発表にこぎつけた。CMAは声明の中で、両社が統合された場合、Nuanceが主に事業を展開してきた医療用トランスクリプション市場の競争に悪影響を与えるという証拠は見つからなかったと述べた。

「競争市場庁(CMA)は、Microsoft CorporationによるNuance Communications, Inc.の買収により、競争を著しく低下させるという現実的な見通しは生じないと判断しました」と同庁は調査結果の発見事項要約に記した。

これを受け、MicrosoftとNuanceは、2016年のLinkedIn(リンクトイン)の260億ドル(約3兆円)の買収に次ぐ、ナデラ時代における最大の買収の1つを進めることになる。なお、Microsoftは、1月に発表した690億ドル(約8兆円)のActivision/Blizzard(アクティビジョン・ブリザード)の買収案件が完了していないが、こちらはまだ承認プロセスを通過していない。

画像クレジット:JOSEP LAGO / Getty Images

[原文へ]

(文:Ron Miller、翻訳:Nariko Mizoguchi

アニメーションと音声で写真に生命を吹き込む、MyHeritageとD-IDが提携し故人が話す動画が作成可能に

2021年、家系調査サービスのMyHeritageが、故人の顔写真を動画化できる斬新な「ディープフェイク」機能を導入して話題になった。TikTokのユーザーたちはいち早くその技術に反応して、動画を投稿し、自分が会ったこともない親戚やまだその死を悲しんでいる故人を蘇らせて、「ディープノスタルジア」と呼んだ。今日まで、1億枚以上の写真がこの機能で動画になった。そしてその機能が進化した。米国時間3月3日、MyHeritageはパートナーのD-IDとともに「ディープノスタルジア」を拡張した「ライブストーリー」機能をローンチした。写真の人物を生き返らせるだけでなく、彼らに話をさせるのだ。

MyHeritageが技術をライセンスしたD-IDはテルアビブのスタートアップで、AIとディープラーニング利用した再現動画の技術で特許を取得している。

D-IDの技術は、APIを通じて開発者に提供され、メディア、教育、マーケティングなど、さまざまなライセンシーに利用されています。例えばWarner Bros.(ワーナー・ブラザーズ)は、D-IDを利用して、ユーザーが映画の予告編をアニメーション写真でパーソナライズできるようにしたり、ハリー・ポッター展のために協力した。Mondelēz International、広告代理店のPublicis、Digitas Vietnamは、地元の祭りのマーケティング活動でD-IDと提携している。インドの短編動画アプリJoshは、顔アニメーションの技術をクリエイティブツールとして統合した。また、非営利団体や政府も、さまざまな啓発キャンペーンにこの技術を利用している。

MyHeritageは、こライブストーリーでD-IDの最新AI技術をユーザー向けに利用している。この機能を使うためには、ユーザーはまず無料でMyHeritageのアカウントを無料で作成することができ、その技術を何度か無料で試用できる。その後は、有料のサブスクリプションでライブストーリーを無制限に利用できる。

本技術で先祖の人生を物語にしたり、それを本人に語らせることもできる。それを可能にするのが、D-IDの特許取得技術Speaking Portrait Technology(肖像発話技術)だ。アップロードされた写真をもとにナレーション入りの動画を作り、それを合成音声生成装置にかける。語られるストーリーは、ユーザーが提供したテキストだ。

 

言葉と唇の動きが同期するためにD-IDは、人が話している動画のデータベースでニューラルネットワークを訓練した。言語は、どんな言語でもよいというが、MyHeritageは10種ほどの方言や、性による声の違いを含む31言語をサポートしている。

D-IDの共同創業者でCEOのGil Perry(ギル・ペリー)氏によると「優秀な技術であるためドライバービデオは不要です」という。つまり、本物の人物の動きを動画で撮影し、それを静止画像にマップする処理は不要だ。「テキストと写真があれば、その人が話している動画ができ上がります」という。「ただし、まだ完璧な技術ではありません。現状は、本当に良質なリップシンクらしいものを作ったにすぎません」とのこと。

そうやって作成されたライブストーリーは、それを見たり、友だちと共有したり、ソーシャルメディアに投稿することができる。テキストを編集し、さらに話をカスタマイズし、別の声を選んだり、自分が録音したオーディオをアップロードしてもいい。

画像クレジット:D-ID

D-IDの長期的な展望は、この技術をメタバースの環境で使うことだ。メタバースであれば顔だけでなく、デジタルアバターを動画にできるし、体全体の動きを3Dで表現できる。ペリー氏はユーザーが自分の幼児期や家族、歴史的人物の写真をアップロードして、それらをメタバースで動かし、会話をさせることもできると考えている。

「子どもたちがAlbert Einstein(アインシュタイン)と会話して、彼の話を聞いたり、彼に質問したりすることもできるでしょう。しかも彼は疑問に答えてくれます。さらにユニバーサル翻訳であれば、アインシュタインはユーザーの母国語で会話することもできるはずです」。

もちろんそんな技術は何年も先のことだが、実現するとすれば、それらはディープノスタルジーやライブストーリーのような、今日開発したコンセプトに基づいて作られることとなる。

MyHeritageとD-IDはそれぞれ、この技術を別々のやり方でデモする独自のアプリを世に送り出す。D-IDによると、それは数週間後だという。

MyHeritageのライブストーリー機能は本日、米国時間3月3日、家族史テクノロジーのカンファレンスRootsTechで発表された。デスクトップとモバイルウェブ、MyHeritageのモバイルアプリで利用できる。

MyHeritageの創業者でCEOのGilad Japhet(ギラッド・ジャフェ)氏は、ライブストーリーのローンチに関する声明で次のように述べている。「最新機能で、MyHeritageは今後もオンライン家族史の世界をビジョンとイノベーションの両方でリードし続けることになります。AIを利用して歴史的な写真に新しい命を吹き込むことはユニークな機能であり、何百万もの人が先祖や愛する故人との感情的な結びつきを掘り起こし一新することができます。家系の本質は家族史の表現と保存にあり、私たちは世界に向けて家系の楽しさと魅力を伝えていきたい」。

D-IDは、Sella Blondheim(セラ・ブロンドハイム)氏とEliran Kuta(エリラン・クタ)氏が創業。現在、チームは32名で今後は米国や英国、シンガポール、そしてイスラエルでそれぞれ現地の人数を増やし、社員数を倍増したいと考えている。

画像クレジット:D-ID

原文へ

(文:Sarah Perez、翻訳:Hiroshi Iwatani)

SalesforceのAI開発に携わった3人がエンジニアリング業務に秩序をもたらすFaros AIを設立

Faros AI(ファロスAI)の創業者3人は、Salesforce(セールスフォース)で働いていた頃、同社の人工知能「Einstein(アインシュタイン)」の開発に携わった。Einsteinの目的は、企業がよりデータを活用できるように支援することだが、それを構築するエンジニアリングチームは、他の企業と同じように、エンジニアリングの運用データをトラッキングすることの苦しみを経験した。

Faros AIのCEO兼共同創業者であるVitaly Gordon(ヴァイタリー・ゴードン)氏は、Salesforceの膨大なリソースにもかかわらず、データの不足とそれを収集するための適切なツールがないことに悩まされていたと語る。「私たちはSalesforce内でその業務を拡大し、1万近い顧客と取引していたと思いますが、実は(データの活用に関して)私たちが技術組織として主張していることを、実践できていないと気づいたのです」と、ゴードン氏はいう。

営業やマーケティングチームがデータを活用するために、エンジニアリングチームが作っているようなツールが、エンジニアリングチームにはない、ということはまさに目からウロコだった。彼らは、サイドプロジェクトとしてこの問題に取り組み始めたが、これは誰にとっても大きな問題であると認識するようになった。

創業者の3人、つまりゴードン氏に加え、Salesforce Einsteinに携わっていたMatthew Tovbin(マシュー・トヴビン)氏とShubha Nabar(シュバ・ナバール)氏は、2019年に同社を辞め、この問題を解決するためにFaros AIを設立した。彼らは、開発者がコーディングを終えた時点から、その更新されたコードが顧客の前に製品として着地するまで、どれくらい時間がかかるかといったことなどを、エンジニアリングマネジメントがデータを見て簡単に把握できるようにしたいと考えた。

彼らは、Jira(ジラ)、Jenkins(ジェンキンス)、GitHub(ギットハブ)などのエンジニアリングシステムに接続するための製品を作り始めた。これには、データ間の論理的な接続を行い、ダッシュボードで顧客に提供できるようなインテリジェンスレイヤーが含まれる。このシステムは、例えば、GitHubにサインインしているエンジニアとJiraにサインインしているエンジニアが同じであることを確認したり、複数のシステムにわたってエンジニアリングプロジェクトの履歴や動きをトレースしたりすることができる。

Faros AIエンジニアリングオペレーションのダッシュボード(画像クレジット:Faros AI)

彼らは一般的なツールにすぐに接続できる50以上のコネクタを構築したが、Faros社がネイティブにサポートしているかどうかにかかわらず、エンジニアリングチームがあらゆるシステムに接続できるように、このコネクタ技術をオープンソース化することを決めた。最終的に、Faros CE(Community Editionの略)と呼ばれる製品全体のオープンソース版を開発することも決定し、米国時間3月2日より、一般にダウンロードとインストールができるようにした。

そのエンタープライズ版は、完全にホストされたSaaS製品であり、セキュリティコントロール、ロールベースアクセス、Oktaなどのエンタープライズ認証システムとの接続など、企業顧客に求められる種類の追加機能が備わっている。この製品は現在、Box(ボックス)、Coursera(コーセラ)、GoFundMe(ゴーファンドミー)など、多くの顧客に利用されている。

Faros AIの従業員数は現在20名だが、2022年中に倍増する見込みだという。すでに男女比50%ずつの多様な経営陣がいて、より幅広く多様なチーム作りを目指している。ゴードン氏によると、多様性のあるチームだったSalesforce Einsteinチームのネットワークや、それ以前に働いていたLinkedIn(リンクトイン)での経験が、そのために役立っているという。

同社は今回、1600万ドル(約18億5000万円)のシードラウンドについても発表した。起ち上げ直後の2019年10月に、同社は最初の375万ドル(約4億3000万円)を受け取っている。投資家との間で取り決めたいくつかのマイルストーンを達成した後、さらに300万ドル(約3億5000万円)ほど受け取り、最近になって残りを獲得したという。この資金調達は、SignalFire(シグナルファイア)、Salesforce Ventures(セールスフォース・ベンチャーズ)、Global Founders Capital(グローバル・ファウンダーズ・キャピタル)が主導し、複数の業界エンジェル投資家が参加した。

なお、Pinpoint(ピンポイント)やAcumen(アキュメン)など、他のスタートアップも同じ問題に取り組んでいることは注目に値するだろう。

画像クレジット:PeopleImages / Getty Images

原文へ

(文:Ron Miller、翻訳:Hirokazu Kusakabe)

農研機構、栽培施設内を無人走行し果実の収穫量をAIで予測する「着果モニタリングシステム」

農研機構、栽培施設内を無人走行し果実の収穫量をAIで予測する「着果モニタリングシステム」

農業・食品産業技術総合研究機構(農研機構)は施設栽培向けに、着果を監視し収穫量を予測するAIシステム「着果モニタリングシステム」を開発。従来対象のトマトに加え、パプリカにおいて実用化の目途がたったと3月1日に発表した。モニタリング装置を施設内で無人走行させ、収穫可能な果実数を推定することで、管理や収穫に必要な人員を効率的に配置できるようになる。

施設園芸の大規模化が進んでいるが、大規模生産法人では生産コストの約3割が人件費とされている。特に収穫には多くの時間がかかるため、収穫作業の効率化が経営改善に大きく影響する。だが作業を効率化するためには、収穫に必要な人員の数や配置を適切に計画する必要があり、それには収穫できる果実の位置や数を適切に予測することが重要となる。

農研機構が開発したこのシステムは、着果モニタリング装置を搭載した高所作業車を施設内で無人走行させながら植物を撮影し、その画像をつなげた展開画像をAIで分析することで、収穫可能な果実を自動検出するというものだ。深層学習により構築した果実検出モデルにより、画像から果実を検出。画像の色から果実の成熟度を評価し、成熟順に分類。そこから収穫可能な果実の数と位置を割り出し、管理や収穫に必要な人員の効率的な配置を策定できるようにする。

この技術はトマトを対象に開発されてきたが、パプリカでも実用化の目途がついた。大規模パプリカ生産法人で試験を行ったところ、同システムが収穫可能と判断した果実の数と、翌週の実際の収穫量とがほぼ一致した。そこで農研機構は、3月9日から12日まで東京ビッグサイトで開催される「国際ロボット展2022」にこのシステムを出展することにした。

同開発機は、2022年度以降の実用化を目指すという。また今後は、作業者の違いによって生じる収穫作業時間の予測誤差の低減、予測適応時間の拡大を図り、トマトとパプリカ以外の作物の適用可能性、着花計測、病害虫や整理障害株の検出、葉面積計測など、汎用的な画像収集装置としての利用も検討する予定。

世界最大級の食品会社が新製品を開発するとき、まず相談するAIデータ分析「Tastewise」

Tastewiseの共同設立者アロン・チェン氏とエイエル・ガオン氏(画像クレジット:Hadar Berl)

食品を市場に出す適切な時期を調査することは、従来はアンケートやフォーカスグループを通じて行われてきたが、Tastewise(テイストワイズ)はこれをテクノロジーでより良く実現できると考えている。

イスラエルに拠点を置く同社は、人工知能(AI)によるデータ分析を開発し、食品ブランドが次のヘルシー、持続可能でおいしい製品について、製品開発、マーケティング、小売販売に関するよりスマートな意思決定を行えるよう支援している。また、世界中の100万以上のレストランをモニタリングし、食品ブランドとその食品を試したがっている人々を結びつけている。

Tastewiseは過去5年間で、Nestlé(ネスレ)、PepsiCo(ペプシコ)、Kraft Heinz(クラフトハインツ)、Campbell’s(キャンベル)、JustEgg(ジャストエッグ)など、トップクラスの食品・飲料メーカーや新進気鋭のフードテック系スタートアップからなる顧客ベースを持つまでに成長した。

そしてこのたび同社は、新たにシリーズAで1700万ドル(約19億6400万円)の資金を確保した。Disruptiveがこのラウンドをリードし、既存投資家であるPeakBridgeとPICO Venture Partnersに加わった。今回の資金調達により、Tastewiseの累計調達額は2150万ドル(約24億8400万円)に達した。

Tastewiseの共同創業者兼CEOであるAlon Chen(アロン・チェン)氏は、12歳のときから独学でコードを書き始めたエンジニアで、5年前に母親のシャバット(安息日)のディナーから会社のアイデアを得た後、Google(グーグル)でのキャリアを捨てたという。

「母はすばらしいシャバットディナーを作るのですが、私たち家族にその週の食事のニーズ(好みやアレルギー、栄養ニーズなど)を聞いてくるようになったのです」とチェン氏。「共同創業者のEyal Gaon(エイエル・ガオン)とともに、消費者の食生活のニーズが以前よりとても早く変化していることに気づかされました。21世紀になっても、毎年発売される3万個の新商品のうち、9割が失敗しているのです。画一的なアプローチは、もはや不可能なのです」。

同氏は、最も革新的なフードテック企業でさえ、いまだに時代遅れの小売データに頼って商品戦略を考えており、正しいデータから始めなければ、間違った答えが返ってくることを説明した。

そこでチェン氏とガオン氏は、食品・飲料企業がより健康的な食品、新しいフレーバー、植物由来のバリエーションなどで10兆ドル(約1155兆円)規模の業界をディスラプトし、新製品の販売と採用を加速させる方法でそれを実現できるよう、データ専用のプラットフォーム構築に乗り出した。

2017年にスタートして以来、2020年と2021年に増資を行ったTastewiseは無駄のない運営を行っているとチェン氏はいう。同社は2020年から2021年にかけて売上を3倍に拡大し、現在は米国やイギリスだけでなく、インド、オーストラリア、ドイツ、カナダ、フランスへとデータと人材の拡充を進めている。

米国とイスラエルではすでに従業員数を2倍に増やし、食品・飲料ブランド上位100社のうち15%近くと、数十社のフードテックスタートアップと協業しているという。

「Tastewiseを始めた当初、フードテックはまだ存在しておらず、食品・飲料の予測分析について投資家と話を始めたとき、これが未来だと話していました」とチェン氏は語る。「私たちは、世界がデータを取得し、食品業界を改善し、よりヘルシーでおいしいものを作る手助けをしなければなりません」。

原文へ

(文:Christine Hall、翻訳:Den Nakano)

花王とPFN、健康や生活など1600項目以上のデータを推定できる統計モデル「仮想人体生成モデル」プロトタイプを共同開発

花王とPFN、健康や生活など1600項目以上のデータを推定できる統計モデル「仮想人体生成モデル」プロトタイプを共同開発深層学習を中心とした最先端技術の研究開発を行うPreferred Networks(PFN。プリファード・ネットワークス)と花王は2月28日、「仮想人体生成モデル」のプロトタイプを共同開発したと発表した。1600以上のデータ項目で構成される人体の統計モデルで、ある項目のデータを入れると、別の項目の推定値が示されるというものだ。

たとえば、健康診断の結果から内臓脂肪量を統計的に推定できる。その他のデータと組み合わせて、その人のライフスタイル、運動や食事の習慣などに合わせた最適な健康管理方法を提案するといった使い方も可能だ。また、今の体重から2kg減ったら他の項目にどれだけの影響があるかを推定するといったこともできる。

1600の項目には、健康診断などで示される身体に関する情報のほか、食事・運動・睡眠などのライフスタイル、性格・嗜好・ストレスの状態・月経といった日常生活で関心の高いものまで多岐にわたって含まれる。これらのいずれかの項目にデータを入力すれば、他の項目の推定値が出力される。この項目も入出力可能だ。

これは、人の身体、心理、生活など多岐にわたって研究を重ねてきた花王の研究資産と、深層学習などPFNの最先端の計算科学技術によって生み出されたものだ。この仮想人体生成モデルは、協業する事業者や研究機関などにAPIで提供されることになっているため、事業者は自社製アプリなどに機能を組み込み、エンドユーザーにサービスを提供することができる。入力されたデータが収集されたり蓄積されることはなく、利用者のデータが二次利用される心配はない。花王とPFN、健康や生活など1600項目以上のデータを推定できる統計モデル「仮想人体生成モデル」プロトタイプを共同開発花王とPFN、健康や生活など1600項目以上のデータを推定できる統計モデル「仮想人体生成モデル」プロトタイプを共同開発

まだプロトタイプの段階だが、2022年中の実用化を目標に検証を進めてゆくという。2023年初頭にはAPI経由での提供し、新規デジタルプラットフォーム事業を開始する予定。

AIチャットボット「りんな」を手がけるrinnaの対話エンジン搭載キャラがDMM GAMESで配信中の恋愛ゲームに登場

AIチャットボット「りんな」を手がけるrinnaの対話エンジン搭載キャラが恋愛ゲーム「プラスリンクス」に登場

AIチャットボット「りんな」を提供するrinnaは2月22日、EXNOA運営・DMM GAMES配信のリアルチャット恋愛ブラウザゲーム「プラスリンクス ~キミと繋がる想い~」において、rinnaが開発した対話エンジンを搭載したAIキャラクター「足繋逢」(あししげく あい)が実装されたと発表した。

プラスリンクス ~キミと繋がる想い~は、街で出会ったヒロイン達とチャットによる自由な会話を通して関係を深めるという恋愛ゲーム。今回追加の足繋逢もそのヒロインの1人となる。彼女は自分の声では話せず、AI登載犬型ロボット「真希奈」を介してコミュニケーションを取るというキャラクター。会話は基本的にAI任せにしており、本人ががんばることもあるとのこと。

rinnaによると、足繋逢は、プラスリンクスが培ったノウハウをAIが学習し生まれたものという。会話のベースは、rinnaが提供するSTC(Style Transfer Conversation)モデルにより即時応答する。STCモデルとは、大規模データから構築した事前学習済みのモデルに、キャラクターの性格や口調を反映した学習データを追加学習させたモデル。

このSTCモデルによる応答文の出力後、表情、記号、ボイス、スタンプなど応答文内容に最適な表現をClassifierモデルが出力する。Classifierモデルとは、ゲーム内のグラフィック表現の演出に関する法則性を学習させた分類モデルとなっている。今回の場合は、STCモデルによるテキストに応じて、AIキャラクターとしての最適な表現を出力する。表情の変化や各種演出は、キャラクターに合わせてカスタマイズ可能で、足繫 逢の性格を再現するのに最適なカスタマイズを実装しているそうだ。

STCモデルとClassifierモデルはRCP(Rinna Character Platform)上で連携しており、AIがプレイヤーの入力に対して即時応答するテキストチャットを可能にしている。これによりプレイヤーは、ゲーム内のキャラクターとリアルタイムでやり取りしているかのような体験を楽しめるという。

今後の展開として、現在rinnaが研究開発中の新しいAIモデルとの併用準備を進めているとのこと。この実装によって、より多彩なチャットのやり取りが可能になるという。単一のキャラクターとチャットを継続していくことで変化するAIモデルの開発も検討しているそうだ。

ザッカーバーグ氏、音声コマンドでバーチャルワールドを作るデモを披露

Meta(メタ、旧Facebook)は、音声コマンドだけでバーチャルワールドでモノをつくったり、持ち込んだりできるAIシステムのプロトタイプを披露した。同社は「Builder Bot(ビルダー・ボット)」と呼ばれるそのツールを、メタバースの中で新しい世界を作るAIの可能性を見せるための「実験的コンセプト」だと考えている。MetaのCEOであるMark Zuckerberg(マーク・ザッカーバーグ)氏は、米国時間2月23日に行われたイベント「Meta AI:Inside the Lab(メタ・エーアイ:インサイド・ザ・ラボ)」で、事前録画されたデモを通じてそのプロトタイプを紹介した。

動画内でザッカーバーグ氏は、バーチャルワールドのパーツを組み立てるプロセスを、実際にやりながら説明した。彼は「let’s go to a park(公園へ行こう)」というプロンプトから始めた。するとボットが、緑の草原と樹木のある公園の3D風景を作る。ザッカーバーグが「actually, let’s go to the beach(では、砂浜に行ってみよう)」というと、ボットは現在の風景を砂と水からなる新しい風景に置き換える。次に同氏は雲を追加したいと述べ、すべてAIが生成していると説明した。そしてザッカーバーグ氏は、ひつじ雲のほうがいい、と言って風景を変えた。これはボイスコマンドが具体的な指示を出せることを示すためだ。

 

彼が海の上の特定の場所を指して「あそこに島を作ろう」というとボットが島を作った。続いてザッカーバーグ氏は、木々とレジャーシートを追加するなどいくつかのコマンドを発した。さらにカモメとクジラの音も加えた。ある時彼は、水中翼船まで追加した(彼のお気に入りのホビーの1つで、流行語にもなった)。

ビデオ全体を通じて、Builder Botはボイスコマンドを使って3Dオブジェクトを作り、風景に配置しているように見えた。Metaはプロトタイプを発表したブログ投稿で、このツールは「メタバースの創造性を加速します」というが、技術の詳細は明らかにしていない。

画像クレジット:Meta

この技術が成功すれば、他のVRワールドやプラットフォームにも影響を与える可能性がある。例えばゲームプラットフォームのRoblox(ロブロックス)は、 最近音声機能のテストを開始し、独自の開発プラットフォームを提供している。いつかこうした会社が、Metaのプロトタイプで見られたようなテクノロジーを導入して、世界を創造する同じような体験を実現すればおもしろい。

しかし現段階は、Builder Botの作る世界は、外観も機能もかなりシンプルだ。また、コマンドを声に出してオブジェクトを呼び出すのは最初は楽しいかもしれないが、もっと複雑な3D環境を作る方法としてスケーラブルな方法とはいえない。どちらかといえば、子どもがバーチャルワールドを作る入門レベルの練習場所として楽しいかもしれない(しかし、残念ながらMetaはすでに、同社のバーチャル環境が子どもにとって安全な場所ではないかもしれないことを証明している)。

Metaによるこのプロトタイプの発表は、同社がメタバースに数十億ドル(数千億円)を投資している中の出来事だ。2022年2月初め、MetaはReality Labs(リアリティー・ラボ)部門の財務状況を初めて発表し、2021年100億ドル(約1兆1500億円)以上の赤字だったことを明かした。2022年も損失は増えるばかりと予測していると同社が述べているところを見ると、Metaにはメタバースを作るためにつぎ込む無限の資金があるようで、他の小さな会社より先に成功する時間は十分あるに違いない。同社のメタバースへの莫大な投資は、今後も我々はメタバースを宣伝するためのプロトタイプをたくさん見るであろうことも示唆している。

真の「メタバース」は未だに存在していないが、このバズワードはザッカーバーグ氏とMetaによってこの1年間数多く使われ、2021年の企業ブランド変更のきっかけにもなった。ザッカーバーグ氏は以前、メタバースについて投資家に次のように説明した。「デジタル空間で人々とともにいられるバーチャル環境です。それは見ているだけではなく自分がその中にいる、一種の具現化されたインターネットのようなものです」。

Metaは同日のイベントで他にもいくつか発表を行った。AIを利用したチャットボットAIシステムカードツール、および and a 万能音声翻訳機だ。この翻訳機は話し言葉が主のものを含むあらゆる言語の同時通訳を行うもので、既存の翻訳システムを超えるだろうと同社は言っている。Metaによると、世界人口の20%は、既存の翻訳ツールが対応していない言語を話しており、同社は新しい機械学習技術を駆使してこれを解決する計画だ。

画像クレジット:Meta

原文へ

(文:Aisha Malik、翻訳:Nob Takahashi / facebook

米著作権局、AIが生成したアート作品に対する著作権取得の申請を2019年に続き却下―「人間が作った作品」要件を満たさず

米著作権局、AIが生成したアート作品に対する著作権取得の申請を2019年に続き却下―「人間が作ったもの」要件を満たさず

Stephen Thaler/Creativity Machine

米著作権局(USCO)は、人工知能が生み出した芸術作品に対する著作権取得の申請を2019年につづいて再び却下しました。これは自らが開発した人工知能(AI)が生み出した”アート作品”に関して、各国での著作権取得を試みているImagination EnginesのCEO、スティーブン・タラー博士による最新の試みでしたが、USCOは前回と同様「著作権は人間によって作られた作品でなければ認められない」としています。

今回、タラー博士はAIによって作成された「A Recent Entrance to Paradise」と題した芸術作品の著作権取得を目指していました。今回の”アート作品”は「Creativity Machine」と呼ばれるAIによって生み出されたものですが、これをCreativity Machineの所有者に雇用されて生み出された作品として登録申請していました。また、2019年の裁定に対しても、「人間の著作物」という要件は憲法違反ではないかと主張しています。

しかし、USCOの見解としては「人間の心と創造的な表現の結びつき」が著作権の重要な要素であり、また過去の同種の裁判、たとえば猿がシャッターボタンを押して撮られた写真についての裁判でも「人間以外による表現物は著作権保護対象外」だとする判断が一貫して下されて来たとしました。

ただ、芸術作品ではないもののタラー博士による「AIの権利取得の試み」が認められた例も、いくつか存在します。博士は昨年、世界各国で「DABUS」と名付けられたAIによって考案されたいくつかの発明に関して特許出願を行いました。これに対し、米国特許商標庁、英国知的財産庁、欧州特許庁などはやはり発明者が人間でないことから出願を却下する判断を下していました。しかしオーストラリアでは、AIが考案した発明に関する特許申請においてAIを発明者と認めることができる可能性があると裁判所が判断し、南アフリカでは実際に特許も認められたことが伝えられました

とはいえ、なにかの製品の動作や仕組みを定義する発明とは異なり、芸術作品は創作者のユニークな発想や才能によって生み出されるものとの考え方が強く、やはり人間ではないものに著作権を与えることは難しそうです。

(Source:United States Copyright Office(PDF)。Via the VergeEngadget日本版より転載)

製造業の研究開発・生産技術領域での課題解決をAI・機械学習で支援するSUPWATが1.5億円調達

製造業の研究開発・生産技術領域においてAI・機械学習などを活用し研究開発現場の課題解決に向けた事業を展開するSUPWAT(スプワット)は、2月24日、シードラウンドで総額約1億5000万円の資金調達を行った。引受先はScrum Ventures、DEEPCOREとなる。

現在、SUPWATは製造業への深い知見を活用しながら、製造領域に対して機械学習などの技術を適用する「メカニカル・インフォマティクス技術」で研究開発現場の課題解決に向けた事業を展開。製造業の研究開発領域において誰でも簡単に定量的な判断ができるようになるサービスであるAIや機械学習を活用したSaaS型プラットフォーム「WALL」などを提供している。さらに同社は、受託研究開発としてNEDO/東京大学生産技術研究所と共同で「水素タンク」最適設計の研究にも採択され、、機械学習・AI技術を用いた最適設計技術を提供している。

調達した資金で、既存のサプライチェーンマネジメントの概念を変え、SUPWATが掲げるビジョンである「知的製造業の時代を創る」のために、エンジニアを中心とした採用を強化していくとのこと。

また、今回の発表に合わせてコンピュータービジョン・機械学習の応用研究やプロダクト開発、組織マネジメント、技術ブランディングなどを行うABEJAの共同創業者でCTOを務めた緒方貴紀氏が、SUPWATの技術顧問に就任する。

スクラムベンチャーズのプリンシパル黒田健介氏はリリースで「研究開発の現場では日々、担当者の勘と経験をもとにした仮説構築、それに基づいたマニュアルでの実験作業、実験データのCSVでのローカル管理・分析が行われており、クラウドや機械学習等 を用いた高度化・効率化の余地がいまだに大きく残されています。【略】高い技術力と現場への深い理解を併せ持つSUPWAT創業チームに、緒方さんという心強い味方も加わり、日本が誇る製造業という巨大産業のアップデートに挑みます」と述べている。

SeMI TechnologiesのAI検索エンジンはデータを照会する新しい方法を提供する

ベルリンで開催されたGraphQLミーティングでデモをを行うSeMi Technologies CEOのボブ・ファン・ラウト氏(画像クレジット:SeMi Technologies)

企業は大量の非構造化データを保有しているが、そのデータから多くのことを得ることはできていない。

例えば、保有しているデータに対して「ABC社が当社と初めて契約したのはいつ?」とか「青い空が映っているビデオを探して」といった質問を、実際にできるようになることを想像してみて欲しい。

それこそが、SeMI Technologies(セミ・テクノロジーズ)が開発しているベクター検索エンジンWeaviate(ウィビエイト)だ。SeMIの共同創業者でCEOのBob van Luijt(ボブ・ファン・ラウト)氏によれば、それはエンベッディングとも呼ばれる、ベクトルを出力する機械学習モデルを用いたユニークなタイプのAIファーストデータベースであり、それゆえにベクトル検索エンジンと名付けられたのだという。

彼によれば、ベクトル検索エンジンは新しいものではなく、ベクトル検索エンジンの上に構築されたソリューションの例としてGoogle Search(グーグルサーチ)があることを説明した。しかし、SeMIはこの技術のコモディティ化を目標としており、誰でも使えるようにオープンソースのビジネスモデルを採用している。

ファン・ラウト氏は2021年、私の同僚であるAlex Wilhelm(アレックス・ビルヘルム)記者に、2021年のTechcrunchの記事に対して質問応答を行えるセマンティック検索エンジンを示しながら、その技術の詳細を紹介している。

関連記事:ビッグニュースに関するささやかなメモ

「誰もがこの技術を使うことができますし、それを必要とする企業のためのツールやサービスも用意しています」とファン・ラウト氏は付け加えた。「私たちは実際のモデルを作成したり配布したりはしません。それはHuggingface(ハギングフェイス)やOpenAI(オープンAI)のような企業が行っていることですし、企業自身がモデルを作成していることもあります。しかし、モデルを持っていることと、検索やレコメンデーションシステムを実際に稼働させるためにそれらを使うことは別のことです。Weaviateが解決するのはまさにその部分なのです」。

2019年にCTOのEtienne Dilocker(エティエンヌ・ディロッカー)氏ならびにCOOのMicha Verhagen(マイカ・バーハゲン)氏とともに会社を創業して以来、ファン・ラウト氏は、SeMIの技術がKeenious(キーニアス)やZencastr(ゼンキャスター)のようなスタートアップを含む100以上のユースケースに影響を与え、ベクトル検索エンジンが与える新しい可能性に基づいて新しいビジネスを創造し、Weaviateによって提供された結果がたとえば医療分野で人々を直接助ける場面で利用されているのを眺めてきた。

ファン・ラウト氏が個人的に気に入っているのは、より「難解」なものだ。例えばヒトゲノムをベクトル化して検索したり、全世界をベクトルでマッピングしたり、Weaviateを使って簡単に検索できるいわゆるグラフエンベディングと呼ばれるものだ。Meta Researches(メタ・リサーチ)のグラフエンベディング上にSeMIが作成したデモがその例だ。

SeMIは、2020年8月にZetta Venture PartnersとING Venturesから120万ドル(約1億4000万円)のシード資金を調達し、それ以降VCの目に留まるようになった。以来、同社のソフトウェアは75万回近くダウンロードされており、その数は毎月約30%増加している。ファン・ラウト氏は、同社の成長指標の具体的な内容については言及しなかったが、ダウンロード数は企業向けライセンスやマネージドサービスの売上と相関関係があると述べている。また、Weaviateの利用者が急増し、付加価値が理解されたことで、すべての成長指標が上昇し、シード資金を使い果たすことになった。

だがシード資金はなくなったものの、会社は新たな資金調達には積極的ではなかった。しかし、SeMIの共同創業者たちが、元Datarobotの創業者たちが設立したCortical Venturesや、New Enterprise Associates(NEA)と会談をした際に、両社が自分たちの事業をどのように支援できるかを示してくれたのだとファン・ラウト氏はいう。

「まさに『ふいを突いてびっくりさせる』ような凄さでした」と彼は付け加えた。「過去に彼らが行ってきたこと、そして私たちをサポートしてくれているチームは、まさに私たちが求めていたもので、私にとっては初めての経験ではありますが、すべての驚くべき話が真実であると言えます」。

そうした会談の結果、NEAとCorticalがともに主導したシリーズAにつながり、このたび1600万ドル(約18億4000万円)の新規資金が調達された。

SeMIは今回の資金をアメリカとヨーロッパの人材採用に投入し、Weaviateとベクトル検索全般のためにオープンソースのコミュニティを強化しようとしている。また、オープンソースのコアを中心とした市場進出戦略や製品への取り組みを強化するとともに、機械学習がコンピュータサイエンスと重なる部分の研究にも第一歩を踏み出す。

一方、ファン・ラウト氏は、データベース技術の次の波を見ている。彼はデータベース技術はOracle(オラクル)やMicrosoft(マイクロソフト)のような大成功をもたらしたSQLの波から始まり、MongoDB(モンゴDB)やRedis(レディス)のような成功を収めた非SQLデータベースが第2の波だったと考えている。

「私たちは今、新世代のデータベース、つまりAIファーストのデータベースの入り口に立っています。Weaviateはその一例です」と付け加えた。「Weaviateだけでなく、ベクトル検索データベース、あるいはAIファーストのデータベースを市場を啓蒙していく必要があります。機械学習が新たにもたらすすばらしい可能性に、興奮を押さえられません。例えば何百万、いや何十億ものドキュメントに対して自然言語で質問してデータベースに答えさせたり、何百万もの写真やビデオに含まれている内容を『理解』させたりするのです」。

原文へ

(文:Christine Hall、翻訳:sako)

ニンジン除草機の(ロボット)キングを目指すVerdant Robotics

アグリテック(農業テクノロジー)は、ロボットによって破壊されたくてうずうずしている巨大な産業だ。さまざまな問題に対して多くの解決策が必要とされる大きなカテゴリーだが、近頃は多くの不正スタートが見られる。例えば、りんご収穫ロボットのAbundant Robotics(アバンダント・ロボティクス)は事業に行き詰まってしまったが、現在はその知的財産を買い取った企業が、エクイティクラウドファンディングを利用してブランドを復活させようとしているところだ。一方で、イチゴを収穫するTraptic(トラプティック)は、文字通り自ら外へ出て、垂直農法への応用を目指すBowery(バワリー)に買収された。

2018年にイーストベイで設立されたVerdant Robotics(ヴァーダント・ロボティクス)は、2019年に実施した1150万ドル(約13億円)のシリーズAを含め、これまでに2150万ドル(約25億円)の資金を調達している。かなり広い範囲に網を張っているように見える同社だが、まずはニンジンの収穫から始め、RaaS(サービスとしてのロボット)のビジネスモデルとして、選ばれた農家にシステムを提供している。

このようなビジネスモデルは、少なくとも初期の段階においては、これらのシステムにとって最も理に適ったものだと思われる。

Verdantのような企業にとっておそらく最も重要なのは、そのロボットシステムをできるだけ多く農場に持ち込み、実際にテストしたりデータを収集したりすることだろう。それには、販売するよりもレンタルした方がはるかに容易だ。特にこれはまだ初期の技術であるため、システムを実行する(あるいは少なくとも監視する)技術者が必要になるからだ。

この「自律型農場ロボット」は、散布とレーザー除草という2つの作業をこなしながら、AIを活用した作物モデルを構築し、植物が何を欲しているのかを、農家により具体的に伝えることができる。

「農家の方々からは、もっと多くのデータが欲しいわけではない、すでに持っている山のようなデータを使って何をすべきかを考えて欲しい、むしろそれをやって欲しいと言われました」と、Verdantの共同創業者兼CEOであるGabe Sibley(ゲイブ・シブリー)氏は語っている。「彼らが求めているのは、リアルタイムで行動を起こせて、農家が常に状況を把握でき、かつ収益性を向上させ、危険で骨の折れる現場作業を自動化することができる完全なソリューションです」。

同社は2021年の間に「数千時間」を費やしてきた「果樹園用の精密マルチアクションマシン」を、来年には本格的に商品化する計画を立てているという。

画像クレジット:Verdant

原文へ

(文:Brian Heater、翻訳:Hirokazu Kusakabe)

BTS所属のHYBEも注目、AI使った合成アバターをクリエイター向けに提供する韓国Neosapience

人工知能(AI)を活用した音声・映像技術は、近年、着実に人気を集めている。韓国のスタートアップ、Neosapience(ネオサピエンス)は、ユーザーがスタジオで録音や編集をすることなく、テキストを動画に変換できる合成音声・動画プラットフォーム「Typecast」を開発した。

Neosapienceは米国時間2月22日、成長を加速させ、新たな地域(特に米国)での事業を拡大するために、シリーズBラウンドで2150万ドル(約24億7400万円)を調達したと発表した。BRV Capital Managementが主導した今回の資金調達により、同社の累計調達額は約2670万ドル(約30億7200万円)に達した。本ラウンドには他にも、Stic Ventures、Quantum Venturesが参加した。既存投資家であるCompany K Partners、Albatross Investment Capital、Daekyo Investment、TimeWorks investmentsも参加した。

Neosapienceの共同創業者兼CEOであるTaesu Kim(キム・テス)氏はこう述べている。「今回の資金調達により、リーチを拡大し、限界をさらに押し広げることができます。より少ない労力でコンテンツを作ることを可能にするだけでなく、AIを使ったバーチャルアクターを誰もが利用できるようになるという我々のビジョンを実行することが可能になります」。

元Qualcomm(クアルコム)のエンジニアが集まって2017年に設立した同社は、韓国語と英語の170人のバーチャル声優を提供するAIボイスサービスプロバイダーとしてスタートした。2022年1月には、実在の人物のように見えるAIを活用した合成動画(アバター)機能を追加した。日本語やスペイン語など、他の言語も追加していく予定だという。

画像クレジット:Neosapience

同社のユーザーの大多数は主にクリエイターや企業のクライアントで、ビジネスやVlog、ゲームなどの個人的なチャンネルのためにビデオやオーディオコンテンツを作成するためにこのツールを使用していると、キム氏はTechCrunchに語った。企業クライアントには、韓国のボーイズグループBTSの声を作りたいと考えている、同グループが所属するHYBE Entertainmentの子会社HYBE EDUのようなメディアやエンターテインメント企業の他、オーバーザトップ(OTT)プラットフォームも含まれている。また、複数の電子書籍プラットフォームがTypecastを利用して、同社のAI声優が作成したさまざまなオーディオブックを提供していると、同氏は説明してくれた。ユーザーは、実際の俳優を雇う代わりにTypecastのアバターを使用することで、音声品質を維持しながらコストと時間を削減できるという。

「クリエイターが当社のサービスを使って、より多くの、より良いコンテンツを作ることを支援したいと考えています。クリエイターエコノミー全体が我々にとっては対応可能な市場であり、その規模は1040億ドル(約11兆9700億円)と推定されています」とキム氏はいう。

画像クレジット:Neosapience

競合他社との違いの1つは、人間のような感情の表現、話し方、韻律制御、ボーカル、ラップボイス技術など、Typecastの高度な技術にあるとキム氏は語る。

BRV Capital ManagementのマネージングディレクターであるYeemin Chung(チョン・イェミン)氏は、声明で次のように述べている。「人間の感情をテクノロジーによって表現することは、これまで非常に難しいことでした。「Neosapienceは、音声・映像合成の分野で先頭を走り続け、個人のクリエイターやエンターテインメントのための商業インフラの構築に成功しました。世界中のメディア企業は、デジタルコンテンツやバーチャルコンテンツの制作に感情を組み込む方法を革新するために、(この技術に)簡単にアクセスすることができます」。

Neosapienceのユーザーは現在、100万人以上いるという。過去2年間、2019年11月のローンチ以来、その収益は毎月約18%の成長を遂げている。同社の従業員は1月時点で41人。

「この1年で急速に成長しましたが、AIを活用したバーチャルヒューマンと、その合成メディアやインタラクティブコンテンツへの応用において、誰もが認めるグローバルリーダーになるために、さらに邁進する機会があると考えています」とキム氏は語った。

関連記事:実在しているような合成アバターがしゃべるプレゼン動画を簡単に作れるSynthesiaの技術

画像クレジット:Neosapience

原文へ

(文:Mike Butcher、翻訳:Den Nakano)

世界初の可動部のない自動運転用ソリッドステートLiDAR開発、見たいところを必要なだけ見る人間の目のような視覚システム実現

世界初の可動部のない自動運転用ソリッドステートLiDAR開発、見たいところだけを詳しく見る人間の目のような視覚システム実現

新エネルギー・産業技術総合開発機構(NEDO)、LiDAR(ライダー)システムの開発・製造・販売を行うSteraVisionは2月21日、世界で初めて、可動部を一切なくし量産性を向上させたソリッドステートLiDARを開発したと発表した。光の干渉を利用した光コヒーレント技術を組み合わせることで、肉眼では見えない遠方や霧の先が見えるようになり、さらに自動運転車向け認識技術と連動させることで、「見たいところを必要なだけ見る」ことができる人間の目のような機能を持たせることが可能になった。

これは、NEDOの「戦略的省エネルギー技術革新プログラム」において、SteraVisionが2019年から進めてきた「長距離・広視野角・高解像度・車載用LiDARの開発」の取り組みによるもの。高性能LiDARによる省エネルギー化が大きな目標だが、今回開発されたソリッドステートLiDARを使用して、道路や交通状況を把握し早めに対処する「予知運転」が可能になれば、燃費向上による15.2%のエネルギー削減が実現するという。

LiDARは、レーザー光で測距や画像検出を行う光センサー。自動運転車の「目」となる重要な技術だ。これまでは、レーザー光で対象物をスキャンする際に、鏡を動かしてレーザー光を走査させる方式が一般的だったが、そのような可動部があることで、金属疲労による動作停止や、外部からの振動による不安定化、小型化が困難といった問題があった。そこでSteraVisionは、可動部を一切なくしたソリッドステートLiDARを開発した。

このLiDARの柱となる技術の1つが、ソリッドステートスキャナー「MultiPol」だ。液晶を使って光ビームを上下左右に高速でスイッチすることで、デジタルスキャンを可能にした。

ソリッド・ステートスキャナー「MultiPol」の動作原理

ソリッド・ステートスキャナー「MultiPol」の動作原理

もう1つは、光方向性結合器やY分岐器といった光部品の多くを1チップに集積したフォトニックICだ。多くの光ビームのスキャンが行え、指先に乗るほどの小型化と低価格化が実現した。

開発したフォトニックIC

開発したフォトニックIC

そして3つ目が、カメラ画像、パーセプションAI、LiDARの融合だ。LiDARによる物体検出とカメラ画像の自動運転車向け認識(パーセプションAI)を融合させ、カメラだけでは困難だった霧や煙の向こうにある物体の検出や追跡ができるようになった。さらに、アナログ式ではレーザー光を走査させて全体を計測した後にフレームをリフレッシュしていたが、デジタル方式では選択的に重要な部分だけを計測し、即座にリフレッシュができるため高速追跡が可能となり、「見たいところを好きなだけ詳しく見る」という人間の目と同じような効率的な視覚システムが実現する。

カメラ画像・パーセプションAIと、LiDARを融合した重みづけスキャンの例。LiDARによる物体検出(上図)を3Dカメラ画像(下図)と融合して、パーセプションAIにより認識(下図の赤枠部分)させている

カメラ画像・パーセプションAIと、LiDARを融合した重みづけスキャンの例。LiDARによる物体検出(上図)を3Dカメラ画像(下図)と融合して、パーセプションAIにより認識(下図の赤枠部分)させている

SteraVisionでは、これから自動運転、FA、ロボティクス、セキュリティといった分野の顧客ニーズに合わせてチューニングを行い、2022年の7月ごろからサンプル出荷を開始する予定とのことだ。

放射線科のITを根本から再構築するNinesのAIアルゴリズムをSirona Medicalが買収

デジタル放射線科のための「OS(オペレーティングシステム)」を開発しているSirona Medical(シロナメディカル)は、米食品医薬品局(FDA)が認可した分析およびトリアージのアルゴリズムの開発元Nines(ナインズ)を買収した。この買収は、AIを使った放射線技術がやや不安定な時期に行われた。しかし、Sironaはこの動きによって「臨床ワークフローにAIを導入するためには、物事を一から作り直す必要がある」という同社の考えが証明されることに賭けている。

SironaとNinesがどの部分で一緒になってうまくいくのかを理解するには、放射線治療の背後にあるITをレイヤーケーキに見立てて考えるといい。そのケーキの最初の層は、医療画像データベースでできている。2つ目の層は、閲覧や報告のソフトウェアなど、放射線科医が日常的に接するソフトウェアだ。3つ目の層は、これらの画像のパターンを検索したり、医師の意思決定を支援したりするAIアルゴリズムで構成されている。

Sironaの主力製品であるRadOSは、この下の2層をまとめ、その上にAIアルゴリズムを重ねられるようにすることを目指していて、NinesのAIはの下の2層で大きな進歩を遂げた。

Ninesは、実際に医師の意思決定をサポートできるとするアルゴリズムを作り出した。そのうちの1つは、科学者が肺の結節(異常な増殖)の大きさを測定し、呼吸器疾患の発見に役立てるというアルゴリズムだ。もう1つのアルゴリズムは、脳のCT画像を分析し、頭蓋内出血や腫瘤の兆候を検出するものだ。医師が患者をトリアージするのを支えることを目的としている(両アルゴリズムともFDAの510(k)認可を取得している)。

RadOSプラットフォーム(画像クレジット:Sirona Medical)

今回の買収は、臨床医のワークフローにアルゴリズムを真に統合するためには、第1層と第2層を統合する必要があるからだとSirona MedicalのCEO、Cameron Andrews(キャメロン・アンドリュース)氏はTechCrunchに語った。RadOSは、その問題を解決する準備ができているという。

ヘルスケア分野におけるAIは、最近混迷を極めている。一方で、1月にIBM Watson Healthがスピンオフし、AI放射線科の楽観論者に打撃を与えた。しかし、熱意は冷めていない。同じ月に米国最大の外来画像診断プロバイダーであるRadnet(ラドネット)は、がん、肺疾患、神経変性のAI画像解析に投資する2社を買収した。

そして、誰もが触れない点がある。それは、期待されるAI放射線科革命は、まだ到来していないということだ。米放射線学会の会員約1400人を対象に2021年に行われた調査で、現在臨床でAIを使用している放射線科医はわずか30%であることが明らかになった。AIを使用していない人の20%は、5年以内の新AIツール購入を計画していた。

Sironaの主張は、放射線科でのAI活用を阻んできた問題は、業界のレガシー技術に深く食い込んでいるというものだ。前述の「層」はすべて一緒に機能するように設計されていない。

臨床支援アルゴリズムを追加する前でさえ、放射線科医はすでに3つか4つの異なるソフトウェアで作業している、とアンドリュース氏は話す。そして、AI機能を採用した新しいソフトウェアを追加しようとすると、それらのソフトウェアにさらに別のものを追加しなければならない。「Radiology Artificial Intelligence」のあるレビュー論文によると、堅牢なAIソフトウェアは、個々のワークステーションにベンダー固有のソフトウェアをインストールする必要があるとのことだ。このプロセスは、新しい技術を採用する際に複雑さをさらにもたらすことになる、と同論文は指摘している。

「私たちは、基礎となる放射線科ITスタック自体、そしてより広範な基礎となるイメージングITスタックは、放射線科医が抱えるタスクと、サードパーティのAIおよびソフトウェアベンダーが今後10年間に要求するタスクの両方を根本的に処理できないと認識しました」とアンドリュース氏は述べた。

そう考えると、SironaがNinesを買収したことで、それらのトップ層のアルゴリズムがRadOSに統一されることになる。それは医師にとって、実際にどのような意味を持つのだろうか。注釈付き画像からレポートへのシームレスな移行が可能になる、ということだ。肺結節をクリックし、Ninesのアルゴリズムで測定し、さらにクリックすれば、その測定値をレポートに反映させることができる。

「これは、とてもシンプルです。しかし、それにもかかわらず「実現不可能でした」とアンドリュース氏はいう。

RadOsのプラットフォームを利用したメモ帳アプリケーション

「AIやコンピュータビジョンは、ピクセルと言葉を関連付ける能力であり、自然言語処理は、言葉をピクセルそのものに関連付ける能力です」と同氏は説明する。「報告書を作成するためのソフトウェアと画像を見るためのソフトウェアが機能的に分離しているため、このような双方向の接続を今日実現することはできません。そして、それらはアルゴリズムから完全に分離されているのです」。

SironaはNinesの臨床データパイプライン、FDA認可の2つのアルゴリズム、機械学習エンジン、放射線科ワークフロー管理・分析ツールのみを買収した。興味深いことに、同社はNines AIの遠隔放射線の部門を買収していない。Ninesはリモートで働く放射線科医も雇用しており、その専門知識を病院やクリニックに提供している。

Sironaは「放射線科サービス事業を行っていない」ため、遠隔放射線部門はSironaになじまなかったと、アンドリュース氏は話した。しかし、同氏買収の詳細を明らかにするのは却下した。

今回の買収の発端は、投資家の重複と相互のつながりにある。8VCは両社に出資していて、SironaはNinesの投資家であるAccel Partnersとつながりがある。Sironaはこれまでに6250万ドル(約72億円)を調達している。

原文へ

(文:Emma Betuel、翻訳:Nariko Mizoguchi

環境移送スタートアップのイノカ、サンゴ礁の海を人工的に再現した水槽内でサンゴに真冬に産卵させることに世界初成功

環境移送スタートアップのイノカ、サンゴ礁の海を人工的に再現した水槽内のサンゴに真冬に産卵させることに世界で初めて成功

産卵中のエダコモンサンゴ

環境移送企業のイノカは2月18日、人工的にサンゴ礁の海を再現した閉鎖系水槽(東京虎ノ門)においてサンゴ(エダコモンサンゴ)の産卵に2月16日に成功したと発表した。季節をずらしたサンゴ礁生態系を再現することで、通常日本では年に1度6月にしか産卵しないサンゴを真冬に産卵させることに成功した。

同実験の成功により、サンゴの産卵時期を自在にコントロールできる可能性が見込まれるという。また研究を進めることで、年に1度しか研究が行えなかったサンゴの卵、幼生の研究がいつでも可能となる。今後は、サンゴが毎月産卵するような実験設備を構築し、サンゴ幼生の着床率を上げるための実験や高海水温に耐性のあるサンゴの育種研究につなげる。

イノカでは、水質(30以上の微量元素の溶存濃度)をはじめ、水温・水流・照明環境・微生物を含んだ様々な生物の関係性など、多岐にわたるパラメーターのバランスを取りながら、IoTデバイスを用いて特定地域の生態系を自然に限りなく近い状態で水槽内に再現するという同社独自の「環境移送技術」により、完全人工環境下におけるサンゴの長期飼育に成功している。完全人工環境とは、人工海水を使用し、水温や光、栄養塩などのパラメーターが独自IoTシステムによって管理された水槽(閉鎖環境)のことを指す。

今回の実験では、環境移送技術を活用し沖縄県瀬底島の水温データを基に、自然界と4カ月ずらして四季を再現することで、日本では6月に観測されるサンゴの産卵を2月にずらすことに成功した。また今回、同社の管理する水槽で3年以上飼育したサンゴを使用している。

環境移送スタートアップのイノカ、サンゴ礁の海を人工的に再現した水槽内のサンゴに真冬に産卵させることに世界で初めて成功

産卵実験に使用した水槽

研究手法

  • 環境移送技術を活用し、サンゴを長期的・健康的に飼育できる人工生態系を構築。海水温を24度にキープしていた水槽の水温制御を2021年8月23日より開始
  • 2021年8月23日より沖縄県瀬底島の12月の海水温と同期
  • 飼育を継続し、2022年2月17日未明、エダコモンサンゴの産卵を確認することに成功

イノカは、日本で有数のサンゴ飼育技術を持つアクアリストと、東京大学でAI研究を行っていたエンジニアが2019年に創業。アクアリストとは、自宅で魚や貝、そしてサンゴまでをも飼育する、いわゆるアクアリウムを趣味とする人々を指すという。自然を愛し、好奇心に基づいて飼育研究を行う人々の力とIoT・AI技術を組み合わせることで、任意の生態系を水槽内に再現する「環境移送技術」の研究開発を行っている。

NTTドコモ、AI活用医療サービスの提供に向け第二種医療機器製造販売業の許可を取得―国内移動体通信事業者で初

NTTドコモ、AI活用医療サービスの提供に向けて第二種医療機器製造販売業の許可を取得―国内移動体通信事業者で初

NTTドコモ(ドコモ)は2月16日、日本国内の移動体通信事業者で初めて「第二種医療機器製造販売業」の許可を取得(許可番号:13B2X10509)し、また「医療機器製造業」を登録(登録番号:13BZ201613)したと発表した。

今回ドコモは、医療機器のクラス分類のうち、クラスII(管理医療機器)の医療機器プログラムの製造販売が可能になる「第二種医療機器製造販売業」の許可を取得した。今後は、健康管理サービスやオンライン診療システムの提供だけではなく、病気の予防・診断・治療・予後管理などを目的として使用される医療機器プログラム、AI技術を活用した医療サービスを自社で設計・開発・製造・販売することが可能になる。

また、ヘルスケア領域からメディカル領域までスマートフォンの利用を軸にしたシームレスなサービス展開を行うことで、顧客がこれまで以上に医療を活用しやすく、病気の早期発見や治療を行える機会を増やせるようにする。医療機関などのパートナーと連携しながら、健康寿命の延伸や医療費の抑制などの社会課題の解決にも貢献するという。

これまでドコモは、位置情報や歩数、スマートフォンの利用時間帯などの生活習慣に関する情報や健康診断の結果などの利用に関して、事前に同意が得られたデータを基に、利用者の健康状態や病気の発症リスクを推定するAI技術の研究開発を進めてきた。また、個人ユーザ-向けの「dヘルスケア」、法人ユーザー向けの「dヘルスケア for Biz」「リボーンマジック」、自治体向けの「健康マイレージ」などの各種サービスを提供。生活習慣の改善や健康行動を促し、楽しく健康管理や健康増進を行うための取り組みを展開している。

また、オンライン診療・服薬指導アプリ「CLINICS」のメドレーとの共同運営を2021年12月から開始し、顧客の医療活用を支援する取り組みも推進しているという。

船の自律航行技術開発を行うエイトノットが1億円調達、2025年までの社会実装目指す

船の自律航行技術開発を行うエイトノットがシードラウンドファーストクローズとして1億円調達、2025年までの社会実装目指す

船の自動運転技術開発スタートアップ「エイトノット」は2月15日、シードラウンドのファーストクローズとして、J-KISS型新株予約権方式による1億円の資金調達実施を発表した。引受先は、DRONE FUND、15th Rock Ventures、リアルテックファンド。累計資金調達額は1億5000万円となった。

2021年3月設立のエイトノットは、「ロボティクスとAIであらゆる水上モビリティを自律化する」をミッションに掲げる、自律航行技術開発スタートアップ。ロボティクス専門家集団による開発チームを擁し、実用的な技術を現実的なコストで、かつスピーディに開発可能としており、創業から半年で小型船舶向けの自律航行技術の開発と実証実験を成功させている。同社は、2025年の自律航行無人船の社会実装を目指し、事業活動を加速させるという。

調達した資金は、「ロボティクスおよびAIに精通したエンジニアリングチームの強化」「EVロボティックボートを活用した事業開発チームの強化」などにあてる。

調達した資金の主な用途

  • ロボティクスおよびAIに精通したエンジニアリングチームの強化
  • EVロボティックボートを活用した事業開発チームの強化
  • 自律航行機能を備えた小型船舶の開発
  • 遠隔監視システムの開発
  • 事業化を見据えた実証フィールドでの航行試験

昨今、陸の自動運転・空のドローンなど、モビリティの自律化・自動化技術は隆盛著しく、その動きは船舶など水上モビリティにも及んでいる。水上モビリティにおいても自律化による安全性・利便性・経済合理性の向上が見込め、とりわけ四方を海に囲まれた日本では、旅客・物流において新たな移動・輸送手段となることが期待されているためという。災害時に代替輸送手段として活用することも期待されている。

またグローバル市場、特に新興国の場合、都市部の交通渋滞が深刻な社会課題となっていることから、船運は重要な交通・輸送手段として活用が推進されている。

これら状況においてエイトノットは、ロボティクス・AIなど先端技術を活用した「水上モビリティのロボット化」をコンセプトとし、環境に配慮したEVロボティクスボートによるオンデマンド型水上交通を実現することで、課題解決に貢献するという。

スマート畜産の普及を目指すNTT東日本の通信環境実証実験にAI家畜管理サービスPIGIが協力、IEEE802.11ah活用

養豚プラントの設計施工や畜産のDXを推進するコーンテックは2月9日、AI家畜管理サービス「PIGI」(ピギ)について、NTT東日本による「スマート畜産」普及に向けた通信環境実証実験に提供することを発表した。

この実証実験は、NTT東日本が、NTTアクセスサービス研究所と連携し、神奈川県の畜産業者臼井農産の養豚場を実験場として行われるもの。畜産現場でのプラチナバンド(700〜900MHzの周波数帯域)のIoT向けWi-Fi「IEEE802.11ah」が活用可能かどうかを確かめことを目的としている。同通信規格を試す理由は、従来のWi-Fiに比べてカバーエリアが広く、中継器や無線LANの親機を減らすことができ、カメラやセンサーの台数を増やせるなどのメリットがあるためだ。

ここで、コーンテックのPIGIがデータを提供することになる。PIGIは、豚の頭数・体重をカメラで撮影した画像から解析するというシステム。通常は、大人の男性2名が3分間以上をかけて行う作業を10秒程度で済ませられるという。勘と経験に頼らず、人の介在も減らして、効率的に管理が行えるだけでなく、最適な体重での出荷を可能にし、収益率を上げられるとしている。

コーンテックは2021年、NTT東日本、臼井農産とPIGIを使って、豚の体重・体格・肉質を計測する実証実験を行っている。今後もこの取り組みで蓄積されたデータを活用して、臼井農産は「最高品質の豚肉の提供」を目指し、NTT東日本とコーンテックは、神奈川県内の養豚業へのIoTサービス導入の支援と、養豚業の発展に向けた新たな仕組み作りを検討してゆくとしている。

人が世界を理解するように因果関係をAIの意思決定に導入するノーコード技術のcausaLensが51.8億円調達

今日までの人工知能の最も一般的なアプリケーションの1つは、過去のデータで訓練されたアルゴリズムを使って予測を行い、将来の結果を判断するというものである。しかし、普及が必ずしも成功を意味するわけではない。予測AIは、結果につながる多くのニュアンス、コンテキスト、因果関係の推論を除外する。一部の人たち指摘しているように(そして私たちが見てきたように)、これは予測AIが生み出す「論理的な」答えがときとして悲惨なものになることを意味している。causaLens(コーザレンズ)というスタートアップは、因果推論(causal inference)技術の開発を行っている。この技術は、AIベースのシステムにニュアンス、推論、因果関係の知覚能力を導入する上でデータサイエンティストを必要としない、ノーコードのツールとして提供されており、この問題を解決できると同社は考えている。

causaLensのCEOで共同創業者のDarko Matovski(ダーコ・マトフスキー)氏は、AIが「人間が世界を理解するように世界を理解し始める」ことを目指していると語る。

同社は米国時間1月28日、このアプローチが初期にある程度成功し、1年前にステルス状態から脱して以来収益が500%成長したことを受けて、4500万ドル(約51億8000万円)の資金調達を行ったことを発表した。これはラウンドの「最初のクロージング」と表現されており、引き続きオープンで、規模拡大のポテンシャルを秘めていることを示唆している。

Dorilton Ventures(ドリルトン・ベンチャーズ)とMolten Ventures(モルテン・ベンチャーズ、Draper Esprit[ドレイパー・エスプリ]からブランド名を変更したVC)がこのラウンドをリードし、以前からの支援者であるGeneration Ventures(ジェネレーション・ベンチャーズ)とIQ Capital(IQキャピタル)、そして新たな支援者としてGP Bullhound(GPブルハウンド)も参加した。情報筋によると、ロンドンに拠点を置くcausaLensは、同ラウンドで約2億5000万ドル(約287億8000万円)と評価された。

causaLensの現在の顧客やパートナーには、ヘルスケア、金融サービス、政府機関の他、多岐にわたる業界の組織が名を連ねている。こうした組織は、成果に到達する過程において、AIベースの意思決定だけではなく、より多くの因果関係のニュアンスを取り入れる目的で、同社の技術を活用している。

この仕組みの実例を挙げると、同スタートアップのパートナーの1社であるMayo Clinic(メイヨー・クリニック)は、causaLensを使って癌のバイオマーカーを同定している。

「人間の身体は複雑なシステムであり、基本的なAIパラダイムを適用することで望みどおりのパターンや相関関係を見つけることは可能ですが、成果を得ることはできません」と、同スタートアップのCEOで創業者のDarko Matovski(ダルコ・マトフスキー)氏はインタビューで語っている。「ですが、因果関係の手法を応用して、相違する身体がどのように機能するのかを理解すれば、ある組織が別の組織にどのような影響を与えるのか、その本質をより深く理解することができます」。

関連するすべての変数を考慮すると、それは人間にとって、あるいは人間のチームにとっても、計算することはほぼ不可能なビッグデータの問題である。しかしコンピューターにおいては、対処すべき必要最低限のものと位置づけられる。これは癌の治療法ではないが、この種の研究は、関与する多くの組み合わせに応じた多様な治療法を検討する上で、意義のある一歩である。

causaLensの技術は、ヘルスケア分野でも、あまり臨床的ではない形で応用されている。世界有数の経済大国に属する公衆衛生機関(causaLensはそれについて公表を控えている)は、同社のCausal AIエンジンを使用して、特定の成人が新型コロナウイルスのワクチン接種を躊躇している理由を特定し、その人たちを参加させるためのより良い戦略を考案した(ここでは複数の「戦略」が運用上の細目となっている。対象者によってさまざまな理由を含む複雑な問題であるということに要点がある)。

金融サービスのような領域の他の顧客は、causaLensを使って、ローン評価などの分野における自動化された意思決定アルゴリズムに情報を与えている。従来のAIシステムは、過去のデータのみを使って意思決定にバイアスを導入するものであった。一方ヘッジファンドでは、causaLensの活用により、市場のトレンドがどのように発展して投資戦略に反映されるかについてより深い洞察を得ている。

そして興味深いことに、自動運転輸送の世界に新たな顧客の波が現れているかもしれない。これは、人間の推論の欠如によって分野の進歩が妨げられてきた領域の1つである。

「どれほど多くのデータが自律システムに送られても、それは歴史的な相関関係にすぎません」とマトフスキー氏はこの課題について語っている。同氏によると、causaLensは現在、2つの大手自動車会社と同社の技術の「数多くのユースケース」について協議を進めているが、その中でも特定のユースケースとして「世界がどのように機能するかをシステムが理解する」ような自動運転に注目しているという。「それは、赤信号や停車中の車に関連する相関ピクセルだけではなく、その車が赤信号で減速することでどのような結果が生じるのかも考慮したものです。私たちはAIに推論を導入しています。自動運転において、Causal AIは唯一無二の希望です」。

AIを仕事で使用している人たちが、システムをできる限り正確にしたいと考えるのは当然のことのように思える。それは、そもそもなぜCausal AIによる優れた改善がAIアルゴリズムや機械学習に組み込まれていないのかという疑問を抱かせる。

初期の段階において、推論や「なぜ」と返答することの追求を優先していなかったわけではないとマトフスキー氏は説明する。「人々は長い間、科学の中で因果関係を探求してきました。ニュートンの方程式は因果を示すものであると主張することもできます。それは科学において極めて基本的なことです」。しかしAIの専門家たちは、機械にそれを教える方法を解明できなかったのである。「それは難しすぎました」と同氏は語る。「アルゴリズムとテクノロジーが存在していませんでした」。

同氏によると、その状況は2017年あたりから変化し始めたという。それは研究者らが、AIにおける「推論」や因果関係の表現方法について、既存の成果への貢献を示す信号を発見する(過去のデータを使って成果を決定するのではなく)ことに基づいて検討し、それに立脚したモデルを構築するという初期アプローチを発表し始めた時期である。興味深いことに、これはマトフスキー氏が言及している、仕事をするために大量のトレーニングデータを取り込む必要がないアプローチである。causaLensのチームは、博士号にかなりの比重が置かれている(同スタートアップはここで本格的にドッグフーディング[事前に自身で有用性を確かめる]を実践したといえるかもしれない。チームを編成する際に5万人の履歴書を検討している)。そしてこのチームは、そのバトンを受け取って、それで走り続けてきた。「以来、指数関数的な成長曲線を描いています」と同氏は語っている(その詳細はこちらで確認できる)。

AIに依存する大規模プロジェクトで因果推論の進歩を活用する方法を検討しているのは、causaLensだけではない。Microsoft(マイクロソフト)、Facebook(フェイスブック)、Amazon(アマゾン)、Google(グーグル)など、AIに多額の投資をしている大手テック企業もこの分野に取り組んでいる。スタートアップの中では、Causalis(コーザリス)も特に医薬とヘルスケアでCausal AIを使う機会に焦点を当てており、Oogway(ウーグウェイ)は消費者向けのCausal AIプラットフォームを構築しているようである。これらはすべて、特定の商用、そしてより一般的なユースケースの両方をカバーする、より広範で大規模な当該技術市場が開拓される機会を示している。

「AIは、現実世界におけるポテンシャルを実現するために、因果推論に向けた次のステップを踏み出さなければなりません。causaLensは、Causal AIを活用して介入をモデル化し、機械駆動型の内省を可能にした最初の企業です」とDorilton VenturesのDaniel Freeman(ダニエル・フリーマン)氏は声明で述べている。「このワールドクラスのチームは、本格的なデータサイエンティストの心を掴む洗練性と、ビジネスリーダーに力を与えるユーザビリティを備えたソフトウェアを開発しました。Dorilton Venturesは、次のステージでcausaLensをサポートすることに大きな喜びを感じています」。

「どの企業もAIを採用するようになるでしょう。単に採用できるからではなく、採用する必要があるからです」とMolten Venturesの投資ディレクターであるChristoph Hornung(クリストフ・ホルヌング)氏は付け加えた。「私たちMoltenは、因果性がAIのポテンシャルを引き出すために必要となる重要な要素であると確信しています。causaLensは、最適なビジネス上の意思決定へとデータを変換する能力が証明されている、世界初のCausal AIプラットフォームです」。

画像クレジット:Andriy Onufriyenko / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)