機械学習のモデルをデバイスごとに最適化してスピードを上げるOctoMLがシリーズBで30億円相当を調達

シアトルのスタートアップOctoMLは、オープンソースのコンパイラーフレームワークプロジェクトApache TVMを利用する機械学習の加速化プラットホームを提供している。同社は今日(米国時間3/17)、AdditionがリードするシリーズBのラウンドで2800万ドルを調達したことを発表した。以前からの投資家であるMadrona Venture GroupとAmplify Partnersもこのラウンドん参加し、これで同社の調達総額は4700万ドルになった。同社のこの前の調達は2020年の4月で、そのときはAmplifyがリードするシリーズAのラウンドが発表された。

TVMの作者たちがTVMを商用化するために作ったOctoMLは、デベロッパーが持ち込んだモデルのパフォーマンスを、使用するクラウドやエッジデバイスに合わせて最適化する。OctoMLの共同創業者でCEOのLuis Ceze氏はブラジル出身で、氏によるとシリーズAを調達してから同社は、一部のアーリーアダプターを同社のSaaSプラットホーム「Octomizer」へオンボーディングしてきた。


画像クレジット: OctoML

氏によると、「まだアーリーアクセスだが待機者リストへの登録はすでに1000名近い。今回の資金調達に踏み切ったのは、それも大きな要因だ。シリーズBは先買であり、新株も含め既存の株が対象ではない。私たちは、新たな資金の調達を開始するタイミングを計画していた。シリーズAの資金は、今ごろやっと支出を開始したばかりで、ほとんど残っている。でも今は成長が急激で有料顧客も予想より多いから、市場開拓や、顧客成功チームの編成、エンジニアリングチームを拡張して新しい機能を作っていくなど、新たな資金を要する課題が至近距離内に見えてきた」、という。

Ceze氏によると、TVMの周辺にも強力な成長の兆しがあり、昨年はバーチャルカンファレンスに約1000名が参加した。同社の顧客ベースは、待機者リストに載ってる企業も含めて、非常に多様な業界にまたがっている。防衛産業や金融サービス、ライフサイエンス、自動車会社、そしてさまざまなスタートアップなど、きわめて多種多様だ。

また、OctoMLは最近、顧客でもあるMicrosoftや、Qualcomm、AMDなど業界の大物と組んでオープンソースのコンポーネントの構築と、同社のサービスをもっと広範なモデルに対して最適化する作業に取り組んでいる。広範なモデルという言葉には、もっと大きなモデルという意味も含まれている。

関連記事: Deep Science: Using machine learning to study anatomy, weather and earthquakes(未訳、有料記事)

エンジニアリングという点ではCezeによると、これまでのようにモデルの最適化とチューニングだけでなく、訓練の工程も視野に入れている。MLのモデルの訓練は、あっと言う間に費用がかさむから、その工程のスピードアップは節約に貢献する。だからそれは、OctoMLにとっても売りやすいサービスだ。Ceze氏によると、この方面でのプランは、人びとが自分のMLの訓練とその結果としてのモデルを最適化できる、エンドツーエンドのソリューションを提供し、そしてそれらのモデルを彼らが選んだプラットホームへプッシュする。今現在、そのユーザーはOctomizerが作る出力を自分でデプロイしなければならない。しかしそのデプロイのサポートはすでに、OptoMLのロードマップにある。

Additionの創業者であるLee Fixel氏が、投資家としての見方を語る: 「LuisとOctoMLのチームに初めて会ったとき、彼らがMLのモデルのデプロイのやり方を変えようとしていることが分かった。彼らにはビジョンがあった。そして大企業に対してもMLの変化を推進できる才能と技術もあった。6か月前にOctomizerをローンチしてからは、デベロッパーやデータサイエンティストたちがMLのモデルのパフォーマンスを上げようするとき必ず使うソリューションになりつつある。同社の今後の成長をサポートしていくことが楽しみだ」。

関連記事: 機械学習モデルをさまざまなハードウェアに合わせて最適化するOctoMLが16億円相当を調達

(文:Frederic Lardinois、翻訳:Hiroshi Iwatani)

画像クレジット: VCG/VCG/Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MLOpsの自動化プラットホームArriktoが10億円相当を調達

エンジニアとデータサイエンティストがデータをコードのように扱うことによって、機械学習の開発ライフサイクルをスピードアップするArriktoが、今日(米国時間11/16)ステルスを終えて1000万ドルのシリーズAを発表した。このラウンドはUnusual Venturesがリードし、UnusualのJohn Vrionis氏が取締役会に加わった。

ArriktoのCEOで共同創業者のConstantinos Venetsanopoulos氏は、次のように説明する: 「Arriktoの技術により企業は、機械学習のアプリケーションの実装と管理に伴う複雑性を克服できる。弊社は、エンドツーエンドの機械学習パイプラインのセットアップをきわめて容易にする。もっと具体的に言うと、われわれはMLのモデルのプロダクション向けの構築と訓練とデプロイをKubernetesを利用して容易にし、すべてのデータをインテリジェントに管理する」。

今日のデベロッパー中心のプラットホームの多くがそうであるように、Arriktoも「シフトレフト」(前倒し)がすべてだ。同社によると、現状では機械学習のチームとデベロッパーチームが同じ言葉で話をしていない。むしろ、別々のツールを使ってモデルを作り、そしてそれをプロダクションに導入している。

画像クレジット: Arrikto

「DevOpsがデプロイメントをソフトウェア開発ライフサイクル中のデベロッパーへシフトレフトしたように、Arriktoはデプロイメントを機械学習ライフサイクル中のデータサイエンティストにシフトレフトする」、とVenetsanopoulos氏は説明する。

Arriktoはまた、機械学習の実装を多くの企業にとって困難にしている技術的障害を減らすことも狙っている。Venetsanopoulos氏によると、Kubernetesが企業に、シンプルでスケーラブルなインフラストラクチャの形を見せたように、Arriktoは、MLのプロダクションパイプラインのシンプルな形を見せる。しかもそれを、Kubernetesネイティブなやり方で行う。

ArriktoのCEO、Constantinos Venetsanopoulos。画像クレジット: Arrikto

ArriktoのコアにはKubeflowがある。それはGoogleで生まれた、Kubernetes用のオープンソースの機械学習ツールキットだ。そして多くの点でArriktoは、Kuberflowのエンタープライズ対応バージョンと考えることができる。また同社が作ったMiniKFはKubeflowをラップトップで動かせるようにし、そのためにKaleを利用している。それによりエンジニアは、自分のJupyterLabノートブックからKubeflowのパイプラインを構築できる。

Venetsanopoulos氏によると、Arriktoの技術は三つのことをする: Kubeflowのデプロイと管理を単純化して、データサイエンティストが既知のツールでそれを管理できるようにし、データサイエンスのためのポータブルな環境を作って、複数のチームやクラウドにまたがるデータバージョニングとデータ共有ができるようにする。

Arriktoが2015年にギリシアのアテネでローンチしたときは、ほとんど報道もされなかったが、共同創業者のVenetsanopoulosとCTOのVangelis Koukis氏はすでに、そのプラットホームを複数の大企業に採用させることに成功していた。Arriktoの現在の顧客は100社あまりで、同社は名前を具体的に挙げないが、Venetsanopoulos氏によると、世界最大の石油や天然ガス企業も含まれている。

それに、アテネとスタートアップハブは結びつかないかもしれないが、Venetsanopoulos氏によるとそれも変わりつつあり、今では多くの才能が育っている。ただしArriktoは、今回の資金でシリコンバレーに営業とマーケティングのチームを置くつもりだ。Venetsanopoulos氏は曰く、「ギリシアは人材も大学も最上級だが、未開拓だ。競争のないことが、弊社に幸いしているかもしれない」。

UnusualのVrionis氏は、こう言っている: 「エンタープライズはクラウドネイティブなソリューションを利用して機械学習を有効に使おうとしている。今そこに、強力な市場機会がある。Arriktoは、データとモデルとコードのライフサイクル全体をカバーするMLOpsへの革新的で全体的なアプローチを採用している。データサイエンティストたちは、エンジニアリングのチームがいなくても、自分たちが力を持ち、自動化とコラボレーションを増強して、市場化までの時間を加速できる」。

画像クレジット: Arrikto

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

機械学習のモデルの履歴を辿れて最新データで実動試験もできるVertaが10億円を調達

Vertaの創業者でCEOのManasi Vartak(マナシ・バルタク)氏は、MITの大学院在籍時に、機械学習のモデルのバージョン履歴を追跡するオープンソースのデータベースプロジェクトであるModelDBを構想した。卒業後、彼女はそのビジョンをさらに拡張して、モデルのバージョンを追うだけでなく、それらを実際に使用できる方法を提供したいと考え、Vertaが誕生する。

米国時間8月25日、Vertaはステルスを脱し、Intel Capitalが率いるシリーズAのラウンドで1000万ドル(約10億6000万円)を調達した。参加したGeneral Catalystは、同社の170万ドル(約1億8000万円)のシードラウンドをリードしている。

バルタク氏はModelDBでモデルのバージョン履歴を提供するだけでなく、多くの企業にとって難しいことだった、データサイエンティストたちがこれらのモデルをプロダクション(本番使用)へデプロイするためのプラットフォームを作りたかった。さらに彼女はプロダクションであるからには、対象データが過去のものでなく、現在のデータを正確に反映していることも望んだ。

「Vertaはモデルが今でも有効か調べることができ、モデルのパフォーマンスが急に変化したら警告を出す」と同社は説明している。

画像クレジット:Verta

バルタク氏によると、オープンソースのプロジェクトにしたため、会社を早期に投資家たちに売り込むことができ、多くの顧客を惹きつけるという期待感を彼らに持たせることができたという。「シードラウンドも、私が単独かつ初めて起業し、しかも学校を出たばかりの創業者として調達した。これは一般的な資金調達とはまったく違っていたが、それに関してもオープンソースのプロジェクトであることが有利に働いた」と彼女は語る。

確かに、今回のリード投資家であるIntel Capitalの副社長で専務取締役のMark Rostick(マーク・ロスティック)氏は、Vertaが機械学習のモデル制作における基本的な問題を解こうとしていることを理解していた。「Vertaは、企業がAIを採用するときに直面する重要な問題の1つに取り組んでいる。その問題とは、データサイエンティストとデベロッパーの間にあるギャップを橋渡しして、機械学習のモデルのデプロイメントを加速することだ」とロスティック氏はいう。

バルタク氏は、現在の初期的段階で何社の顧客がいるかなどについて語ろうとしなかったが、このプラットフォームを利用している企業はモデルのプロダクションへの移行をかなり速く行えると述べた。

現在、同社社員は9名だが、この早い段階から彼女はダイバーシティに真剣に取り組んでいる。社員構成はインド人4名、白人3名、ラテンアメリカ系1名、アジア系1名だ。すでにかなり多様である。今後、会社が成長していくときも、このような多様性を維持したいと彼女はいう。2020年はさらに15名を採用し、2021年は倍増を予定している。

バルタク氏は、ジェンダーに関しても半々であることを望んでいる。MITの学生時代は、さまざまなプロジェクトでそれを達成できたため、自分の会社でもそうしたいという。雇用の多様化のために、サードパーティであるSweat Equity Venturesの協力を求めている。

彼女によるとプラットフォームの構築は一気にではなく、いろんな機能を実験しながら段階的にやりたい、小さなチームのときからそうしたいという。現時点では、そんなやり方のためにさまざまな既存の機械学習ツールとの相互運用性を試している。例えばオープンソースの機械学習パイプラインツールであるAmazon SageMakerやKubeflowなどだ。

「顧客の成熟度のレベルに合った仕事をすることが重要だ。そこで最近の2つの四半期では、相互運用性のあるシステムの構築に力を入れてきた。それにより、まるでLogoのブロックのようにコンポーネントを選んで拾い上げ、エンドツーエンドまでシームレスに動くシステムを作れる」とバルタク氏は語った。

画像クレジット: Verta

原文へ
(翻訳:iwatani、a.k.a. hiwa

免疫システムの完全なマッピングを目指すImmunai、細胞療法と癌免疫療法に新しい道を拓く

この2年間、Immunai(イミュナイ)は、あらゆる患者の免疫システムをマッピングする技術の開発を密かに進めていた。

ハーバード大学とMITで学び博士号を取得した研究者Noam Solomon(ノーム・ソロモン)氏と、元Palantir(パランティア)の技術者Luis Voloch(ルイス・ボロシュ)が創業したImmunaiは、この2人の計算生物学とシステム工学の興味がきっかけだった。2人が、スタンフォード大学腫瘍免疫科教授のAnsuman Satpathy(アンスマン・サトパシー)氏と、パーカー癌免疫療法研究所でデータサイエンティストとして働いていたDanny Wells(ダニー・ウェルズ)氏と出会ったことから、起業につながる道筋が明らかになった。

「私たちは互いに、私たちにはこの仕事に導入すべきテクノロジーと機械学習のあらゆる知識があり、アンスとダニーには単一細胞生物学の知識があると考えていました」とソロモン氏は話す。

今、その存在を公にし、Viola VenturesやTLV Partners,を始めとする投資会社から2000万ドル(約21億ドル)の資金調達を行ったことを発表した。同社は今後、人材採用を強化し、すでに強固な基盤のある研究と開発活動をさらに拡張しようと考えている。

Immunaiによれば、同社はすでに、10件を超える医療機関との臨床パートナーシップを、そしていくつものバイオ医薬品メーカーとの商業的なパートナーシップを結んでいるという。またすでに「PD-1阻害の後の抗腫瘍T細胞の起源について審査済みの論文を公開した」とImmunaiは話している。

「私たちは複雑な工学的パイプラインを組み入れようとしています。数百人の患者と数千のサンプルに対応できる規模に拡大したいのです」とウェルズ氏。「現在、癌治療の世界では、間もなくチェックポイント阻害薬と呼ばれる新薬が発売されます。(私たちは)そうした分子の機能を理解し、新しい組み合わせと新しいターゲットを見つけ出そうとしています。そのためには、免疫システムを完全な粒度で見る必要があります」。

「それを可能にするのが、Immunaiのハードウェアとソフトウェアの組み合わせだ」とウェルズ氏は説明する。「これは単一細胞プロファイリングのための垂直統合プラットフォームです」と同氏。「さらに私たちは先へ進み、そこにどのような生物学があるかを見極め、それを新しい組み合わせデザインの中で解明して治験に役立てます」。

細胞療法と癌免疫療法は医療を変え、さまざまな病状に新しい治療法をもたらしたが、免疫システムが複雑なあまりに、こうした治療法の開発者たちは、その療法の免疫システムへの影響に関する見識をほとんど持っていない。患者はみな違うため、製品にバリエーションを持たせることで、患者の治療効果が大きく変わると同社は言う。

画像クレジット:Andrew Brookes/Getty Images

immunaiには、個々の血液サンプルから1TBを超えるデータを生成し細胞のプロファイリングを行う単一細胞テクノロジーを利用することで、そうした治療法の開発方法を変革する可能性がある。同社の独自データベースと機械学習ツールは、取得したデータを異なる細胞タイプにマッピングして、分化した要素に基づいた免疫反応のプロファイルを生成する。最終的に、免疫プロファルのデータベースは生物指標の発見を助け、潜在的変化の監視を可能にする。

「私たちの使命は、免疫システムとニューラルネットワークをマッピングすることであり、免疫学の深い知識からもたらされる学習技術を伝達することです」とボロシュ氏は声明の中で述べている。「私たちは、その道に長けたすべての癌免疫療法と細胞療法の研究者を支援するツールとノウハウを作り出しました。これにより、その作用と回復のメカニズムが明らかになり、薬の開発と市場投入がスピードアップします」。

ソロモン氏によれば、製薬会社はすでにこの技術による変革の可能性に気付いているという。同社は今、Fortune 100のある企業と数100万ドル規模の契約交渉の終盤に入っているとのことだ。

同社の初期の研究戦略は、抗PD1分子が導入されたときに免疫系がどのように機能するかを示す内容だった。通常、PD-1の存在はT細胞の生産が抑えられることを意味する。Immunaiの研究は、その反応は腫瘍の中のT細胞で起きているのではないことを示した。ウェルズ氏によれば、腫瘍と闘おうと腫瘍に移動した新しいT細胞で起きているのだという。

「私たちが用いたこのアプローチ全体で、そのすべての兆候が示されています。私たちが正解と考える、こうした疾患の研究に最も強力な方法は、トップダウンで免疫システムを見ることだと確信しています」ボルシュ氏はインタビューの中で話していた。「異なるシナリオをすべて見ることです。上から見れば、他の方法では見ることのできないそのパターンが見えてきます」。

画像クレジット: TEK IMAGE/SCIENCE PHOTO LIBRARY / Getty Images

[原文へ]

(翻訳:金井哲夫)

コンピュータービジョンで製造作業員の動きのエラーを検知、トヨタも手を組むInvisible AI

「組み立て作業」と聞けば製造プロセスでの単純な過程を思わせるかもしれないが、組み立て式家具を購入したことがある読者なら、これがいかに腹立たしく複雑な作業になり得るかお分かりだろう。Invisible AIはコンピュータービジョンを用いて、明らかな危険を回避し、安全性と効率性を維持するため、組み立て作業を行う人々をモニターすることを目的としたスタートアップだ。同社は360万ドル(約3億8000万円)のシードラウンドを活用してこの目的を達成する予定である。

Invisible AIは、高度に最適化されたコンピュータービジョンアルゴリズムを用いてカメラに映る人々の動きを追跡する、内蔵型のカメラコンピューターユニットを製造している。作業員の動きを模範的な動き(作業が正しく実行されている場合の様子)と比較することにより、システムがミスを監視したり、不足パーツや怪我などワークフローにおける問題を特定したりすることができる。

このシステムは一見どうみても、労働者が絶えず上昇し続ける人工的な基準を満たせない場合、それを逐一罰するコンピューターの皮を被った冷酷な監督のようなもののように感じられる。おそらくAmazonはすでに採用しているだろう。しかし、共同創設者兼CEOのEric Danziger(エリック・ダンジガー)氏は、そういった意図はまったくないと説明する。

「この製品の最も重要なポイントは、これが作業者自身のために作られたものだということです。これらの労働には熟練した技術が必要とされ、彼らは仕事に対して大きな誇りを持っています。最前線で仕事をしているのは彼らであり、ミスを見つけて修正することはとても重要な部分です」。

「こういった組み立て作業は、かなり肉体的でペースの速い労働です。15ステップを記憶し、その後場合によってはまったく異なるバリエーションのタスクへ進まなければなりません。すべての工程を頭に入れていなければならずとても難しい仕事です」とダンジガー氏は続ける。「目標はリアルタイムでその流れの一部になるということです。作業者が次のパーツに移る際に、同製品が再確認をして『ステップ8をとばしていますよ』という具合に伝えることができる。これにより多大な苦労を回避することが可能です。たとえケーブルを差し込むという程度のことでも、そこでミスを防げるというのは偉大です。車両がすでに組み立てられた後でミスを見つけた場合、再度分解する必要があるのですから」。

このような動作追跡システムは、それぞれ異なる目的のためにさまざまな形で存在する。たとえばVeo Roboticsは、深度センサーを使用して作業員とロボットの正確な位置を追跡し、動的に衝突を防止している。

しかし、この産業全体での課題は「人の動きをどう追跡するか」ではなく「人の動きを追跡した結果をどのようにして簡単に展開し適用するか」である。システムの導入に1か月、再プログラムに数日かかっていては意味がないのだ。そのためInvisible AIは、コーディングの必要がなく完全にエッジベースのコンピュータービジョンを使用して、導入と管理の簡素化に重点を置いた。

「可能な限り簡単に展開できるようにするのが目標でした。コンピューティングやすべてが組み込まれたカメラを購入し、それを施設に設置し、プロセスのいくつかの例を示してから注釈を付けるだけです。想像されるよりもずっと簡単です」とダンジガー氏。「1時間足らずで稼働を開始できます」。

カメラと機械学習システムをセットアップしたら、そこからはそれほど難しい問題ではない。人間の動きを追跡する機能は、最近のスマートカメラにとってかなり簡単な作業であり、それらの動きをサンプルセットと比較することも比較的簡単だ。動画のキャプション付けや手話の解釈に特化したAIで見られるような(どちらもまだ研究コミュニティーで開発途中である)、人が何をしているのかを推測したり、ジェスチャーの膨大なライブラリーに一致させたりするなどの「創造性」は必要ない。

プライバシーに対する課題や、カメラに常時映っているという事実に不安を感じるなどの可能性については、このテクノロジーを使用する企業がしっかりと対応する必要がある。ほとんどの新しいテクノロジーと同じく、善となる可能性と同様に悪となる可能性も備えている。

Invisible AIを早い段階でパートナーとした企業の1つはトヨタだ。トヨタはアーリーアダプターではあるが、同時にAIと自動化に関して慎重派である。複数の実験の後に到達した同社の哲学は、専門労働者に力を与える、というものだ。このようなツールは、労働者らがすでに行っていることに基づき、体系的な改善を提供する良い機会である。

非情なまでの最適化のため、労働者が非人間的な割り当てを満たすように強いられるAmazonの倉庫のような場所にこのシステムが導入されるというのは簡単に想像がつく。しかしダンジガー氏によると、すでに同社と協同している企業の話では労働者自身による作業改善を促す結果となっているとのことだ。

何年もの間、来る日も来る日も製品を作り続けている従業員は正しい製造方法について深い専門的知識を持っているが、その知識を正確に伝えるのは難しい場合がある。「ボルトで締める際に自分の肘が邪魔にならないよう、こうやってパーツを持つように」とトレーニングで指示するのは簡単だが、それを身につけるのは一筋縄ではいかない。Invisible AIの姿勢と位置の検出機能は、そういったことに役立てることができる。

「個人の一連の作業に要する時間にフォーカスするのではなく、ステップの合理化や反復ストレスの回避などが見られています」とダンジガー氏。

重要なポイントは、この種の機能が、結果を送信するためのイントラネット以外に接続を必要としないコードフリーのコンパクトなデバイスで提供できるということだ。分析するためにビデオをクラウドにストリーミングする必要はなく、必要に応じてフッテージとメタデータの両方を完全にオンプレミスで保持することが可能だ。

世間の魅力的な新テクノロジーと同様に不正使用される可能性も幾分あるが、Clearview AIのような取り組みとは異なり、同製品は悪用を目的として作られたものではない。

「そこには微妙な境界線があります。同製品を導入する企業の性質を反映するでしょう」とダンジガー氏は言う。「弊社とやり取りする企業は、従業員を本当に大切にしており、彼らができるだけ尊重され、プロセスに関与することを望んでいます。そういった事には大いに役立ちます」。

360万ドル(約3億8000万円)のシードラウンドは8VCが主導し、iRobot Corporation、K9 Ventures、Sierra Ventures、Slow Venturesなどの投資家が参加している。

関連記事:いまさら聞けないコンピュータービジョン入門

Category:人工知能・AI

Tags:コンピュータービジョン 機械学習 Invisible AI

[原文へ]

(翻訳:Dragonfly)

赤ちゃんの睡眠モニターカメラとウェアラブルを販売するNanitが22.5億円を調達

新型コロナウイルス感染拡大でベンチャーの資金調達は全面的に不調だが、その中にあって、機械学習を活用したベビーモニターを開発しているNanitは2100万ドル(約22億5000万円)を調達した。

このラウンドには、これまでにも投資していたJerusalem Venture PartnersUpfront VenturesRRE Ventures、Rho Capital Partnersが参加した。同社の資金調達額の合計は5000万ドル(約53億7000万円)となった。Nanitは、今回調達した資金で引き続き製品を開発し、グローバルに拡大していくと述べた。

新型コロナウイルス感染拡大防止のために社会的距離をとるよう求められていることが、Nanitにとってはビジネスを急加速させる要因となっている。Nanitの調べによれば、赤ちゃんの祖父母やおじ、おばのいる家族が同社のアクティブユーザーの20%を占めている。

NanitのCEOのSarah Dorsett(サラ・ドーセット)氏は、ほかの投資家に打診したりあちこち回ったりすることなく今回の資金を調達できたと語る。同社はこれまでに15万台以上のカメラを販売し、30万人以上のユーザーが同社のアプリを使って乳児や1歳児をリモートで見ている。

睡眠モニター兼ビデオデバイスの価格は、壁に取り付けるタイプのカメラが299ドル(約3万2000円)、フロアスタンドタイプが379ドル(約4万700円)だ。現在、Nanitはモニター用デバイスを米国、カナダ、英国で販売している。

同社のアプリは最初の1年間は無料、その後は1カ月5ドル(約535円)で3人まで接続できる。1カ月10ドル(約1070円)で10人、1カ月30ドル(約3220円)で50人まで接続できるオプションもある。新製品として、ウェアラブルで呼吸をモニターするバンド、おくるみ、スリーピングバッグも19.99〜59.99ドル(約2150〜6440円)で販売している。

赤ちゃんの動きのフィードをライブで共有するだけではない。ドーセット氏によれば、赤ちゃんが笑ったりベビーベッドの中で動き始めたりしたときに記録する新機能の公開に向けて準備をしている。

ドーセット氏は発表の中で次のように述べた。「我々は2018年以降驚異的な成長を記録し、最新の資金調達は革新的なコンシューマ製品の市場における信頼と需要の現れだ。子供の誕生は、親だけでなく家族みんなにとって人生で最も重要な出来事だ。家族がどこにいても、我々のテクノロジーで家族をつなぎ、この新しい大切な道のりを共有できることを幸せに思っている」。

前述の呼吸をモニターするウェアラブルはBreathing Wearと名付けられたシリーズで、赤ちゃんの肌にセンサーを取り付けるのではなく、布にプリントされたパターンを読み取って呼吸の動きを監視する製品だ。

RRE Venturesのゼネラルパートナー、Will Porteous(ウィル・ポーテアス)氏は発表の中で「Nanitは、赤ちゃんを寝かしつけるという古くからの問題を解決している。同社の製品によって、我々は『ベビーベッドの中の生活』についての理解を深め、育児の喜びを家族で共有できる。同社は驚異的なプロダクトマーケットフィットを成し遂げ、同社が健康とウェルネスに関する家族や医師のさまざまな不明点を解決する立場にあると我々は確信している」と述べた。

画像:Nanit

[原文へ]

(翻訳:Kaori Koyama)

米国議会図書館が機械学習で300年ぶんの新聞の画像を抽出し検索可能に

昔の事件や人々に関する記録に関心のある歴史家たちは、かつては古い新聞の目録カードをかき分けていたが、次にマイクロフィルムをスキャンするようになり、やがてデジタルリストを検索するようになった。だが現代の技術は、個々の単語や写真に至るまで索引化を可能にした。米国議会図書館では、最新鋭の機械学習を使って1何世紀も前からの新聞記事の写真やイラストをデジタル化し分類する取り組みを進めている。

同図書館の「招聘イノベーター」の座を獲得したワシントン大学研究員であるBen Lee(ベン・リー)氏が主導するプロジェクトNewspaper Navigator(ニューズペーパー・ナビゲーター)では、アメリカの歴史に残る1600万ページぶんを超える新聞の画像を収集しデータを抽出している。

リー氏とその仲間は、昔の新聞や印刷物のデジタル化で先行しているChronicling America(クロニクリング・アメリカ)の仕事に刺激を受けた。Chronicling Americaは新聞のあらゆる内容を光学文字認識(OCR)でスキャンしているが、これはクラウドソース・プロジェクトでもあるため、さらなる分析のための画像の特定や切り出しは人の手が必要だ。ボランティアの作業員は、第一次世界大戦に関係する画像を枠で囲んで説明文を書き写し、画像を分類している。

この限定的な取り組みを見て、リー氏のチームは考えた。「印刷物の画像の特性を生かすものとして、私はそれが大好きでした。そのプロジェクトから生まれた内容の視覚的多様性を見て、純粋に素晴らしいと感じ、米国中の新聞記事を対象にこのような内容を記録できたらどうだろうかと考えたのです」とリー氏はTechCrunchに語った。

彼はまた、ボランティアが作り出したものが、実は機械学習システムのトレーニング用データとして最適であることに気がついた。「これを使ってオブジェクト検出モデルを構築し、あらゆる新聞紙面を読み込ませれば、宝の箱を開けることはできないかと私は自問しました」。

うれしいことに、答えはイエスだった。最初の人力による画像と説明文の切り出し作業を利用し,彼らは、それを自力で行えるAIエージェントを構築した。普通に微調整や最適化のあと、彼らはChronicling Americaがスキャンした新聞記事の完全なデータベースの中にそれを解き放った。

上段左から、画像をダウンロードしてMETS/ALTOでOCR、視覚コンテンツ認識を実行、視覚コンテンツの切り出しと保存、画像埋め込みの生成。下段左から、OCR、予測された境界ボックスからOCRを抽出、抽出されたメタデータをJSON形式で保存

「19日間ノンストップで稼働しました。私が経験した中で最大のジョブです」とリー氏。しかし、結果は驚くべきものだった。3世紀(1789年から1963年)にわたる無数の画像が、それらに本来付属していた説明文から抽出されたメタデータとともに分類されたのだ。この処理が解説されている研究論文は、ここで読める。

説明文が正しいと仮定すると、これらの画像(つい最近までアーカイブを日付ごとに追いかけ、文章をひとつひとつ読んで、片っ端から調べなければ見ることができなかったもの)は、他の言語資料と同じように内容で検索できるようになる。

1870年の米国大統領の写真を探したいなら、もう狙いをつけて何十ページもの新聞を読みあさり写真の説明文の内容を何度も確かめる必要はなく、Newspaper Navigatorで「president 1870」と検索すれば済む。または、第二次世界大戦時代の風刺漫画を見たいなら、日付の範囲を指定するだけで、すべてのイラストが入手できる(彼らはすでに写真を年別のパッケージにまとめていて、その他のコレクションもそうする予定だ)。

下にいくつかの新聞紙面の例を示す。機械学習システムが切り出した枠が重ねられている(注意:帽子の広告が山ほどあり、差別的な内容も含まれる)。

  1. newsnav-examples-4

  2. newsnav-examples-3

  3. newsnav-examples-2

  4. newsnav-examples-1

  5. newsnav-examples-5

少しの間、気楽に眺めるのも楽しいが、重要なのは、これが研究者たち(そしてその他の資料一式)に何をもたらすかだ。研究チームは本日、このデータセットとツールの公開を記念して、データの利用法のアイデアを競うイベントを開催する予定だ。新しい使い道の発見と実用化の方法が得られればと彼らは期待している。

「このデータセットの創造的な利用法をみんなで考える、素晴らしい催しになればと考えています」とリー氏。「機械学習という観点から私が心底ときめいたのは、人々が独自のデータセットを作れるユーザーインターフェイスを構築するというアイデアです。風刺漫画やファッション広告など、自分の興味に応じてユーザー自身が定義し、それに基づいて分類器のトレーニングができるインターフェイスです」。

南北戦争時代の地図を要求したことを想定した検出例。

視点を変えれば、Newspaper NavigatorのAIエージェントは、その他のコレクションのスキャンやデジタル化に使える、より具体的な内容のエージェントの親になることができる。これは実際、米国議会図書館で計画されていることだ。デジタルコレクションの担当チームはNewspaper Navigatorがもたらした可能性と機械学習全般を、おおいに歓迎している。

「私たちが興味を抱いていることのひとつに、私たちが使える検索や発見の手段をコンピューターが拡大してくれる可能性があります」と米国議会図書館デジタル戦略ディレクターのKate Zwaard(ケイト・ツワード)氏は語る。OCRのおかげで、それなしに探せば何週間も何カ月もかかったであろうものが見つけられるようになりました。図書館の蔵書には、美しい図版やイラストが掲載されたものが数多くあります。しかし、たとえば聖母子像にはどんなものがあったかを知りたいとき、一部は分類されていますが、その他のものは本の中にあって分類されていません」。

その問題は、画像と説明文を結びつけるAIが体系的に本を熟読することで、早々に解決できる。

Newspaper Navigatorを構成するコード、画像、そしてそれが生み出した結果のすべては、完全なパブリックドメインとして、目的にかかわらず無料で利用でき、改変もできる。コードは同プロジェクトのGitHubで入手可能だ。

画像クレジット:Library of Congress

[原文へ]

大量の「いいね!」とコメントでインスタを欺く「ポッド」との戦い

ニューヨーク大学(NYU)の研究チームは、Instagramのアルゴリズムを操って露出を高めるために「いいね!」やコメントを組織的に交換するInstagramユーザーグループ(中にはメンバーが数千人になるものもある)を何百個も特定した。さらに同チームは、その研究の一環として、Instagramの投稿にこの手法が使われているかどうかを判断する機械学習モデルのトレーニングも行った。

「ポッド」と呼ばれるこの手法によるアクティビティは、厳密には本物のエンゲージメントとはいえないが、かといって偽のエンゲージメントとも断定できないため、検知や対抗措置の実施が難しい。また、以前は危険度が比較的低いと考えられていたが(偽アカウントやボット使用の問題と比べれば今でも確かに低い)、現在はその規模も影響力も拡大している。

インターネットで検索するとポッドは簡単に見つかる。誰でも参加可能なポッドもある。ポッドの結成場所として最も広く利用されているのはTelegramである。おおむね安全で、チャンネル加入人数に制限がないためだ。ポッド参加メンバーがInstagramに投稿してそのリンクをポッドで共有すると、同じポッドに参加する他のメンバーが「いいね!」やコメントを付ける。すると、その投稿がInstagramの「おすすめ」選定アルゴリズムによって拡散される可能性がはるかに高くなり、オーガニックなエンゲージメントが促進される、という仕組みだ。

互酬性のサービス化

グループのメンバーがお互いの投稿に「いいね!」を付け合う行為は、互酬性の乱用と呼ばれる。ソーシャルネットワークの運用会社もその存在を十分認識しており、この手のアクティビティを削除したことがある。しかし、NYUのTandon School of Engieeringの研究チームによると、この手法が研究されたり詳細に定義されたりしたことはないという。

今回の研究論文の主執筆者であるRachel Greenstadt(レイチェル・グリーンシュタット)氏は、「Instagramはこれまで、他者へのログイン情報提供などの自動化による脅威やボット被害に重点を置いていたのだと思う。我々がポッドを研究したのは、ポッド問題の深刻さが増しており、他の問題に比べて対抗措置を講じるのが難しいためだ」と説明している。

規模が小さければそれほど大きな問題にはならないように感じられるが、同チームの研究ではポッドによって操作された投稿が約200万件、ポッドに参加しているユーザーが10万人以上見つかった。さらに、これは公開されているデータを使って閲覧できる英語表示の投稿のみを調査した結果である。この研究論文はThe World Wide Web Conferenceの発表論文集に掲載された(ここから閲覧可能だ)。

重要なのは、このような互酬的な「いいね!」の付け合いには、形だけのエンゲージメントを増やす以上の効果があるという点である。ポッドに参加している投稿には多数の「いいね!」やコメントが付いたが、これは作為的なエンゲージメントだった。しかしその結果、Instagramのアルゴリズムがだまされてそのような投稿を優先表示するようになり、ポッドに参加していない投稿のエンゲージメントでさえも大幅に増加したのだ。

コメントを求められたInstagramは当初、このような行為は「Instagramのポリシーに違反しており、阻止するために数多くの措置を講じている」と回答し、今回の研究はNYUの研究チームとInstagramの共同研究ではないと述べた。

しかし実際のところ、NYUの研究チームは今回の研究プロジェクトの初期段階からInstagramの不正防止担当チームと接触していた。さらにこの研究結果を見る限り、Instagramがどのような措置を講じているにしろ、少なくともポッド問題に関しては思うような効果が出ていないことは明らかだ。筆者はInstagramの担当者に対してこの点を指摘した。何らかの回答があったら、この記事に追記する予定だ。

ポッド使用は「グレーゾーン」

とはいえ、ポッド禁止に向けてすぐに行動を起こせばよい、というわけでもない。ポッドによるアクティビティは多くの点で、友達同士あるいは興味が似ているユーザー同士がお互いの投稿にリアクションを返すという、Instagramが本来の使い方として意図しているアクティビティと同じだからだ。さらに、ポッド使用が不正行為であると簡単に決めつけられるわけでもない。

グリーンシュタット氏は次のように述べている。「ポッド使用はグレーゾーンで、判断が難しい。Instagramユーザーもそう考えていると思う。どこまでが許容範囲なのか。例えば記事を書いてソーシャルメディアに投稿し、そのリンクを友だちに送ると、その友だちが投稿に『いいね!』を付けてくれる。友だちが記事を書いて投稿したら、今度は自分が同じことをする。これはポッド行為になるのか。お互いに『いいね!』を付けることが問題であるとは必ずしもいえない。コンテンツの拡散・非拡散を判断する上でそのようなアクションをアルゴリズムがどう処理するべきか、ということが問題だ」。

そのような行為を何千人ものユーザーを使って組織的に行い、(一部のポッドグループで行われているように)ポッド参加メンバーに課金まですれば、明らかに不正行為になる。しかし、この線引きは簡単ではない。

それよりも肝心なのは、何をもってポッド行為とするかを定義しなければ線引きすらできない、という点である。今回の研究では、ポッド投稿と通常投稿の「いいね!」とコメントのパターンに見られる違いを精査することにより、ポッド行為の定義が行われた。

「ポッド投稿と通常投稿では、言葉の選択とタイミングのパターンに特徴の違いが見られる」と共同執筆者のJanith Weerasinghe(ジャニス・ウィーラシンゲ)氏は説明している。

容易に想像できることがだが、あまり興味のない投稿にコメントするよう強制されたユーザーは、内容に踏み込んだコメントはせず、「いい写真」とか「すごい」といった一般的な言葉でコメントする傾向がある。ヴィーラシンゲ氏によると、そのようなコメントを禁止しているポッドグループもあるにはあるが、多くはないとのことである。

ポッド投稿で使用される言葉の一覧を見ると、予想通り、フォロワーが多い投稿のコメント欄でよく目にする言葉ばかりだ。とはいえ、このことはInstagramのコメント欄では何といっても全般的に表現の幅が限られることを証明しているのかもしれない。

ポッドで多用される言葉

しかし、何千件ものポッド投稿と通常投稿を統計的に分析した結果、ポッド投稿では「一般的な表現を使った支持」コメントの割合が圧倒的に高く、しばしば予測可能なパターンで出現していることがわかった。

さらに、この分析データを基に機械学習モデルのトレーニングを行い、初見の投稿の中から最高90%の高精度でポッド投稿を特定することに成功した。この方法を使えば次々とポッドを発見できるかもしれないが、それらは氷山の一角にすぎないことを忘れてはならない。

グリーンシュタット氏は「今回の研究期間に、アクセスと発見が容易なポッドをかなりの数、特定できた。しかし今回、ポッド全体の大半を占め、小規模ながら高い利益を生み出してしているポッドを特定することができなかった。そのようなポッドには、ソーシャルメディアにおいて既にある程度の露出実績があるユーザー、つまりインフルエンサーでないと参加できないためだ。我々はインフルエンサーではないため、そのようなポッドに実際に参加して調査することはできなかった」と説明している。

ポッドと、ポッドによって操作された投稿の数はここ2年間で着実に増加している。2017年3月には7000件のポッド投稿が発見されたが、1年後には5万5000件近くまで急増した。2019年3月には10万件を超え、その数は今回の研究データの収集が終わる時点でも増え続けていた。現在、ポッドによる投稿は1日あたり4000回を超えているといっても過言ではなく、それぞれの投稿が、作為的にもオーガニックにも膨大な数のエンゲージメントを獲得している。現在、1つのポッドの参加メンバー数は平均900人で、中には1万人を超える参加メンバーを抱えるポッドもある。

「数人の研究者が、公開されているAPIとGoogleを使ってこのような発見をできたのであれば、なぜInstagramは今まで気づかなかったのか」と思う読者もいるかもしれない。

先ほども触れたが、Instagramは単にポッドを大きな脅威として認識していなかったために、それを阻止するポリシーやツールの開発を進めてこなかっただけなのかもしれない。「偽の『いいね!』、フォロー、コメントを生成するサードパーティ製のアプリやサービス」の使用を禁止するというInstagramのルールがこのようなポッドには適用されないことはほぼ確実だ。なぜならポッド行為は多くの点で、ユーザー間のまったく正当なやり取りと同じだからだ(ただし、Instagramはポッドがルール違反であると明言している)。また、偽アカウントやボットの方がはるかに大きい脅威であることも確かである。

さらに、ポッドが国家による意図的な虚偽情報拡散やその他の政治的な目的で利用される可能性もあることにはあるが、今回の研究中にその種のアクティビティは(それを具体的に探すことはしなかったが)発見されなかった。そのため、現在のところポッドの危険度は依然として比較的低いといえる。

とはいえ、ポッド行為の定義と検知に役立つデータをInstagramが持っていることは明らかであり、そのデータに基づいてポリシーやアルゴリズムを変更することも可能なはずだ。NYUの研究者たちは喜んで協力するだろう。

関連記事:あなたのインスタストーリーが知らないロシア人に見られているワケ

Category:ネットサービス

Tags:Instagram 機械学習 SNS

[原文へ]

(翻訳:Dragonfly)

Googleの失敗から学ぶ、AIツールを医療現場へ適用することの難しさ

AIによる医療分野での魔術的な活躍がよく話題になる。機械学習モデルがまるで専門家のように問題を検出するスクリーニングという分野では、特にそれが言えるだろう。しかし、多くの技術と同じように、試験所でうまくいくことと、実社会で機能することは全く話が違う。Googleの研究者たちは、タイの田舎で行われた診療所でのテストを通じ、その厳しい事実を見せつけられた。

Google Healthは、目の画像を処理し、世界中で視力喪失の主な要因となっている糖尿病網膜症の兆候を見つける深層学習システムを開発した。しかし理論的な正しさとは裏腹に、同ツールは実際の現場テストで実用に向かないことが判明した。結果が安定せず、また現場の診療方法とうまく調和しないため、患者と看護師の両方が不満を訴えている。

ここではっきりさせておくべきことは、得られた結果は苦いものだったとはいえ、この種のテストを行うためには必要不可欠で、かつ道義性のある段階を踏んでいたという点である。また、Googleが体裁の悪い結果を公表したことは評価に値する。さらに、同社の文書を読む限り、担当チームが結果を肝に銘じていることは明らかである(ただし、ブログ記事では実際の経緯をやや楽観的に描いてはいる)。

研究報告では、タイにある数箇所の診療所で、糖尿病網膜症(DR)患者を選別する既存の手順を強化するためのツールの使用経緯が記録されている。既存の手順を手短に説明すると、看護師は糖尿病患者に1名ずつ対応し、目の画像(眼底写真)を撮影し、画像を検査して結果を報告する眼科医へまとめて送付する。患者数が多いため、通常は結果が得られるまで4~5週間かかる。

Googleシステムは、わずか数秒で眼科医レベルの専門作業を完了させる目的で開発された。社内テストでは、90%の精度でDRの度合いを判定している。これで、看護師は病院を紹介して推薦したり、さらなる検査を行う決定を1か月ではなく1分で行えることになる(自動判定は1週間以内に眼科医によってグランドトゥルース検証された)。見事な結果だ-理論的には。

目の画像(眼底写真)

理想的には、同システムはこのような結果を素早く返し、患者も確認できる

しかし、この理論は報告の著者たちが現場へ適用するやいなや、崩壊してしまった。報告には次の通り記載されている。

今回の研究では、11箇所の診療所において、目のスクリーニングプロセスをできるだけ多様に観察した。画像を取得してグレードを判定するプロセスはどの診療所でも同じである。しかし、看護師はスクリーニングのワークフロー構成において大きな自主性を持っており、また、診療所ごとに利用可能なリソースも異なっていた。

目のスクリーニングを行う環境や場所も、診療所に応じて大きく異った。高品質の眼底写真を撮影できるように、周囲を暗くして患者の瞳孔が十分に大きく映すための専用の選別室を設置した診療所は、わずか2箇所にとどまった。

環境条件とプロセスがばらばらであったため、サーバーへ送信された画像もアルゴリズムで要求される高いレベルを満たしていなかった。

この深層学習システムでは検査対象の画像が厳格な基準を満たす必要がある…画像にわずかなぼやけや暗い箇所があれば、明確に発症予測できる場合でも、システムは画像を拒否する。診療所の制約下で繰返し作業する看護師が撮影した画像の一貫性や品質は、システムが要求する高い画質を満足させなかった。このため不満が高まり、仕事量が増加した。

DRの症状を明らかに示しても画質の低い画像はシステムに拒否されるため、手順が混乱し、長引くこととなった。しかし、そもそもシステムへ画像をアップロードできなければ、こうした問題点を扱うことすらできない。

インターネット接続が良好であれば、結果は数秒で表示される。しかし、今回の研究に参加した診療所のインターネット接続は、遅くて不安定な場合が多々あった。このため、画像によってはアップロードに60~90秒かかり、スクリーニングの待ち時間が伸び、1日で処理できる患者数が減ることとなった。ある診療所では、目のスクリーニング中に2時間程度インターネット接続が途切れたため、選別した患者数は予定された200名からわずか100名へ下がった。

「最低限、危害は出ない」原則を思い出す必要があるだろう。新テクノロジーを活用する試みのおかげで、治療を受けられる患者数がかえって減ってしまった。看護師は様々な方法で埋め合わせようとしたが、画像の不安定さやその他の原因が重なり、患者に対して研究に参加しないよう勧める結果となった。

うまくいったケースでも、不慮の事態が発生している。患者は、画像送信後ただちに検査が行われて、次回の診察予約を行う準備ができていなかった。

今回の研究は、前向き研究(プロスペクティブスタディ)として設計されているため、紹介先の病院を訪れる予定をその場で立てなければならない。そのため、第4および第5診療所では、看護師は不要な面倒が増えないように、患者に対して前向き研究に参加しないよう勧告していた。

また、ある看護師はこう述べている。

「(患者)は検査の正確さではなく、その後何をしなければいけないのかを心配しているのだ。結果的に病院へ行かなければいけないのなら、診療所で検査するのは無駄なのではないかという疑問が浮かんでいる。私は患者に対し、「病院へ行く必要はない」と安心させる。彼らはまた、「もっと時間がかかるか?」「別の場所へ行かなければいけないのか?」とも聞く。出かけることができないため、研究にそもそも参加しない人もいる。40~50%の人は、病院へ行かなければいけないと考えて、研究に参加しない。」

もちろん、悪いニュースばかりではない。問題は、混みあったタイの診療所ではAIが何の役にも立たないことではない。課題と場所にソリューションをぴったり合わせなければいけないことだ。わかりやすい瞬間的な自動検査は、うまくいっている間は患者と看護師の両方から歓迎された。時には、目のスクリーニングという行為自体が緊急に対策が必要な深刻なケースを自覚させることに役立っている。当然のごとく、著しく制限されたリソース(現場の眼科医)への依存を減らすという主なメリットは、医療現場の状況を変革させる可能性がある。

しかし、今回のレポートを読む限り、GoogleのチームはこのAIシステムを時期尚早かつ部分的にのみ適用してしまった結果を真摯に受け止めているように見える。彼らはこう述べている。

新たな技術を導入したとき、企画担当者、政策立案者、技術設計者は、複雑な医療プログラムで起こる問題は流動的かつ緊急的であることを考慮していなかった。私たちは、人々のモチベーション、価値観、職業上の信念、そして仕事を形成する現行の規則と繰返し作業など、それぞれの都合を考慮することが、技術の導入を企画する際に不可欠であると考える。

この研究レポートは、AIツールが医療環境でどう効果を発揮するかを解説しており、また技術面の問題や技術を活用する人々が直面する問題の両方を理解できるため、十分に読む価値のある入門書だ。

関連記事:AIとビッグデータが新型コロナとの戦いで奇跡を起こすことはない

Category:ヘルステック 人工知能・AI

Tags:Google Google Heath 機械学習

[原文へ]

(翻訳:Dragonfly)

ファイザーの元科学主任が設立したUnlearn.AIは「デジタルの双子」で臨床試験の高速化と改善を目指す

医療研究の分野では、双子は昔から重要な役割を果たしてきた。特に臨床試験では、遺伝的に近い2人の片方に処置を施すという方法で、双子は治療の有効性の測定に寄与している。米国時間4月20日、Pfizer(ファイザー)の元科学主任が設立し、AIを使ってこのコンセプトをデジタル化する方法を開発したスタートアップが、その研究をさらに進めるための資金を得たと発表した。臨床試験の検査に使用する患者の「デジタルツイン(デジタル上の双子)」のプロファイルを構築する機械学習プラットフォームUnlearn.AI(アンラーンAI)が、シリーズAラウンドで1200万ドル(約13億円)を調達した。

このラウンドは8VCが主導し、前回の投資企業であるDCVC、DCVC Bio、Mubadala Capital Venturesも参加している。

DiGenesis(ダイジェネシス)というこのスタートアップのプラットフォームは、当初は神経疾患、具体的にはアルツハイマー病と多発性硬化症に適用するためのものだったのだが、これらは有効な治療方法がいまだ確立されておらず、既に発症している患者を対象にした臨床試験の実施が非常に難しい。

Unlearn.AIは新型コロナウイルス(COVID-19)パンデミック関連の医療にはほとんど関わっていないものの、臨床試験の改善がなぜ重要なのかを知るいい機会を与えてくれた。この新型ウイルスに対抗するワクチンや治療法をみんなが緊急に競い合う中で、臨床試験のより効果的なアプローチの必要性が注目されている。そこはAIが力を発揮できる分野だ。

Unlearnは、現在のビジネスにおける提携先を公表していない。また実践的な臨床試験を、実際にどこまで実現できているのかも不明だ。今回の資金は、商業的展開に少しだけ近づくためのものと思われる。

「今回の資金調達は、私たちの成長にとって重要な布石だ。既にデジタルツインの研究を開始し、強力なエビデンスでその価値を実証し、臨床試験での成功の可能性を高めつつある規制当局との協力関係を大幅に前進させる力となります」とUnlearn.AIの創設者でCEOのCharles K. Fisher(チャールズ・K・フィッシャー)博士は声明の中で述べている。

「臨床試験は非常に困難な局面にあり、ここ数週間は深刻化する一方です。未来志向の投資家や提携企業の支援をいただき、極めて有能な私たちの人材をさらに成長させ、世界初のデジタルツインのアプローチを支える科学技術をさらに発展させられることを、とてもうれしく思っています」。

フィッシャー博士は、まさにテクノロジーと医療研究の集合体の中を歩んできた。製薬大手のファイザーで科学主任を勤めた経歴に加え、Leap Motion(リープモーション)で働いていたこともある。それ以前には、長年にわたり学術界にて生物物理学の勉強と研究を重ねていた。

Unlearnは昔ながらの機械学習の課題のひとつとして、いわゆるデジタルツインを構築するというアイデアに取り組んでいる。そこでは「デジタルツインを生み出すための疾病専用の機械学習モデルと仮想診療記録を構築するための、患者数万人分もの臨床試験のデータセット」が使われている。

これらは、単なる患者プロファイルとは異なる。デモグラフィック、臨床検査、生体指標に従って人と人とをマッチングさせてある。臨床試験と検査に必要な類似の人間、できれば双子を探す手間を、AIベースの双子を作ることで削減したいという考えに基づくものだ。

Unlearnは、2017年からこのプラットフォームの開発に取り組んできたが、双子(そして医療研究において遺伝子構造が類似した1組の人たち)を使った病理学や治療法の研究は、もう数十年前から始まっている。面白いことに、ある大人気の新型コロナウイルス監視アプリは、ロンドンのキングズ・カレッジ病院と、アメリカのスタフォード大学とマサチューセッツ総合病院が共同で行った長期にわたる双子の調査から生まれている

AIで「人」を作り出し、薬の有効性をテストする研究が広がっているが、それはコンピューターとアルゴリズムを使って薬品の組み合わや治療法を割り出しテストするという、さらに大きな課題へとつながる。以前は、長い時間と大きな資金を費やし、手で行ってきたであろうことだ(医療とは別の応用例として、製品開発がある。一般消費財のメーカーは、新しい石鹸やさまざまな製品の調合をAIプラットフォームで行っている)。

「Unlearnによるデジタルツインの先駆的な利用により、プラシーボを与えられる患者の数を減らすことができ、臨床試験にかかる全体的な時間も短縮できます」と8VCのプリンシパルFrancisco Gimenez(フランシスコ・ヒメネス)博士は声明の中で述べている。「医療とテクノロジーの交差点の投資家として、私たちは、最先端のコンピューター技術と革新的なビジネスモデルを組み合わせて医療の有意義な改善に取り組む企業に情熱を注いでいます。8VCはUnlearnをパートナーに迎え、無作為化臨床試験以来となる薬品の認可プロセスへの大きな挑戦に乗り出せたことで、大変に興奮しています」。ヒメネス氏は今回のラウンドにより、Unlearnの役員に加わった。

画像クレジット: Emsi Production Flickr under a CC BY 2.0 license.

新型コロナウイルス 関連アップデート

[原文へ]

(翻訳:金井哲夫)

Googleの研究でロボット犬の小走りが簡単に

ロボットが優れていればいるほど、その設計の際に参考にされたオリジナルの動物の方が、はるかに優れていることが多い。その理由の一部は、犬のように歩く方法を犬から直接学ぶことが難しいためだ。だがGoogleのAIラボによるこの研究が、その学習をかなり簡単にしてくれるだろう。

カリフォルニア大学バークレー校との共同研究であるこの研究の目的は、対象(模範的な犬)から、軽い小走りや方向転換のような「敏捷な行動」を、効率的かつ自動的に四足歩行ロボットに取り入れる方法を見つけることだった。この種の研究はこれまでも行われてきたが、研究者のブログ投稿が指摘しているように、確立されたトレーニングプロセスを実施するためには「しばしば多くの専門家の洞察を必要とし、多くの場合、望ましいスキルごとに時間のかかる報酬調整プロセスを伴う」ことがあった。

もちろんこのやり方はうまくスケールアップすることはできず、動物の動きがロボットによって十分に近似されることを確実にするためには、手動調整が欠かせなかった。どんなに犬っぽいロボットであっても、実際には犬ではない。そして実際の犬の動き方はロボットが動くべきやり方とは異なっている可能性があり、そのことでロボットが倒れたり、ロックしたり、その他の失敗が引き起こされる。

Google AIプロジェクトは、通常の手順に制御されたランダム性を追加することで、これに対処している。通常は犬の動きがキャプチャされて、足や関節などの重要なポイントが注意深く追跡されている。そうしたポイントは、デジタルシミュレーションの中で、ロボットの動作として近似される。ロボットの仮想バージョンは、犬の動きを自分自身で模倣しその過程で学習を行う。

そこまではまあ上手くいく。だが真の問題は、そのシミュレーションの結果を使用して実際のロボットを制御しようとするときに発生する。現実の世界は、理想化された摩擦法則などがを持つ2D平面ではないからだ。残念ながらそれが意味することは、修正されていないシミュレーションベースの歩行では、ロボットが地面に転倒してしまう傾向が出るということなのだ。

これを防ぐために、研究者たちは仮想ロボットの重量を増やしたり、モーターを弱くしたり、地面との摩擦を大きくしたりして、シミュレーションで使用する物理パラメータにランダム性の要素を加えた。これにより、どのように歩くかを記述する機械学習モデルは、あらゆる種類の小さなばらつきや、それらがもたらす複雑さを考慮しなければならなくなり、それらを打ち消す方法も考えなければならなくなった。

そうしたランダム性に対応するための学習を行ったことで、学習された歩行方法は現実世界でははるかに堅牢なものとなり、目標とする犬の歩き方をまあまあのレベルで真似ることができ、さらには方向転換や回転のようなより複雑な動きも、人の手による介入なしに、少しばかりの追加の仮想トレーニングで行うことができるようになった。

当然のことながら、必要に応じて手動で微調整を動きに追加することもできるが、現状ではこれまで完全に自動で行うことができたものよりも、大幅に結果は改善されている。

同じ投稿に記載されている別の研究プロジェクトでは、他の研究者グループが、ロボットに指定された領域の外を避け、転倒したときには自分で起き上がるようにさせながら、自律的に歩くことを教えたやり方を説明している。これらの基本的なスキルが組み込まれたロボットは、人間の介入なしに連続してトレーニングエリアを歩き回り、その結果かなり満足できる歩行スキルを習得できた。

動物から敏捷な行動を学習することに関する論文はこちらで読める。また、ロボットが自律的な歩行を学習することに関する論文(バークレー大学とジョージア工科大学との共同研究)は、こちらで読むことができる。

原文へ

(翻訳:sako)

ARMは新しいCPUのCortex-MとNPUのEthos-UでAIに注力

ARMは米国時間2月10日、2つの新しいプロセッサーを発表した。あるいは、見方によっては1個半というべきかもしれない。世界中の大半のスマホやスマートデバイス用のチップを設計し、パワーを供給する同社は、最新のCortex-Mプロセッサ(M55)とArm Ethos-U55マイクロ・ニューラル・プロセッシングユニット(NPU)を発売した。

画像クレジット:SAM YEH/Contributor/Getty Images

前任機同様、新しいCortex-M55も、Armの組み込みデバイス向けのプロセッサーだ。これまでにArmのパートナーは、Cortex-Mのデザインに基づいて、500億個以上のチップを製造した。この最新バージョンは、もちろんさらに高速で、電力効率にも優れているが、Armとしては主に機械学習のパフォーマンスに重点を置いたものとなっている。Armによれば、M55は、ベクトル計算を高速化するためのArm独自のHeliumテクノロジーに基づく最初のCPUであり、MLモデルの実行が以前のバージョンよりも最大15倍速くなっているという。

多くのユースケースでは、M55はもちろん十分に速い。しかしさらにMLパワーを必要とする場合には、Ethos-U55が、デバイスメーカーにそのパワーを提供できる。これなら、Cortex-Aのエコシステムにステップアップする必要もない。ArmのスタンドアローンのEthos NPUと同様、これらのチップは機械学習のワークロードを高速化することができる。ただしU55はシンプルな設計となっていて、M55、M33、M7、M4など、最新のCortex-Mプロセッサとの組み合わせでのみ動作する。両者を組み合わせて使うことで、機械学習のパフォーマンスを最大480倍まで高速化できる。

「近年を振り返ってみると、人工知能はクラウド上でのデータ分析の方法に革命をもたらしました。そして、特に今日のスマートフォンのユーザー体験を増強したのです」と、Armのプロダクトマネージメント担当取締役、トーマス・ローレンサー(Thomas Lorenser)氏は語った。「しかし、次に来るもの、あるいは次のステップは、私にとってさらにエキサイティングです。どこでもAIを利用できるようになるのです。そしてAIのメリットが、マイクロコントローラーによるIoTエンドポイントでも享受できるようになります。つまり、はるかに大規模なユーザーとアプリケーションにも届くのです。その規模は、文字通り数十億以上にもなるでしょう」。

この言葉が、Cortex-MとEthos-Uの組み合わせの意味をよく表している。ここでのアイデアは、より多くのパワーを隅々にまでもたらすということ。多くのユースケースでは、クラウドへデータ送信するのは非現実的なのだ。ローレンサー氏も強調したように、無線通信によってクラウドにデータを送信するのは、AIモデルをローカルで実行するよりも多くのエネルギーを消費することになりかねない。

「初期のAIの議論の多くは、クラウド空間での処理についてのものが大勢を占めていたでしょう。しかし私たちが注目してきたのは、IoT空間でのイノベーションであり、実際の実装と展開です。これは大規模なものであり、非常にすばらしいユースケースがあります」と、Armの機械学習のコマーシャルおよびマーケティング担当副社長、デニス・ローディック(Dennis Laudick)氏は付け加えた。

原文へ

(翻訳:Fumihiko Shibata)

機械学習を自動化するPecan.aiが約12億円を調達

米国時間1月28日、ビジネスアナリストが自動で機械学習モデルを構築できるようにするスタートアップとして突如姿を現したPecan.aiは、シリーズAで1100万ドル(約12億円)を調達したと発表した。

画像:Stuart Kinlough / Getty Images

このラウンドを主導したのはDell Technologies CapitalとS Capital。非公開だったシードラウンドの400万ドル(約4億3000万円)と合わせて、ここまでの合計で1500万ドル(約16億3000万円)を調達した。

CEOのZohar Bronfman(ゾーハ・ブロンフマン)氏は、10年来の知り合いである共同創業者のNoam Brezis(ノーム・ブレジス)氏とともに、機械学習の自動化プラットフォームの構築を目指してこの会社を始めた。機械学習モデルの構築に関わる作業の多くはアルゴリズムが使える形のデータを取得することであると見て、こうした作業をPecanで自動化した。

ブロンフマン氏は「Pecanの革新的なところは、データの準備、エンジニアリング、処理、そしてテクニカルなさまざまなステップを(ユーザーに代わってすべて)実行することだ」と説明する。

ターゲットとなるユーザーはBIや分析ツールを使うビジネスアナリストだ。このようなユーザーはデータ分析に機械学習を活用したいと思っているが、そのスキルが不足している。「ビジネスアナリストは、データのこともビジネスの課題もよく知っていて、経営者にその問題を直接提起する。そして現在は基本的な分析をしている」とブロンフマン氏は語る。

Pecanにはビジネスによくある問題に答えるテンプレートが用意されている。テンプレートには2つのカテゴリーがある。ひとつはどの程度のチャーン(解約)があるかといった顧客の問題に関するもので、もうひとつはリスクや不正手段といったビジネス運営の問題に関するものだ。どちらにも属さない問題の場合はオリジナルのテンプレートを作ることができるが、この方法は相当高度なユーザー向けだとブロンフマン氏は言う。

Pecanのテンプレートカタログと、さまざまなデータソースからチャーンのデータを取得する画面(図:Pecan.ai)

テンプレートを選択し、データベースやデータレイク、CRMのリポジトリといったデータソースを指定すると、Pecanはデータソースに接続し、データをダッシュボードに表示する。アルゴリズムを書き出して外部サービスやアプリケーションで使うこともできる。またPecanが自動で、たとえばチャーンレートなどアルゴリズムが計算したデータでデータリポジトリを更新することもできる。

共同創業者の2人は、創業した2016年からこのプラットフォームを作り、ここ1年半ほどは顧客にベータ版を提供してきた。そしてこのたび姿を現し、本格的に市場に参入した。

ブレジス氏は現在の拠点であるテルアビブに残ってエンジニアリングを担当する一方、ブロンフマン氏はニューヨークに移って米国にセールスとマーケティングのためのオフィスを開設する計画だ。初期段階のスタートアップながら約12億円の資金を得て製品を市場に投入し、成り行きを見ていく。

[原文へ]

(翻訳:Kaori Koyama)

機械学習のDataRobotが前処理のPaxata買収、プラットフォーム強化へ

各種の機械学習サービスの自動化がトレンドになっているが、この分野の有力企業であるDataRobotは、機械学習のためのデータを準備するプラットフォームを開発・運営するPaxataを買収することを発表した。買収予定金額などの詳細は明かされていない。Paxataはこれまでに計9000万ドル(約98億4400万円)の資金を調達したと発表している。

DataRobotは現在まで、開発ワークフローのうち主として機械学習とデータサイエンスの分野に注力していた。モデルのデザインとテスト、それに続くシステムの構築等だ。利用するデータの準備はPaxataなどほかのベンダーに任せていたが、このギャップを埋めるため、DataRobotは9月に2億600万ドルの資金(約225億円)を調達している。

DataRobotのプロダクト開発およびカスタマー・エクスペリエンス担当シニア・バイスプレジデントを務めるPhil Gurbacki(フィル・グルバッキー)氏はTechCrunchの取材に対して次のように述べた。

「DataRobotは長年機械学習に集中してきたため、この分野で成果を得ることが可能ないくつかの優れたデータ準備システムが存在することに気づいていた。我々は機械学習モデル構築のためのユニークで実効あるデータ準備を構築することができた。このシステムはDataRobotの知識とノウハウをベースに我々のプラットフォームにPaxataのデータ準備ツールを統合したものだ」。

Paxataの共同創業者でCEOのPrakash Nanduri(プラカシュ・ナンドゥリ)氏は両社は統合に向けた適合性が非常に高いことを認めて次のように述べた。「DataRobotのユーザーはそれぞれにデータ、情報の管理の問題を抱えている一方、Paxataは急速にユーザーを増やし、データから価値を生み出す手助けをすることが可能になる。この統合により、ユーザーにとっての両社の価値は指数関数的にアップする」。

DataRobotがボストンに本拠を置くのに対し、Paxataはカリフォルニア州レッドウッドのスタートアップだ。今後はPaxataはDataRotの西海岸支社を兼ねることになる。両社合計して100人あまりの社員は全員がDataRobotに所属することとなる。

買収によりPaxataはDataRobotプラットフォームに密接に統合されることなるのはもちろんだが、Paxataプロダクトはスタンドアロンのブランドとして従来どおり提供が続くという。

PitchBookによればDataRobotは総額4億3100万ドルの資金を調達している。前述のように最近のラウンドでは2億600万ドルを調達した。このときDataRobotは「適切な対象があれば(この資金で)買収を検討したい」と述べていた。実際、この案件では両社の主力事業が補完関係にあるだけでなく顧客も重複しているためマッチ度は高い。買収手続きは年来にも完了する見込みだ。

画像:Getty Images

原文へ

(翻訳:滑川海彦@Facebook

AWSがウェブベースの機械学習用IDE「SageMaker Studio」を発表

AWSのCEOであるAndy Jassy(アンディ・ジェシー)氏は米国時間12月3日、re:InventカンファレンスでSageMaker Studio発表した。機械学習ワークフローを構築し、トレーニングするためのウェブベースのIDEだ。データサイエンティストが仕事を始めるために必要なものすべて、つまりノートブック、データセット、コード、モデルなどを編成するための手段が含まれている。とにかく始めるために必要な、すべての機械学習ツールと成果のワンストップ・ショップになることを目指したもの。

Studioの中核には、同じプロジェクトに対して作業している他のユーザーと、プロジェクトやフォルダを共有する機能もある。そこには、ノートブックや成果について議論する機能も含まれている。

そうしたモデルもトレーニングする必要があるので、当然ながらこのサービスも、AWSのSageMaker機械学習サービスに統合されている。そのサービスは、ユーザーのニーズに応じて自動的にスケーリングされる。

Studio本体に加えて、Studioに統合されることになるSageMakerの他の多くの部分のアップデートも発表された。そうした機能のほとんどは、Studioの内部で実行されるが、スタンドアロンのツールとして使用することも可能だ。その中には、デバッガ監視ツール、それにAutopilotが含まれる。Autopilotは、ユーザーのデータに基づいて、最適なモデルを自動的に作成してくれるもの。どのような判断によってモデルを構築したかを、詳細に可視化する機能もある。

これに関連してAWSは、SageMaker Notebooksも発表した。これもStudioに統合される。これは、本質的にマネージドサービスとしてのノートブックだ。必要に応じてインスタンスを自動的にプロビジョニングしてくれるため、データサイエンティストが自らプロビジョニングする必要はない。

Studioを利用することで、より広範なデベロッパーにとって、モデルの構築が身近なものになる、というのが理想だ。AWSでは、これをスタックのミドルレイヤーと呼んでいる。機械学習を実践する人が、あまり詳細を掘り下げなくても、実質的なコントロールがしやすいものになることを意図したものだ。

原文へ

(翻訳:Fumihiko Shibata)

AWSのCodeGuruは機械学習を応用してコードレビューを自動化

AWSは米国時間12月3日、コードレビューを自動化する機械学習ベースの新サービスのCodeGuruを発表した。同社内でコードレビューを実施して収集したデータに基づくもの。

デベロッパーは、コードを記述したらプルリクエストにCodeGuruを追加するだけでいい。今のところ、GitHubとCodeCommitをサポートしている。CodeGuruは、Amazon社内のレビューと、約1万件におよぶオープンソースのプロジェクトのレビューから得た知識を利用して問題を見つけ、必要に応じてプルリクエストにコメントする。問題を特定するのは当然として、修正方法を提案するほか、関連するドキュメントへのリンクも示してくれる。

CodeGuruには、AWS自身のベストプラクティスが蓄積されている。一般的な問題に加えて、並行処理に関する問題、リソースの不適切な処理や入力の検証に関する問題も指摘してくれる。

AWSとAmazonのコンシューマー部門は、ここ数年、CodeGuruのプロファイラー部分を利用して、「最も高くつく1行のコード」を見つけてきた。その数年間、同社のアプリケーションが大規模なものになっていく中で、CPUの利用率を325%以上向上させ、コストを36%も削減したチームもあったという。

原文へ

(翻訳:Fumihiko Shibata)

業界を混乱から救うため、リサイクルロボット企業が17億円を調達

デンバーに拠点を置くAMP Roboticsによって開発されたリサイクルロボットに、投資家たちが1600万ドル(約17億円)という資金を注ぎ込んだことで、ゴミの山から宝を掘り出す問題は、ハイテクなソリューションを見つけつつあるようだ。

リサイクル業者たちにとって、業界の問題に取り組むロボットの商用化は、これ以上ないというほどのタイミングでやってきた。かつて安定していた彼らのビジネスは、貿易戦争と低い失業率によってその足元をすくわれてきたからだ。

かつてリサイクルビジネスは、(中身の質には関係なく)どんな廃棄物でも中国の買取に任せることができていた。しかし約2年前、中国はもはや世界のゴミ捨て場として振る舞うことはやめることを決定し、他の国から喜んで受け取る原材料の種類に対して、厳しい基準を設けた。その結果は、リサイクル施設のコストを押し上げ、今ではゴミをより効率的に分別する必要に迫られている。

また同時に、低い失業率によって、基本的に人間が廃棄物をリサイクル可能な材料とゴミに手で分別しなければならない施設での、労働力確保が厳しいものになっている。

経済的な現実を目の前にして、リサイクル業者たちはAMPの技術に注目している。これはコンピュータービジョン、機械学習、ロボットによる自動化を組み合わせて、施設の効率を改善する技術だ。

trash cans

写真提供:Flickr / Abulla Al Muhairi

それが、同社の最新ラウンドを主導したSequoia Capitalを引きつけたのだ。国際市場のへの展開を睨み、同社は調達した1600万ドル(約17億円)のシリーズAの資金を、製造能力の向上と成長の加速に注ぐ予定だ。

「テクノロジーでリサイクル産業の経済性を変革するAMPと提携できることに大いに興奮しています」と声明で語るのは、SequoiaのパートナーであるShaun Maguire(ショーン・マグワイア)氏だ。「ここ数年の間、業界は労働力不足と商品価格の低下によって利益幅を圧迫されてきました。その結果、業界は積極的にコスト削減の代替手段を探し、より価値の高いリサイクル可能物を回収することで収益を増やす機会を追加てきました。その中でAMPが主要なソリューションとして浮上しているのです」。

この資金は「今後の守備範囲を広げる」ために使われる、と最高経営責任者のMatanya Horowitz(マタニャ・ホロウィッツ)氏は語る。リサイクル施設がバイヤーに出荷できる材料の、分別コストを削減し品質を改善するだけでなく、同社のコンピュータービジョンテクノロジーは、実際にブランドパッケージを識別し、各企業が自社の製品ライフサイクル管理を改善するために使用するのに役立つ。

「私たちは…それがコカ・コーラ缶なのかペプシ缶なのか、それともスターバックスのコップなのかを識別できます」とホロウィッツ氏は言う。「人々がリサイクルのために製品をデザインすることを手伝うことができるように…私たちはレポート機能を開発していますが、それがお客さまから、高い興味を持っていただいています」。

ホロウィッツ氏によれば、ロボット、コンピュータービジョン、機械学習の組み合わせは、リサイクル業界以外にも潜在的な用途があるという。自動車のスクラップと建設廃棄物は、同社がソフトウェアとハードウェアの組み合わせの適用に関心を寄せているその他の分野だ。

一方、中核事業のリサイクル向けは上向いている。10月には、同社はフロリダのSingle Stream Recyclersで14台のロボットの設置を完了した。リサイクル業界で一度に設置されたロボットとしては最大規模であり、人間に比べてより高度な正確性をもち2倍の速さで分別を行うことかできる。それらが、プラスティック、各種ケース、繊維、そして金属などの選別ラインに投入されたと同社は述べている。

AMPのビジネスには、ロボットサービスの提供と直接販売オプションという2つの独立した収益源があり、カリフォルニア、コロラド、インディアナ、ミネソタ、ニューヨーク、ペンシルベニア、テキサス、バージニア、そしてウィスコンシンの各サイトで導入を行っている。

同社がコア事業で追求しているものは、BV、Closed Loop Partners、Congruent Ventures、そしてSidewalk Infrastructure Partners(新しいインフラストラクチャプロジェクトをサポートするテクノロジーに投資する、Alphabet子会社からのスピンアウト)などの初期投資家たちに有効性を認められている。

Sidewalk Infrastructure Partnersで、自社のAMP Roboticsへの投資を主導したプリンシパルであるマイク・デルシア(Mike DeLucia)氏にとって、この取引は、彼の会社が今後資本を投入する予定の場所を指し示している。

「物理的な資産をより効率的に運用できるようにする技術です」と彼は言う。「私たちの目標は、本当にエキサイティングなインフラストラクチャプロジェクトを可能にするテクノロジーを見つけて、それらを支援し、それらと協力して現実の物理的な世界でプロジェクトを提供することです」。

デルシア氏や、投資会社Congruent VenturesのAbe Yokell(エイブ・ヨーケル)氏などの投資家たちは、リサイクルはまだ始まったばかりだと考えている。AMP Roboticの機械学習およびコンピュータービジョンテクノロジーの用途は、リサイクルセンターをはるかに超えた場所に多数考えることができる。

「テクノロジーが都市環境にどのように関わることができるかを考えたとき、1つの適用分野はマシンビジョンです」とヨーケル氏は言う。「(機械学習)ニューラルネットが実際の環境に適用できるようになって、より安価で簡単に展開できるようになりました」。

[原文へ]

(翻訳:sako)

Microsoft AzureがFarmBeatsのプレビュー版を公開し農業テックに参入

Microsoft(マイクロソフト)がフロリダ州オーランドで開催中のイベント「Ignite」で、同社はこれまで主に研究目的だったプロジェクトのAzure FarmBeatsを、パブリックプレビューとしてAzure Marketplaceで米国時間11月4日から公開すると発表した。FarmBeatsは、IoTセンサー、データ分析、機械学習を組み合わせた同社のプロジェクトだ。

GROSSDERSCHAU, GERMANY – AUGUST 14: In this aerial view a combine harvests summer wheat at a cooperative farm on August 14, 2015 near Grossderschau, Germany. The German Farmers’ Association (Deutscher Bauernverband) is due to announce annual grain harvest results this week. Some farmers have reported a disappointing harvest due to the dry weather in recent months. (Photo by Sean Gallup/Getty Images)

この日の発表でマイクロソフトは「FarmBeatsの目的は、農家が自分の農場のデータとデータドリブンの洞察によって理解を深め直感を強化するものだ」と説明した。FarmBeatsは、センサー、衛星、ドローン、気象観測などさまざまなソースからデータを集め、AIと機械学習によって農家にアクション可能なインテリジェンスを提供することを目指している。

さらにFarmBeatsは、ここで収集され、評価されるデータを利用するアプリを作る開発者のためのプラットフォーム的なものになることも狙っている。

マイクロソフトは開発プロセスに関し、次のように説明している。衛星画像は活用するが、それで農場のすべてのデータを捉えられるわけではない。現場に設置されたセンサーなどのデータが必要で、さまざまな種類のデータをまとめて分析する必要がある。また農場ではインターネットの接続環境が十分でないことも多いため、FarmBeatsはテレビの空いている周波数帯域を利用して接続するマイクロソフトの取り組みを初めて利用するチームになった。そしてもちろん、データの収集にはAzure IoT Edgeを活用する。

[原文へ]

(翻訳:Kaori Koyama)

Streamlitがオープンソースの機械学習アプリ開発フレームワークを公開

画像クレジット:Dong Wenjie/Getty Images

Streamlitは、GoogleXとZooxで働いていた経験を持つ業界のベテランエンジニアが立ち上げた、新しい機械学習のスタートアップ。これまでに、600万ドル(約6億4700万円)のシード投資を受けている。米国時間の10月1日、機械学習エンジニアが、カスタムなアプリケーションを簡単に開発できるようにする、フレキシブルなツールをオープンソースで公開した。機械学習に関するデータを、それぞれのモデルに従って調査するためのもの。

シードラウンドは、Bloomberg Betaも参加して、Gradient Venturesが主導した。また、有力な個人投資家も参加している。たとえば、Color Genomicsの共同創立者、Elad Gil氏、Angelsの創立者、Jana Messerschmidt氏、Y Combinatorのパートナー、Daniel Gross氏、Dockerの共同創立者、Solomon Hykes氏、Insight Data ScienceのCEO、Jake Klamka氏などだ。

Streamlitの共同創立者のエイドリアン・トロイユ(Adrien Treuille)氏によれば、彼ら自身が機械学習エンジニアなので、エンジニアのニーズがよく理解でき、その要求に合致したツールが開発できたのだという。1種類のツールで何にでも対応するというのではなく、さまざまな要求に応えられるフレキシブルなものを開発することが、特に重要だった。データの性格は、エンジニアが取り組んでいるものによって異なるからだ。

「Streamlitは、実際にこの市場でユニークな地位を確保していると考えています。他のほとんどの会社は、基本的に機械学習のワークフローの一部をシステム化しようとしています。私たちは、いわばレゴブロックのようなものをエンジニアに提供して、作りたいものを自由に開発できるようにしているのです」と、トロイユ氏は説明した。

Streamlitを使って開発されたカスタムな自動運転車のデータアプリ。機械学習エンジニアがデータを研究できるようにする

トロイユ氏によると、熟達した独自のスキルを持つ機械学習エンジニアでも、膨大な量のデータを理解するためのツールを開発するのに、結局のところ膨大な時間を費やすことになってしまっているという。Streamlitは、エンジニアが使い慣れているプログラミングツールを使って、そうしたニーズに合わせたツールを素早く開発できるよう、支援することを目指している。

機械学習エンジニアは、わずか数行のコードで、データを理解するためのツールを手早く開発し始めることが可能となる。それにより、データの種類に応じて、適切な方法でデータを扱えるようになる。たとえば、一連のスライダーを用意して、それぞれ異なる変数を調整することで、データの表示を操作したり、シンプルにデータのサブセットを表示する表を作成して、エンジニアに分かりやすく表示したりする、といったもの。

トロイユ氏によれば、このツールセットは、機械学習エンジニアが、自分のモデルのデータを扱う方法を劇的に変える可能性を秘めている。「機械学習エンジニアとして、これまでにこうした問題に遭遇し、その課題を解決するためにどうすればよいかを知っている人間として、もっといい方法があること、それもちょっとやそっとではないことを発表できることにワクワクしています。これまでは、4週間もの期間と、1万5000行のコードを必要としていたプロジェクトが、たった半日で片付いてしまうこともあるでしょう」。

このツールキットは、すでにGitHubからダウンロード可能となっている。

原文へ

(翻訳:Fumihiko Shibata)

アップルが最新iPhoneのカメラにML合成技術「Deep Fusion」のベータを導入

米国時間10月1日、Apple(アップル)は新しいiPhoneのカメラでDeep Fusionのベータ版を使えるようにした。これはiOSのアップデートとして提供される。Deep Fusionは複数画像をピクセルごとに合成して画質をアップするテクノロジーで、従来のHDRよりも高度な処理だ。特に、皮膚、衣服、植生のような複雑な対象の描写で威力を発揮するという。

今回のリリースはデベロッパー向けベータ版で、iPhone 11のカメラでは広角レンズが、 iPhone 11 ProとPro Maxではワイドに加えて望遠レンズがサポートされる。ただし超広角はサポートされない。

Appleによれば、Deep Fusion処理にはA13 Bionicプロセッサーが必要とのこと。つまり上記以外の旧モデルではこの機能は利用できない。

iPhone 11 Proのレビューでも詳しく説明してきたが、新しいiPhoneは写真の撮影にあたってソフトと専用ハードの両面から機械学習を積極的に利用している。

iPhone 7でAppleは写真の画質を改善するために広角レンズと望遠レンズから得られる情報を合成し始めた。このプロセスはユーザーの介入を必要とせずバックグラウンドで自動的に行われた。Deep FusionはこうしたAppleの写真哲学をさらに一歩先に進める素晴らしいテクノロジーだ。

E020289B A902 47A8 A2AD F6B31B16BEC8

Deep Fusionは一定のシチュエーションで自動的に起動されて画質を改善する

光源の状態によって異なるが、広角側での撮影ではナイトモードが使われる10ルクス以下の暗い状況では自動的に起動する。望遠側では常時起動しているが、極めて明るい撮影状況ではスマートHDRに切り替わる。ハイライトの光量が非常に大きい場合にはこちらのほうが有効だという。

AppleはDeep Fusionを利用した撮影サンプルを多数発表しているのでそれらを記事にエンベッドした。Deep Fusionが実際に使えるようになったので、利用した場合と利用しない場合を比較した写真もアップされるようになるだろう。

Appleによれば、Deep Fusionの仕組みは概ね以下のようなことだという。

カメラは段階的にEV(光量)値を変えるブラケット撮影を行う。最初はEV値をマイナスに振り、シャッター速度が速い暗めの映像を撮影する。ソフトウェアはここから鮮明さを得る。次に適正EV値で3枚撮影し、最後にシャッター速度を遅くしEV値をプラスにしたショットを撮影する。これらの映像を合成して2枚の画像を得る。

ここで生成された1200万画素の写真2枚をさらに2400万画素の写真1枚に合成する。最後の合成を行う際には4つの独立のニューラルネットワークが用いられ、iPhoneの撮像素子のノイズ特性や撮影対象が何であるかが考慮される。

合成処理はピクセル単位で実行される。機械学習モデルが撮影された画像の「空間周波数」を含めた情報を把握して最良の画質を得るための合成方法を決める。空などは全体が比較的単調で繰り返しが多いが、画像周波数は高い。人間の皮膚は画像周波数は中位、衣服や植生は画像周波数が高いが、どちらも複雑な画像だ。

Deep Fusinシステムはこうした画像各部の特質を把握して全体の構成を決定し、最良の結果が得られるようピクセルを選ぶ。

Appleによれば、こうした処理によって皮膚の質感や衣服のディテール、動く対象のエッジの鮮明さなどが改善されるという。

現在のベータ版では、Deep Fusionのオン、オフを切り替える方法はないが、超広角はDeep Fusionをサポートしていないため、これを利用してDeep Fusionの「あり」と「なし」を比較するテクニックがあるもようだ。

Deep Fusionは実行に1秒程度必要とする。ユーザーが撮影後すぐにタップしてプレビューを見ようとした場合、画像が現れるのを0.5秒ほど待つ場合があるかもしれない。しかしこの程度であればほとんどのユーザーはバックグラウンドでDeep Fusion処理が行われていることに気づかないだろう。

まずは実際に使ってみたいところだ。我々はDeep Fusionが利用できるようになり次第テストを行い、結果を報告するつもりだ。

原文へ

(翻訳:滑川海彦@Facebook