公益事業の未来には自動化と機械学習が不可欠と米大手電力会社National Gridは考える

コーポレートベンチャーキャピタル企業のポートフォリオが、親会社の戦略的優先事項のシグナルと考えられるならば、National Grid(ナショナル・グリッド)は、公益事業の未来として自動化に大きな期待を寄せているようだ。

約2000万人の顧客基盤を持つ米国最大の民間公益事業会社の1つが、自動化と機械学習に重点を置いていることは、非常に重要な意味を持つ。そしてそれは、この産業がどこに向かっていくのかを示している。

ナショナル・グリッドのベンチャー企業であるNational Grid Partners(ナショナル・グリッド・パートナーズ)は、その立ち上げ以来、機械学習を事業の中核に据えた16のスタートアップ企業に投資してきた。最近では、機械学習アルゴリズムを使用して衛星画像を分析し、ナショナル・グリッドの送電線に植生が侵入するのを察知することで停電を回避するAI Dashを支援している。

もう1つの最近の投資先であるAperio(アペリオ)は、重要なインフラを監視するセンサーから得たデータを使用して、劣化やサイバー攻撃によるデータ品質の低下を予測する企業だ。

実際、同社が行った1億7500万ドル(約181億円)の投資のうち、約1億3500万ドル(約140億円)が機械学習をサービスに活用している企業への投資となっている。

「AIはエネルギー業界が積極的な脱炭素化と分散化の目標を達成するために、不可欠なものになるでしょう」と、ナショナル・グリッドの最高技術・イノベーション責任者であり、ナショナル・グリッド・パートナーズの創設者兼社長でもあるLisa Lambert(リサ・ランバート)氏は述べている。

2020年は新型コロナウイルス流行のために、ゆっくりとしたスタートを切ったナショナル・グリッドだが、投資のペースは回復し、今年の投資目標を達成する軌道に乗っている、とランバート氏はいう。

ランバート氏によると、この業界では、いまだにほとんどがスプレッドシートと集合的な知識に基づいて運営されており、従業員の高齢化が進み、退職した際には不測の事態に備えた計画もないため、近代化は非常に重要な課題であるという。そのような状況が、ナショナル・グリッドや他の公益事業会社に業務の自動化を迫る要因となっている。

「現在、公益事業部門のほとんどの企業が、効率性とコストの理由から自動化に取り組んでいます。今日では、ほとんどの企業がすべてをマニュアル化していますが、いまだに業界としては、基本的にネットワークをスプレッドシートと従業員のスキルや経験に基づいて運営しています。そのため、そのような人たちが退職してしまうと深刻な問題が発生します。Next Grid Alliance(ネクスト・グリッド・アライアンス)で話を聞いたすべての公益事業者は、自動化とデジタル化を最優先に考えています」。

これまでに自動化されてきた作業の多くは、ビジネスプロセスの基本的な自動化が中心だった。しかし、様々な活動を自動化してバリューチェーンを強化する新しい技術が現れていると、ランバート氏はいう。

「機械学習は次のレベル、つまりアセットの予測的な維持として、顧客のために提供されるものです。たとえばUniphore(ユニフォア)では、顧客とのあらゆる相互関係から学習し、それをアルゴリズムに組み込み、次に顧客に会ったときには、より良い結果が得られるようにします。これが次世代です」と、ランバート氏は語る。「すべてがデジタル化されれば、アセットからも人間からも、それらとの関係において学習することができるようになります」。

新しい機械学習技術に対するもう1つの需要源は、電力会社が急速に脱炭素化を進める必要性にあると、ランバート氏はみている。化石燃料からの脱却には、送電網の運用と管理においてまったく新しい方法が必要になる。人間がループの中にいる可能性が低くなるような方法だ。

「今後5年間で、ネットゼロの世界を実現するためには、電力会社は自動化と分析を正しく行う必要があります。つまりこれらのアセットを別の方法で運用する必要があるということです」と、ランバート氏は語った。「風車やソーラーパネルは、従来の配電網(の一部)ではありません。従来のエンジニアの多くは、おそらく革新の必要性について考えていないでしょう。なぜなら、彼らは数十年前にアセットが構築された時代に関連するエンジニアリング技術を発展させているからです。その一方で、(風車やソーラーパネルのような)再生可能なアセットは、すべてOT / ITの時代に構築されているのです」。

カテゴリー:人工知能・AI
タグ:National Grid公益事業機械学習

画像クレジット:dowell / Getty Images

原文へ

(翻訳:TechCrunch Japan)

AI利用の動画ベース求人プラットフォームmyInterviewがシード資金5.2億円調達に成功

履歴書の処理は求職者にとっても、採用企業にとっても面倒な仕事だ。特に現在の採用環境では困難が大きい。ソーシャルメディアにはすでに動画は無数にあるが、求人分野でまだほとんど使われていない。しかし動画なら、テキストベースでは十分に表現できない応募者の個性がはっきりわかる。オーストラリアのシドニーを拠点とするmyInterviewは、動画をリクルートビジネスの必須な部分に変えたいと考えており、ユーザーが質問に回答していくだけでいわばバーチャル面接ができるようなプラットフォームを開発した。採用担当者はオプションとしてmyInterview Intelligenceも利用できる。これは機械学習ベースのツールで多数の応募者から最終候補リストを自動的に作成する。

myInterviewはイスラエルとオーストラリアにオフィスを置くスタートアップで、イスラエルのアーリーステージベンチャーキャピタルであるAlephがリードしたシードラウンドで500万ドル(約5億2000万円)を調達した。今回のラウンドには既存投資家のEntrée Capital、SeedIL Venturesも参加した。myInterviewはこの2社とLinkedInの東南アジア、オーストラリア、ニュージーランド事業の元トップだったCliff Rosenberg(クリフ・ローゼンバーグ)氏から160万ドル(約1億7000万円)のプレシード資金を調達している。

myInterviewはすでに米国と英国を中心にオンラインスーパーマーケットのOcado、小売業のB&M、P&OFerriesなどを含め2000社以上で利用されている。またFacebook(フェイスブック)のCareer Connectionsとも連携し、英国最大の求人検索サイトであるreed.co.ukと戦略的パートナーシップを結んでいいる。これまでに200万人以上の求職者がmyInterviewを使用しているが、同社の目標は数千万人規模だという。

今回の資金はプロダクト、セールス、開発チームの拡大するために利用されるという。

Guy Abelsohn(ガイ・アベルソン)氏とBen Gillman(ベン・ギルマン)氏は就職活動をしている際に、履歴書を目立たせることが非常に難しいことに気づいた。これがきったけとなって両氏は2016年にMyInterviewを創立した。当初、myInterviewは、企業の既存の採用システムに統合できる各種ツールを提供していたが、2019年初めに独自の動画履歴書プラットフォームを立ち上げた。これは新型コロナウイルスによってパンデミックが発生するかなり前のことだった。ギルマン氏はTechCrunchの取材に対してこう述べている。

すでに2019年から2020年の初めにかけてすでに好調にユーザーを集めていたので、我々成功は新型コロナが主たる原因ではないと考えます。しかし採用側企業にはパンデミックは大きな影響がありました。我々のユーザー企業には新しいテクノロジーを利用して採用プロセスの効率化を図る必要が生じました。myInterviewは、多数の応募者に対してソーシャルディスタンスを保ちながら効果的、効率的な面接を行うために動画を全面的に取り入れました。

ギルマン氏によればmyInterviewの動画プラットフォームはどんな職種の採用にも適しているというが、数百人から数千人も応募者が殺到する初級職の募集で利用されることが多い。

myInterviewを使用するために、企業はプラットフォーム上にポータルを設定する。ここには求職者に動画で回答を求める質問のリストと応募にあたっての諸注意を記述する。求職者は、動画履歴書の送信する前に、応答を再生し、気に入らなければ再度撮影することができる。送信されるたファイルには採用担当者が各種の基準でソート可能なタグが自動的付与される。

採用プロセスに動画の統合を試みているスタートアップで最近資金を調達した会社にはVCV.AIJobUFOWilloがある。

myInterviewがライバルと競争する上での武器の1つはmyInterview Intelligenceだ。採用担当者はmyInterview Intelligenceを使用してキーワードとフレーズで検索ができる。また応募者の応答動画の音声から口調の分析も可能だ。

スクリーンショット:myInterview Intelligence

MyInterviewのAIツールは、パーソナリティの研究で広く利用されている「ビッグ5」というフレームワークに基づいている。「ビッグ5」ないし「性格の五因子モデル」は採用プロセスで長年使われてきた。myInterviewは検査様式に回答を記入させる代わりに、動画を解析したスクリプトに基づいてプロセスを自動化する。

myInterviewによれば、職場文化との適合性に重点を置いた機械学習により最終候補者リストを自動的に作成することで、採用担当者は時間的余裕を得ることができ、従来の方法では見落とされがちだった適格者を発見するのに役立つという。ギルマン氏によると、同社のプラットフォームは、行動心理学者と協力し、多様な動画データセットを使用してアルゴリズムをトレーニングすることで採用プロセスに混入しがちなバイアスを最小化させようとしている (AIを使用して採用における各種のバイアスを克服する試みとしては、最近資金調達に成功させたRippleMatchなどがある)。

あらゆる関係についていえるが、特定の企業文化に適合する性格がどんなものであるか明確に定義するのは難しい場合が多い。myInterviewのデベロッパーにはプログラマーだけでなく行動心理学者、機械学習エンジニアが含まれており、優れたチームを構成する要素がなんであるか解読しようとしているという。ギルマン氏はこう説明する。

複雑な階層構造を持つ大企業に向いた求職者もいれば、家族的な自由な空気の小規模な企業でうまくいく求職者もいます。これらははっきりした結果をもたらす要素です。我々は求職者と雇用企業の双方にメリットのあるプラットフォームの実現を目指しています。

関連記事
コロナ禍で落ち込むテック業界求人マーケットの現状と今後の行方
AIが就職面接で表情を読み取るロボット採用がやってくる
ビデオによる採用面接サービスのWilloが需要増を受け3400万円調達

カテゴリー:HRテック
タグ:myInterview人材採用機械学習

画像クレジット:FreshSplash / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

米の銘柄判定をAI搭載スマホアプリで実現する「RiceTagプロジェクト」の実証実験が成功

米の銘柄判定をAI搭載のアプリで実現するRiceTagプロジェクトの実証実験が成功

総合米穀卸業のKAWACHO RICEと、東北地方の企業・サービスのクラウド化およびDX化を支援するヘプタゴンは12月7日、米の銘柄をAIで判定するスマートフォンアプリを開発し、実証実験に成功したと発表した。

米の流通過程において、異品種混入(コンタミ)を防止するための銘柄チェックは、資格を有した検査員が目視で行われているものの、現在の検査方法では、具体的なデータを示せないという課題があるという。

そこでKAWACHO RICEは、プタゴンと協力して、2019年夏頃にAIを用いた米の銘柄判定を行う「RiceTagプロジェクト」を立ち上げ。約1年をかけてAIの開発・実証実験を行い、検査対象からサンプリングで無作為に抽出した複数の米粒をスマートフォンのアプリで撮影するだけで銘柄を判定することに成功した。実証実験は、青森県産米4銘柄および秋田県産米4銘柄に対して行い、資格を有する検査員と同等以上の正解率を得られた。

今後は、さらなる精度の向上や判定できる銘柄を増やしていき、検査員の負担を減らすとともに、流通の過程でより正確に銘柄のチェックができるように実用化に向けて開発を進める。

KAWACHO RICEは、「すべては米からはじまる」を理念に、産地プラットフォーム米穀卸として、生産から消費までの米流通を総合的にコーディネート。

検査米をはじめ備蓄米や輸出米など多種多様な実績とノウハウを持ち、産地の有力生産者との強固な信頼関係の構築など、米作りを第一に、常にリスクヘッジを考えた栽培プランの提案・支援を実施。流通業者としても、時代の流れを敏感に察知し、取引先に最適なプランをご提案すると同時に、消費者ニーズに合わせた商品開発・販売活動も積極的に進めている。

ヘプタゴンは、「世界中の顔を知らない100万人よりも自分たちの身近な100人をクラウドで幸せにする」を経営理念に掲げ、主に東北地方の企業/サービスのクラウド化やDXの支援を実施。

地方ならではの課題を地方のことをよく知る地方の企業が解決する「ビジネスの地産地消」というビジネスモデルで、これまで200プロジェクトを超える実績を東北であげており、東北エリア初のAWS Partner Network(APN)アドバンストコンサルティングパートナーにも認定されている。

近年では、AI/IoT技術を用いた地方の企業/自治体のDX化にも力を入れており、先端技術を取り入れ成長する意欲的な企業とヘプタゴンが協力して、生産性の向上や業務の改善、新しい働き方の導入支援などを進めている。

なお、今回のAIおよびシステムのプラットフォームには、Amazon SageMakerを採用。開発環境や推論環境の構築が非常に簡単に行えるため、モデル開発に注力でき、また、KAWACHO RICEへ迅速に結果のフィードバックを行えたとしている。

関連記事
AWSがウェブベースの機械学習用IDE「SageMaker Studio」を発表
AWSが機械学習のデータ準備サービスSageMaker Data Wranglerを公開
​AWSがあらゆるカメラに機械学習技術を搭載するデバイスPanoramaを発表
AWSが機械学習トレーニング用の新カスタムチップTrainiumを発表
水田向けスマート農業サービス「paditch」開発・運営を手がける笑農和が1億円を調達
産業用リモートセンシングのスカイマティクスが日本初のAI米粒等級解析アプリ「らいす」公開

カテゴリー:人工知能・AI
タグ:Amazon Web Services / AWS(製品・サービス)KAWACHO RICE機械学習(用語)食品(用語)農業(用語)ヘプタゴン日本(国・地域)

​AWSがあらゆるカメラに機械学習技術を搭載するデバイスPanoramaを発表

AWSはAWS Panorama Applianceという新しいハードウェアデバイスをローンチした。このデバイスはAWS Panorama SDKととも利用し、既存のオンプレミスカメラをコンピュータービジョンの能力のある超強力な監視デバイスに変える。

AWS Panorama Applianceの売り込み文句は、生産ラインで部品を点検する、安全な手順や工程が行われているか確認する、小売店で人の流れを分析するといったものだ。「AWS re:Invent」2020テーマは「新しいオートメーションサービス」。つまり「何でも自動化しよう」だ。

ユーザー企業はまず、Amazon SageMakerなどを使ってコンピュータービジョンのモデルを作る。Panorama Applianceは、そのモデルを、ネットワークまたはネットワークに接続されたフィードに対して走らせる。

近くAWSはPanorama SDKを提供するため、メーカーはPanorama対応のデバイスを開発することができる。

Amazon(アマゾン)は以前にも、デベロッパーやエンタープライズに対して監視技術を売り込んできた。2017年にはDeepLensを披露し1年後に発売した。それを使って開発者はプロトタイプの機械学習モデルを作り、アマゾンはコンピュータービジョンの能力を商用化するためのさまざまな方法を得る。

2018年の記事から引用する。

DeepLensは他のAWSサービスと深く統合されている。AWSのIoTサービスであるGreengrassはDeepLensにモデルを配信する際に利用し、アマゾンの機械学習モデル構築用最新ツールであるSageMakerとも連携する。あらかじめ用意されているモデルを使えば、10分足らずでDeepLensを設定しモデルを組み込んで利用できる。プロジェクトテンプレートの中には、20種類の物体を識別する物体検出モデルや、カメラ画像をヴァン・ゴッホ風に変換するスタイル変換モデルや顔認識モデル、猫と犬を区別するモデル、約30種類の動作(ギターを弾くなど)を認識できるモデルなどがある。DeepLensチームは、頭部の姿勢を追跡するモデルも開発中だ。そうそう、ホットドッグ検出モードもある。

ビデオのための機械学習の開発に関して、アマゾンには大量の経験と大量の議論がある。同社の顔認識ソフトウェアであるRekognitionは抗議と反発に火をつけ、その技術の使用は一時停止に追い込まれた

そして同社は機械学習をさらに、一般住宅のドアベルカメラであるRingにも搭載しようとした。

それでも企業は、セキュリティや安全、品質管理などのために、機械学習をベースとする動画認識技術を声高に要求している。むしろ新型コロナウイルス(COVID-19)のパンデミックが長引くにつれて、建物の使用や専有をめぐる新たなプロトコルが採用されるようになり、しかもそれは現在のパンデミックのためだけでなく、今後の深刻さを軽減するスペースやプロトコルのための、先行的計画にも採用されている。

関連記事:Amazonが開発者向けAIカメラ「DeepLens」を249ドルで販売開始

カテゴリー:ハードウェア
タグ:AWS re:InventAWSAmazon機械学習コンピュータビジョン

画像クレジット:Amazon Web Services

原文へ

(翻訳:iwatani、a.k.a. hiwa

AWSが機械学習のデータ準備サービス「SageMaker Data Wrangler」を公開

米国時間12月1日、AWSはデータサイエンティストが機械学習のトレーニングに使用するデータを簡単に準備できるようにする新しいサービスのAmazon SageMaker Data Wranglerを公開した。同社はこれに加えて、SageMaker Studioで利用でき、機械学習機能の命名、整理、発見、共有を簡単にする新しいサービスのSageMaker Feature Storeも公開した。

AWSはさらにSagemaker Pipelinesも公開した。こちらはプラットフォームの他の部分と統合される新しいサービスで、ワークフローを作って自動化できるように機械学習のCI/CDサービスを提供し、トレーニングデータや構成といったモデルコンポーネントの監査証跡も利用できる。

AWS re:InventカンファレンスのキーノートでCEOのAndy Jassy(アンディー・ジャシー)氏が指摘したように、機械学習の分野ではデータ準備が大きな課題として残っている。ユーザーはクエリやコードを書いてまずデータをデータストアから取得し、それからクエリを書いてコードを変換し、必要な機能と組み合わせる必要がある。これらはいずれもモデルを実際に構築する作業ではなく、モデルを構築する基盤の作業だ。

Data Wranglerにはあらかじめ構成されたデータ変換が300以上組み込まれていて、ユーザーはカラム型を変換したり足りないデータを平均値や中間値で補完したりすることができる。視覚化ツールもあり、潜在的なエラーを特定できるほか、モデルをデプロイする前にデータの不整合を見つけたり診断したりするツールにもなる。

このようなワークフローはすべてノートブックに保存したりスクリプトにしたりして複製できる。またSageMaker Pipelinesでワークフローの自動化に利用される。

同様の問題に取り組んでいるスタートアップがいくつもあることには注目したい。結局のところ、機械学習のデータの扱いはこの分野で最もよくある問題の1つだ。しかし大半の企業は今も独自のツールを作っているため、マネージドサービスの登場には適したタイミングだ。

カテゴリー:ネットサービス
タグ:AWS re:InventAWSAmazon機械学習

原文へ

(翻訳:Kaori Koyama)

AWSが機械学習のトレーニング用として新しいカスタムチップ「Trainium」を発表

米国時間12月1日、毎年開催されている開発者向けカンファレンスのre:Inventで、AWSはAWS Trainiumを今後提供すると発表した。Trainiumは機械学習モデルのトレーニング専用に開発された同社の次世代カスタムチップだ。クラウドの競合のどこよりもパフォーマンスが高く、TensorFlow、PyTorch、MXNetに対応するとしている。

このチップはEC2インスタンスとして提供され、同社の機械学習プラットフォームであるAmazon SageMakerで利用できるようになる。

このカスタムチップを利用する新しいインスタンスは、2021年の提供開始を予定している。

このカスタムチップの重要なポイントはスピードとコストだ。AWSは、標準のAWS GPUインスタンスと比べてスループットは30%向上し、推論あたりのコストは45%下がるとしている。

また、AWSはIntel(インテル)と提携して機械学習のトレーニング向けにHabana GaudiベースのEC2インスタンスを提供する。2021年に、現在のGPUベースの機械学習向けEC2インスタンスと比べて価格性能比は最大40%向上するという。このチップはTensorFlowとPyTorchに対応する。

この新しいチップは、AWSクラウドで2021年前半に提供が開始される予定だ。

この2つのチップは、2019年のre:Inventで発表されたAWS Inferentiaを補完するものだ。Inferentiaは機械学習の推論の部分を担うもので、これもカスタムチップを使用している。

注目すべき点として、TrainiumにはInferentiaと同じSDKが利用される。

AWSは次のように発表している。「Inferentiaは機械学習インフラストラクチャのコストの最大90%を占める推論のコストを下げましたが、開発者の多くは機械学習のトレーニングの予算にも制約を受けています。そのため、モデルとアプリケーションを向上するために必要なトレーニングの範囲と頻度が制限されています。AWS Trainiumは、クラウドにおける機械学習のトレーニングに最高のパフォーマンスと最低のコストを提供して、この課題を解決します。お客様はTrainiumとInferentiaの両方を利用して、トレーニングのワークロードのスケーリングから高速な推論の展開まで、機械学習コンピューティングの最初から最後までのフローを実現できます」。

カテゴリー:ネットサービス
タグ:AWS re:InventAWSAmazon機械学習

原文へ

(翻訳:Kaori Koyama)

AWSがデータセットをビジネスインテリジェンスに活かす自然言語検索サービスを発表

Amazon Web Servicesが2016年にビジネスインテリジェンスサービスのQuickSightを公開したとき、同社は製品情報や顧客情報を開発者だけでなくビジネスユーザーに提供することを意図していた。

その時点で利用できる自然言語処理テクノロジーは、顧客のツールとして普段の言葉遣いで質問してデータベースを効率よく検索できるほど強力ではなかった。

現在ではそうしたテクノロジーが成熟し、Amazon(アマゾン)は「QuickSight Q」という名称で大幅なアップデートを実施した。「AWS re:Invent」2020で配信されたAndy Jassy(アンディー・ジャシー)氏のキーノートによると、このサービスによりユーザーはシンプルな質問をするだけで必要な答えを得ることができるという。

ジャシー氏は次のように述べた。「知るべきであると我々が考えていることを実現するために、自然言語を提供します。どのデータベースにアクセスすればいいか、どこにデータが保管されているかをユーザーが知る必要があるという状況は望ましくありません。ユーザーが自然言語の質問を検索バーに入力すれば答えが返ってくるようにしたいのです」。

これがQuickSight Qの目指すところだ。多数のビジネスインテリジェンススタートアップにとっては直接の脅威であり、さまざまな業界で機械学習と自然言語処理がビジネスのプロセスを変える実例の1つでもある。

「Qはこのように動作します。自然言語で質問を入力します。たとえば『製品Xの過去12カ月の売上は?』と。するとあっという間に答えが返ってきます。テーブルもデータストアも知る必要はありません」。

これは極めて魅力的なユースケースであり、AWSが機械学習を統合して顧客にノーコードサービスをさらに広めようとしていることの一端だ。ジャシー氏は「お客様は機械学習をするために我々を利用しているのではありません。質問の答えを得るために使っているのです」と語った。

カテゴリー:ネットサービス
タグ:AWS re:InventAWSAmazon機械学習

画像クレジット:DrAfter123 / Getty Images

原文へ

(翻訳:Kaori Koyama)

AWS Re:Inventでアマゾンがクラウド化が遅れる産業界向けプロダクト多数発表

Amazon(アマゾン)は開催中の「AWS re:Invent」2020で産業部門のシステムや機器のさらなる効率化を目的としたサービスを多数発表した。クラウドコンピューティングで取り残されている印象があった分野の1つが産業部門だ。この分野ではクラウドにフィットしないレガシーデバイスや閉鎖的な独自システムが含まれていることが多かったためだ。アマゾンはこれを大胆に変えようと図っている。

Amazon Monitronは、機器をモニターし、故障の可能性があるときにエンジニアのチームに信号を送信するサービスだ。工場管理者が機器が故障しそうだと予め知ることができれば、不都合な時間帯に突然故障するのではなく、メンテナンスチームを待機させるといった対策を取り悪影響を最小限に止めることがが可能になる。

AWSのCEOであるAndy Jassy(アンディー・ジャシー)氏は、「経験ある優秀なエンジニアなら音や振動などの微妙な変化によって機械が故障しそうだと知ることができます。しかし機械自身が常時自分自身をモニターして故障しそうだと教えてくれるならエンジニアにとって非常に好都合でしょう」と述べた。

ジャシー氏はキーノートで次のように語っている。

多くの工場では機械にセンサーが備えられていない、あるいはセンサーがあっても最新ではないことが多い。またセンサーから一貫したデータ系列を取得してクラウドに送信するノウハウがない、機械学習モデルを構築する方法がわからないこともあるでしょう。AWSが協力しているメーカーは、これらの点の解決するエンド・ツー・エンドのソリューション構築を我々に強く求めていました。ここで、そうした機器モニターのエンド・ツー・エンドソリューションであるAmazon Monitronを発表できることに興奮しています。

このサービスではまず、正常な機械の状態がどのようなものであるかを把握する機械学習モデルを構築する。その情報をベースに機械をモニターして異常を発見する。さらにシステムが利用しているデータに基づいて当該の機器のメンテナンスに必要な情報をモバイルアプリ経由でエンジニアのチームに送り返す。

最新のセンサーシステムを備える現場で、Monitronが提供するフルパッケージを必要としない場合もAWSは役に立つという。センサーは最新だが、高度な機械学習モデルはないという場合は多い。AWSはこのデータを取り込んで機械学習アルゴリズムを適用し、Monitronのフルパッケージの場合と同じように異常を発見、通知することができる。

「こうした(最新のセンサーを装備している)顧客企業向けにも発表があります。それは、機械の異常検出を行うAmazon Lookout for Equipmentです」とジャシー氏は述べた。

さらに、同社は現場で監視カメラを利用している企業向けにPanorama Applianceを発表した。これは高度な認識能力を持ったコンピュータービジョンを使いたいが、それを実行するためのハード、ソフトを欠いている企業向けだ。「企業が既存のオンプレミスのスマートカメラに機械視覚を付加できる新しいハードウェア、AWS Panorama Appliance(未訳記事)を発表します」とジャシー氏は述べた。

さらに、カメラ・ハードウェアのベンダーがPanoramaに基づいてスマートなカメラを構築するのに役立つPanorama SDKもリリースされた。

こうしたサービスはすべて顧客企業がどのレベルのテクノロジーを利用していても、その段階に適したクラウドおよび機械学習テクノロジーにアクセスできるようデザインされているのが特長だという。

カテゴリー:ネットサービス
タグ:AWS re:InventAWSAmazon機械学習

画像クレジット:Andy Jassy on stage at AWS re:Invent 2020 AWS

原文へ

(翻訳:滑川海彦@Facebook

洋菓子大手ユーハイムがバウムクーヘン専用AIオーブン開発、「職人のためのフードテック」掲げる

洋菓子大手ユーハイムがバウムクーヘン専用AIオーブン開発、「職人のためのフードテック」掲げる

洋菓子メーカー大手「ユーハイム」は11月30日、画像センサーを搭載し職人の技術を機械学習する、バウムクーヘン専用AIオーブン「THEO」(テオ)の開発を発表した。2021年3月4日に名古屋で開業する食の未来をテーマにした複合施設「バウムハウス」(BAUM HAUS)への実装に向け、年明けより実証実験を開始する。

ユーハイムは2020年3月、菓子製造工程に添加物を使わないため、材料メーカーと共に、加工材料から添加物の排除を実践する「純正自然宣言」を発表。純正自然の菓子作りを進めつつ生産性を高めるには、添加物のなかった頃の職人の技術の復活・継承、新たな職人の育成が欠かせないという。時間と手間を要するそれら過程のブレイクスルーとして、技術革新が相次ぐIoTやAIの技術を活用したと明らかにした。

ユーハイムが開発したTHEOは、職人が焼く生地の焼き具合を各層ごとに画像センサーで解析することで、その技術をAIに機械学習させデータ化。無人で職人と同等レベルのバウムクーヘンを焼き上げることができるとしている。

ユーハイムは、THEOをアバターインと共同開発することで、今後、菓子店間の遠隔操作や、消費者によるアバターを通じた焼成体験などの実証実験を行なう。これにより、従来の流通体系とは違うスタイルの販売ネットワークづくり、職人の技術継承、地位向上などを模索していく。

また、2021年3月開業のバウムハウスにおいてTHEOを実装したショップをオープンし、THEOで焼き上げたバウムクーヘンの販売も行う予定。国内外のフードテック系スタートアップ企業をサポートする会員組織「フードテックイノベーションセンター」(FIC)とも連係し、他社のフードテック機器との共同開発や、実証実験にも参加していく予定という。

洋菓子大手ユーハイムがバウムクーヘン専用AIオーブン開発、「職人のためのフードテック」掲げる

FICでは、会員となったスタートアップ企業のフードテック機器や新たなサービスの営業や販売を請負い、ユーハイムが得意とするお菓子や飲食のBtoB市場において展開。

FIC本部を神戸本社に設置し、洋菓子の街・神戸からフードテック機器を発信。FICに参加するメンターや大手企業からのサポートを受け、ユーハイムが用意するフードトラックにフードテック機器を載せて街の洋菓子店などに出向き、試験販売やフードテック機器のデモンストレーションを行うなどの取り組みを始めていく。

2021年には日本におけるバウムクーヘン生誕102年を迎え、ユーハイムは今まで以上に「純正自然」の菓子作りに邁進するために、「化学(添加物)の時代から、工学(IoTやAI)の時代へ」の変化を見据えて、「職人のためのフードテック」を掲げていくとしている。

カテゴリー:フードテック
タグ:IoT(用語)機械学習(用語)食品(用語)バウムハウスユーハイム日本(国・地域)

ディズニーの微妙な表情も表現する3D技術は「不気味の谷」を越えられるかも

現在、顔の3Dレンダリングは映画やゲームの重要な部分を占めている。しかしレンダリングをキャプチャして自然なアニメーションにする作業は非常に難しい。ディズニーグループのDisney Researchではこのプロセスの強化に取り組んでいる。中でもいわゆる「不気味の谷」に転落せず自然な表情を見せる3Dの顔を生成する機械学習ツールの開発は注目だ。

その昔、人工的な表情はこわばっておりディテールも限られていた。もちろんこのテクノロジーはその後、大きく進歩した。高解像度で説得力のある3Dの表情を短時間でアニメーション化できるようになった。しかし人間の表現の微妙さは多様であるだけでなく、わずかの差が大きな違いになりやすい。

たとえば笑顔を考えてみよう。具体的な顔全体の変化には個人差があるが、その人が「本当に」笑ったのか「つくり笑い」をしたのか私たちは判別できる。人工の表情でそのレベルのディテールをどのように表現」したらいいのか?

現在の「線形モデルによるシミュレーションは表情の微妙さを単純し、『うれしさ』や『怒り』を細かく調整できるようにしている。精度を犠牲にして、すべての可能な顔を表現することはできないが、容易に不可能な顔を作り出すことができる。一方、最近研究されているニューラルモデルは、表現の要素を相互接続させてモニターすることで複雑な表情を学習させる。しかし他のモデルと同様、その結果は多義的で制御が難しい。またそうして学習した特定の表情を超えて一般化することができない。映画やゲームのアーティストははるかに高度なレベルで表情を制御したい(人間は表情から微妙なニュアンスを検出するのが非常に得意だ)のでこの方式の有効性も限られる。

これに対してディズニーの研究者チームは、双方の長所を生かした「セマンティック・ディープフェイスモデル」という新しい手法を提案する。テクノロジーの詳細には立ち入らないが、簡単にいえば「部分的表情要素が顔全体にどのように影響するかを学習するニューラルモデル」だ。これは単一の顔を超えて一般化できる。また演繹的に要素を操作するリニアモデルではない。部分が全体と相互作用することにより、極めて高い柔軟性がもたらされる。

このように考えてもいいだろう。リニアモデルを使用して、100種類の3Dの顔に表情(笑顔になる、キスするなど)を生成できるとしよう。しかしその結果には極めて非現実的なものが混じってしまう。ニューラルモデルを使用すると、学習によって100種類のリアルな表情を生成できるが、学習に利用した特定の顔でしか利用できない。これに対してディズニーが開発しているモデルは、どんな3Dの顔に対しても100種類の自然なニュアンスを生成できる。これは単純化しすぎだが、おおよそそういうこととなる。

画像クレジット:Disney Research

結果は非常に強力だ。さまざまな顔つき、肌色の顔を1000種類作り、そのすべてに簡単に同じ表情のアニメーションを作ることができる。つまり何回かクリックするだけで「いっせいに驚く」群集をCGで作れるわけだ。また個別に手作りすることなく、アルゴリズムによってゲームのキャラクターにリアルな表情をさせることもできるだろう。

この手法は万能ではなが、リアルな表情を生成するためにアーティストやエンジニアが行っている膨大な努力の一部をなすだろう。TechchCrunchでもディズニーの「デジタル顔交換テクノロジー」を紹介している。また人物が顔に丸印などマーカーを貼っていないビデオからの表情の取得や、皮膚や目の動きのさらなるリアル化なども重要な部分だ。

Disney Researchから発表された論文は、3D視覚についての国際会議で発表された。興味があれがこちら(PDF)で全文を読める。

関連記事:ディズニー・リサーチがニューラルネットワークを活用した顔交換技術を開発、高解像度映像を作成可能に

カテゴリー:人工知能・AI
タグ:Disney機械学習

画像クレジット:Disney Research

原文へ

(翻訳:滑川海彦@Facebook

AIを組み合わせてロボットのピック&プレースをこれまでになく高速化する研究

ロボットが得意とする仕事に、倉庫などでよく見る退屈な繰り返しの「ピック&プレース」作業があるが、いまはまだ人間のほうがその作業には優れている。カリフォルニア大学バークレー校(UCB)の研究者たちは、2つの機械学習モデルを組み合わせることで、ロボットが掴んだものを運ぶ道筋の計算をわずかミリ秒単位に縮めようと考えた。

人はモノを手で拾って、どこか別の場所に置くという動作をほぼ考えることなく行うことができる。それは長い間日常的に行ってきた訓練の賜物という以外に、私たちの感覚と脳がそうした作業によく適応しているためでもある。「このカップを手で持って、高く持ち上げて、横に移動して、ゆっくりテーブルに置いたらどうなるか」と頭で考える人はいない。モノを運ぶ経路は限られており、ほとんどの場合、実に効率的に決められる。

ところがロボットの場合、常識や直感で動くことができない。「当たり前」のソリューションが欠如しているため、モノを拾い上げて運ぶ経路を決めるには、数千とおりの可能性を評価しなければならない。しかもそれに必要な力、衝突の危険性、使用する「手」のタイプによってそれらに与える影響の違いなどの計算も同時に行う必要がある。

どう動くかが決まれば、ロボットは高速に行動できるようになるのだが、その決断には時間がかる。通常は数秒程度で済むもののの、状況によってはずっと長くなる。だがうれしいことに、UCBのロボティクス研究者たちは、それにかかる時間をおよそ99%まで短縮できる方法を編み出した。

そのシステムは、2つの機械学習モデルが交代で働く仕組みになっている。最初のモデルは、大量の移動サンプルを参考にして、ロボットアームの経路の候補を連発する。次に、その大量に生成された候補の中から最良の選択ができるようトレーニングされた2つめの機械学習モデルが、1つを選び出す。その経路は多少大雑把になる傾向があり、モーションプランニング専門のシステムによる洗練が必要になるが、このシステムは採用すべき一般的な経路の形状をあらかじめ用意して「ウォームスタート」されるため、ほんの一瞬の仕上げ作業で済む。

判断過程の模式図。最初のエージェントが経路の候補を生成し、2番目が最良のものを選択する。3つめのシステムが選択された経路を最適化する

モーションプランニングシステムが単独でこの作業を行えば、10秒から40秒の時間がかかる。だがウォームスタートすることにより、10分の1秒以上かかることは稀となる。

これはあくまで机上の計算であって、実際の倉庫で同じようにいくとは限らない。現実世界では、ロボットは実作業をこなさなければならず、時間的余裕はまったくない。しかし、現実の環境でモーションプランニングにかかる時間が2秒か3秒程度だったとしても、それをゼロに近づけるだけで、積もり積もればかなりの時短になる。

「1秒が重要なのです。現行のシステムでは、1サイクルの半分の時間をモーションプランニングに費やしています。そのためこの方式なら、1時間の尺度で見れば、劇的な高速化の可能性があります」と、研究室の責任者であり論文の筆頭著者であるKen Goldberg(ケン・ゴールドバーグ)氏はいう。環境特性の把握も時間のかかる工程だが、コンピュータービジョンの性能を改善すれば高速化できると彼は話す。

現在のロボットは、ピック&プレース作業の効率において人間の足元にも及ばない。だが、小さな改良を積み重ねることで人間に対抗できるまでになり、ゆくゆくは人間も敵わなくなるだろう。この作業は、人間にとっては危険で骨の折れる仕事だ。それでも、世界中の何百万もの人たちがそれに従事している。伸び続けるオンライン販売業からの需要を満たすためには、それしか方法がないからだ。

この研究の論文は、今週のScience Roboticsに掲載されている

関連記事:Boston Dynamicsは早ければ来年にも物流ロボットの計画を実現へ

カテゴリー:ロボティクス
タグ:カリフォルニア大学バークレー校機械学習

画像クレジット:UC Berkeley/Adam Lau

原文へ

(翻訳:金井哲夫)

機械学習の最前線「アルツハイマー病スクリーニング」「森林マッピングドローン」「宇宙での機械学習」など

研究論文は次々に生み出され、もはやそれらすべて目を通すことは誰にもできない。特に、実質的にあらゆる業界や企業に影響を与え、論文も生み出している機械学習の分野ではなおさらだ。今回のコラムは、特に人工知能を中心とした、関連する最近の発見や論文を集めて、なぜそれが重要なのかを説明することを目的としている。

今週は、森のマッピングに無人ドローンを使うスタートアップや、機械学習がソーシャルメディアのネットワークをマッピングしたり、アルツハイマーを予測する方法、宇宙ベースのセンサーのためのコンピュータビジョンの改善、その他の最近の技術の進歩に関するニュースを見てみよう。

発話パターンからアルツハイマーを予測する

機械学習ツールは、人間が検出しにくいパターンにも敏感に反応するため、様々な方法で診断を支援するために利用されている。IBMの研究者たちが、話し手がアルツハイマー病を発症していることを予測できる(EClinicalMedicineサイト)発話のパターンを発見したかもれない。

臨床現場でこのシステムを使うには数分程度の普通の会話があれば良い。研究チームは、1948年に遡る大規模なデータセット(フラミンガム・ハート・スタディ)を使用して、後にアルツハイマー病を発症する人々の発話のパターンを識別した。統計的に情報量の多い人の精度は約71%、AUC(Area Under Curve)値では0.74となっている。これは信頼できる結果とはいえないが、現在の基礎検査は、この病気をはるかに先取りして予測するという目的には、コイン投げよりはなんとか優れている手段だ。

アルツハイマーは発見が早ければ早いほど、管理しやすくなるので、このことはとても重要なことだ。治療法はないが、最悪の症状を遅らせたり軽減させたりできる有望な治療法や実践法は存在している。健康な人に対するこのような身体に負担をかけない非侵襲的で迅速なテストは、強力な新しいスクリーニングツールになり得ることはもちろん、技術のこの分野での有用性を示す優れたデモンストレーションでもある。

(論文に、正確な兆候例などが書かれていると期待しないで欲しい。発話の特徴の並びは、日常生活で気がつくことができるようなものではない)。

ソー「セル」ネットワーク

深層学習ネットワークが学習環境の以外のデータにも適用できるほど一般化されているかどうかを検証するのは、あらゆる本格的な機械学習(ML)研究のキモとなる部分だ。しかし、完全に無関係なデータにモデルを適用しようとする試みはほとんど行われていない。おそらくそうすべきなのに!

スウェーデンのウプサラ大学の研究者たち(ウプサラ大学サイト)は、ソーシャルメディアでグループやつながりを識別するために使用されたモデルを、生体組織のスキャンに適用した(もちろん無修正ではない)。その生体組織は、結果として得られた画像がmRNAを表す多数の小さなドットを生成するように処理されていた。

通常、組織の種類や領域を表す細胞(セル)の異なるグループは、手作業で識別され、ラベルづけされてる必要がある。しかし、仮想空間の中で、共通の関心事のような類似性に基づいて構成されたソーシェルグループを識別するために作られたグラフニューラルネットワークは、細胞に対しても同様の仕事を行うことができることが証明された(トップ画像参照)。

「私たちは、最新のAI手法、特にソーシャルネットワークを分析するために開発されたグラフニューラルネットワークを利用して、組織サンプルの生物学的パターンや連続的な変化を理解するために、それらを適用しています。細胞はソーシャルグループに似ています。なぜならソーシャルグループもグループ内で共有するアクティビティに基づいて定義することができるからです」とウプサラ大学のCarolina Wählby(カロリナ・ヴェールビー)氏は語る。

これは、ニューラルネットワークの柔軟性を示すだけでなく、構造やアーキテクチャがどのような形であらゆるスケールや文脈で繰り返されるのかを示す興味深い例だ。もし願うなら「外の如く内も然り」だ。

自然の中のドローン

私たちの国立公園や林業が営まれる広大な森には無数の木があるが、書類に「無数の木」と書くことはできない。いろんな地域でどれだけ成長しているのかや、木の密度や種類、病気や山火事の範囲などを、誰かが実際に評価しなければならない。航空写真やスキャンでわかることは限られている一方で、地上での観察では詳細な情報は得られるものの非常に時間がかかるため、この評価プロセスは部分的にしか自動化されていない。

Treeswift(ツリースイフト)はドローンに森の中の飛行と正確な計測の両方に必要なセンサーを装備することで、中間的な道を歩もうとしている。歩行する人間よりもはるかに速く飛ぶことで、木を数えたり、問題箇所を探したり、一般的に有用なデータを膨大に収集することができる。ペンシルバニア大学からスピンアウトし、米国立科学財団(NSF)からSBIR(Small Business Innovation Research:小規模事業イノベーション研究)助成金(未訳記事)を獲得した同社は、まだごく初期のステージにいる。

「企業は気候変動に対抗するために、ますます森林資源に注目していますが、そのニーズを満たすための人材供給が追いついていません」とPenn(ペン)ニュースの記事の中で語るのは(ペンシルベニア大学サイト)、Treeswiftの共同創業者でCEOのSteven Chen(スティーブン・チェン)氏だ。彼はペンシルバニア大学工学部のコンピュータ・情報科学(CIS)の博士課程の学生でもある。「林業家の1人ひとりが、もっと効率よく仕事ができるようにしたいと思っています。このロボットは人間の仕事を置き換えるものではありません。その代わりに、森林を管理するための知見と情熱を持った人たちに新しいツールを提供するのです」。

ドローンがおもしろい動きをたくさんみせてくれる、また別のエリアは水中だ。外洋に出る自律型潜水艇は海底の地図を作成したり、氷棚を追跡したり、クジラを追跡したりすることに役立っている。しかし、それらは定期的に回収し、充電して、データを取り出す必要があるという小さなアキレス腱を持っている。

パデュー大学工学部のNina Mahmoudian(ニーナ・マフムディアン)教授は、潜水艇が電力とデータ交換のために簡単かつ自動的に接続できるドッキングシステムを作成した(パデュー大学サイト)。

水中左側にいる黄色の海洋ロボットは、作業を続ける前に、充電とデータのアップロードのために移動式ドッキングステーションを探してたどり着く(画像クレジット:Purdue University photo/Jared Pike)

潜水艇にはドッキングステーションを見つけ、プラグを差し込んで安全な接続を行うための、特別なノーズコーンが必要となる。ドッキングステーション自身は自律的に動く水上機もしくは、恒常的な施設である。大事なことは、小型潜水艇がさらなる任務を行う前に、充電と報告のためのピットインをすることができるということだ。もし潜水艇で失われてしまっても(海上では実際に起こり得る危険性)、そのデータがともに失われることはない。

以下の動画で、実際の様子を見ることができる。

理論上の乱気流音

一部の人がもうすぐ実現すると考えているような、自動プライベートヘリコプターの登場はまだまだ先だと思われるが、ドローンが都市生活に溶け込むようになるのにはそれほど時間はかからないかもしれない。しかし、ドローンが高速で行き交う下で生活するということは、四六時中ノイズを聞かされることを意味する。そのため翼やプロペラまわりの乱気流やそれにともなう雑音を減らす方法が常に検討されている。

炎上しているように見えるが、これは乱気流だ

キング・アブドラ科学技術大学の研究者たちは、このような状況下での空気の流れをシミュレートする、新しくより効率的な方法(Nature Research記事)を発見した。流体力学は基本的に複雑であり、ここで大切なことは計算能力を問題の適切な箇所に注ぎ込むことだ。彼らは、理論上の航空機の表面近くの流れだけを、高解像度でレンダリングすることを可能にした。一定の距離が離れてしまうと、何が起こっているのかを正確に知ることはほとんど意味がないことを発見したからだ。現実のモデルを改善する際には、すべての場所を改善する必要はない──結局のところ、結果が重要なのだ。

宇宙での機械学習

コンピュータビジョンのアルゴリズムは長い道のりを歩んできたが、その効率性が向上するにつれ、データセンターではなくエッジに配置されるようになってきた。実際、携帯電話やIoTデバイスのような、カメラを搭載した製品では、画像に対してその場でML作業を適用することが、かなり一般的になってきている。しかし、宇宙ではそれは別の話だ。

画像クレジット:cosine

宇宙空間で機械学習を実行することは、ごく最近までは、考えるまでもなく電力的に高価すぎることだった。その電力を使って、別の画像を撮影したり、地上にデータを送信したりすることなどができるからだ。HyperScout 2(ハイパースカウト2)は宇宙でのML作業の可能性を探っている。その衛星は、収集した画像に対して地上に送る前に、コンピュータビジョン技術を適用し始めている(cosineサイト)(「ここに雲がある、ここにポルトガルがある、ここに火山がある……」など)。

現在のところ実用的なメリットはあまりないが、オブジェクト検出は他の機能と簡単に組み合わせて新しいユースケースを生み出すことができる。例えば関心のあるオブジェクトが存在しない場合の省電力化から、メタデータを他のツールに渡した方がよりよく機能する場合などが考えられる。

新しきを捨てて、古きを得よ

機械学習モデルは教育された範囲の推測を行うのに優れている。整理されていないまたはろくに文書化されていない大量のデータがある分野に対して、大学院生がより生産的に時間を使えるように、AIに最初のスキャンを行わせることは非常に有用だろう。議会図書館がそれを古い新聞に対して行っているが、新たにカーネギーメロン大学(CMU)の図書館もその気になってきている(CMUリリース)。

CMUの100万点におよぶ写真アーカイブはデジタル化の過程にあるが、歴史家や好奇心旺盛な閲覧者に役立つようにするためには、写真を整理してタグ付けする必要がある。そのためコンピュータービジョンアルゴリズムが適用されて、類似画像のグルーピング、対象と場所の特定、その他の価値ある基本的な分類タスクが行われている。

「部分的に成功したプロジェクトであっても、コレクションのメタデータは大幅に改善されています。もしアーカイブが、コレクション全体をデジタル化するための資金を獲得することができれば、メタデータ生成のための可能なソリューションを適用することができます」と語るのはCMUのMatt Lincoln(マット・リンカーン)氏だ。

まったく異なるプロジェクトだが、どこかでつながっているように見えるのが、ブラジルのペルナンブーコ大学工学部の学生によるこの成果だ。彼は古い地図を機械学習できれいにする(IEEE Spectrum記事)素晴らしいアイデアを研究している。

彼らが使用したツールは、古い線画の地図を使って、それに基づく衛星写真のようなものをGAN(Generative Adversarial Network)を利用して生成するものだ。GANとは本質的に、AIが自分自身をだまして本物と見分けがつかないようなコンテンツを作成しようとする技法だ。

画像クレジット:Escola Politécnica da Universidade de Pernambuco

まあ、現在の結果は完全に満足できるものではないが、それでも期待はできる。このような地図は正確なものではないが、かといって完全に空想上のものというわけではない。それらを現代的なマッピング技術の文脈で再現することは、楽しいアイデアで、きっとそうした場所を、より身近なものとして感じさせてくれることだろう。

関連記事:米国議会図書館が機械学習で300年ぶんの新聞の画像を抽出し検索可能に

カテゴリー:人工知能・AI
タグ:機械学習

画像クレジット:Uppsala University

原文へ

(翻訳:sako)

シンプルなドラッグ&ドロップで動画の背景を消去できるKaleidoの「Unscreen」

プロ仕様のツールや設備一式がなければ、撮影した動画の背景を消すのはかなり面倒だ。適切なツール等を持ち合わせていても、なかなか簡単には進まない。以前からワンステップで画像の背景を消去できるツール、remove.bg(リムーブドットビージー)を展開していたKaleido(カレイド)が、この度、フルモーションの動画に対応する新製品Unscreen(アンスクリーン)を発表した。

サービス自体はいたってシンプルだ。アンスクリーンのウェブページに動画をドラッグし、数分待つだけ。処理時間はコンテンツのサイズと解像度によって異なるが、手前の人物やオブジェクトだけを残し、背景をすべて消してくれる。

同社が初めて展開した製品、リムーブドットビーシーも、サービス内容は基本的に同じだった。処理対象は画像のみに限られていたが、Product Hunt(プロダクトハント)で大ヒットとなった。仕事でよく動画の処理をする身としては、背景を瞬時かつ正確に消せる効果的なウェブサービスが、非常にシンプルな形で提供されていることが嬉しい。もちろんPhotoshop(フォトショップ)を使っても同じことができるが、もっと手間がかかる。

そういえば、カレイドがオフラインの動画処理サービスに参入することを決めた理由は、ビデオチャット業界ではZoom(ズーム)やMicrosoft(マイクロソフト)をはじめとする各社がすでに定着した競合サービスを展開していて、「ある程度の品質で使えればいい」程度でユーザーが満足していることだったという。一方、オフラインの動画編集サービスは比較的競争が少なく、専門知識のないユーザーが使えるサービスともなると、選択肢はさらに限られる。

ハリウッド(映画製作やハイエンドの動画制作業界を総称して)では、デジタル合成の様相が変わってきている。費用がかかり複雑な作業も必要とされるが、ドラマ『The Mandalorian(マンダロリアン)』で使われていたような視聴者の目を引くLEDスクリーンが、グリーンバックやフレームごとのロトスコープ処理といった標準的な方法に代わって採用されるようになっている。そのため、振り返るだけの一瞬のシーンやラッシュ(下見用フィルム)などの場合に背景をシンプルなワンステップの処理で簡単に消去できる技術は、VFX技術のスタジオや製作スタジオにとって救世主となるだろう。

動画編集の市場が進化しているのは間違いないが、有料会員数が証明しているように、ニーズも確かに存在しているのだ。カレイドはこれまで完全に自己資金で運営しており、投資家を取り込む必要も願望もない。経費やメディア露出に対応できるだけの収益を獲得しているためだ。

現代の大半のメディア製品と同じく、アンスクリーンはフリーミアムのサブスクリプションモデルで提供されている。10秒間までの動画であれば無料でお試し利用できる(とはいえ、透かしが入った低解像度のファイルとなるため、一般公開には不向き)。また、通常のサブスクリプションの場合は、アップロードする映像の量に応じて月額9ドル(約950円)から389ドル(約41000円)までさまざまなプランが選択可能だ。収益の3分の2は中小企業からのものだが、有料会員には大手の企業やメディア会社も含まれる。

もちろん、製品そのものの品質が低ければ話にならない。そこで私自身、長い髪の女性が映った5分間の720pの動画を処理してみたところ、およそ45分で完了した。出来上がりは良い品質で、髪の部分もしっかり残っていた。わずかに狂いはあったが、それも適宜ペイント処理で簡単に修正できる程度のものだった。私が自撮りでカメラに話しかけた1分半の1080pの動画も処理してみたが、こちらは33分で完了し、同僚の23秒間の動画(私のものより線がもう少しはっきりしていた)については約10分で非常に鮮明な動画が仕上がった。

これも最初のFashion Week(ファッションウィーク)のようなおしゃれな動画だと思った読者の方、残念

なぜこんなに処理時間がかかるのか、疑問に思ったことだろう。ズームではリアルタイムで映し出されるが、解像度が低いうえ、品質も良くない。オンラインで無期限に公開したり、製品の広告に使用したりするような素材には、もっと高品質のものが必要だ。私個人の感覚としては、アンスクリーンの背景消去はかなり品質が良いものの、そのまま世に出せるほどではない。公開前に一度確認し、不具合を修正したほうがよいだろう。

ユーザーは動画の背景として静止画や別の動画、単色の背景を選択できるほか、2つのチャンネル(アルファチャンネルとカラーチャンネル)に分けてエディターに流し込むこともできる。その他のオプションは限られているため、グレードアップやリサイズ、別の色での再レンダリングなどには対応していない。結局のところ、これはオンラインの動画編集プラットフォームではなく、ウェブホスティング型のVFXのため、それ相応の機能が搭載されているという印象だ。

一点、カレイドが慎重に動作確認を行ってきた点がある。これが差別化要因になるのは悲しい限りだが、アンスクリーンは、他のソリューションではうまく認識できない特定の肌や髪の色に対応している。事実、こうしたツールでは特定の背景の場合に、肌のトーンが暗い人よりも明るい人の方が、巻き髪の人よりもストレートヘアの人の方が、消去処理が正確である場合があり、これらのツール開発に使用されるトレーニングセットに多様性が欠如していることを示している。

コンピューターの視覚アルゴリズムが原因で、巻き髪は特に処理が難しいことで有名だが、アンスクリーンではそこそこ良い仕上がりとなっている

カレイドのBernhard Holzer(バーナード・ホルツァー)氏によると、カレイドはこの点を初めから意識しており、チームとして世界中からトレーニングデータを収集することで、国や大陸に関係なくすべてのユーザーに平等に対応できるよう徹底してきたという。また、予期しない課題にも目を光らせている。例えば、卒業式用の角帽をかぶった人が飾りの紐を左右に動かしている動画をシステムがうまく認識できないことが分かったため、データを大量に加えて修正を行った。フィードバックを送信するようユーザーを促し、それを生かすことによってシステムを継続的に進化させている。

カレイドの会社規模の成長も止まる気配がなく、今年は従業員数が倍増して30名に達する見込みだ。また、前述の通り資金も引き続き同社の収益のみで運営される。ウェブツールの品質向上は確かに相当なものだ。これまでは、1回のクリックで背景を消去できるツールなど誰も想像していなかった。そんな中で業界初のサービスを創出したアンスクリーンは、業界トップの座を獲得し、その座を維持することを目指している。

関連記事:パンデミック時代に適合し動画制作方法を作り変えるVidMob

カテゴリー:ソフトウェア

タグ:動画撮影・編集 機械学習

[原文へ]

(翻訳:Dragonfly)

ビジュアルデータを管理、アノテートに特化したAIデータ管理プラットフォームのDataloopが約11.55億円を調達

データセットのアノテートなど企業のAIプロジェクトに使われるデータのライフサイクル全般の管理を専門とするテルアビブのスタートアップ、Dataloopが米国時間10月14日、これまでの合計で1600万ドル(約16億8500万円)を調達したことを発表した。これは未発表だったシードラウンドの500万ドル(約5億3000万円)と、最近完了したシリーズAの1100万ドル(約11億5500万円)の合計だ。

シリーズAを主導したのはAmiti Venturesで、ほかにF2 Venture Capital、クラウドファンディングプラットフォームのOurCrowdNextLeap VenturesSeedIL Venturesが参加した。

DetaloopのCEOであるEran Shlomo(エラン・シュロモ)氏は「データのラベリングが制限されていることやリアルタイムで検証するには人間がシステムに入力する必要があることから、多くの組織がAIと機械学習のプロジェクトを最終版に移行するのに苦戦しています。今回の資金で我々はパートナーとともにこうした障壁を取り除き、グローバル市場でAI業界を変えイノベーションのための需要増に対応できる次世代のデータ管理ツールを提供することに努めます」と述べた。

基本的にDataloopは企業のビジュアルデータを管理しアノテートすることに特化している。どのような業界が顧客になるかはまだ定かではないが、ロボティクスやドローンから小売業、自動運転まで、あらゆる業界が対象になると考えられる。

プラットフォーム自体は「人間参加型」モデルを中心としている。これは自動化されたシステムを補完するモデルで、必要に応じて人間がモデルをトレーニングし修正できる。ホストされているアノテーションプラットフォームを開発者向けのPython SDKやREST APIと組み合わせ、データフローを自動化するKubernetesクラスタ上で動作するサーバーレスのFunctions-as-a-Service環境もある。

Dataloopは2017年に創業した。同社は新たに調達した資金で、イスラエルのスタートアップでよく見られるように欧米市場での成長を目指す。またエンジニアリングチームの強化も図る。

カテゴリー:人工知能・AI
タグ:Dataloop資金調達イスラエル機械学習

画像クレジット:Dataloop

原文へ

(翻訳:Kaori Koyama)

5分以内に終わるオックスフォード大学の機械学習ベースの高精度新型コロナ検出技術

オックスフォード大学の物理学科の科学者たちが、SARS-CoV-2を高精度で検出できる新しいタイプの新型コロナウイルス試験法を開発した。患者から採取した検体から直接検査し、機械学習ベースのアプローチを用いて、試験供給の限界を回避に役立つ可能性がある。またこの検査は、抗体やウイルスの存在の兆候ではなく、実際のウイルス粒子を検出する場合にも利点がある。これらの兆候は必ずしも、活動的な感染性のある症状と相関しない。

オックスフォードの研究者たちが作り出した試験はまた、スピードの点でも大きな利点があり、検体の前処理を必要とせず5分以内に結果を出すことができる。これは、現在の新型コロナウイルスパンデミックに対処するためだけでなく、将来の世界的なウイルス感染の可能性に対処するためにも必要不可欠なものであり、大量検査を可能にする技術のひとつになり得ることを意味している。オックスフォード大学の手法は、多くのウイルスの脅威を検出するために比較的簡単に構成することができるため、実際にはそのためにも十分に設計されている。

これを可能にした技術は、採取したサンプルに含まれるウイルス粒子を、マーカーとなる短い蛍光色のDNA鎖で標識づけすることで実現している。顕微鏡でサンプルとラベル付けされたウイルスを画像化した後、チームが開発したアルゴリズム解析を用いて機械学習ソフトウェアが自動的にウイルスを識別し、物理的な表面構造、大きさ、個々の化学組成の違いにより、それぞれのウイルスが発する蛍光光の違いを利用してウイルスを識別する。

研究者らによると、この技術は検体収集装置、顕微鏡画像、蛍光体挿入ツール、コンピューターシステムを含めて、企業や音楽ホール、空港など、あらゆる場所で使用できるほど小型化できるという。現在の焦点は、すべてのコンポーネントを統合したデバイスの商業化を目的としたスピンアウト会社を設立することだ。

研究者は、起業し来年初めまでの製品開発をスタートを目指している。デバイスの実用認可と流通の整備にその後約半年かかるだろう。新しい診断デバイスの開発としてはタイトなスケジュールだが、パンデミックに直面してすでにスケジュールは変更されており、新型コロナウイルスは近い将来に消え去るとは考えづらいため今後続けられるだろう。

関連記事:Carbon Healthが簡易の新型コロナ検査クリニックを全米で100カ所立ち上げ

カテゴリー:ヘルステック
タグ:オックスフォード大学新型コロナウイルス機械学習

画像クレジット:オックスフォード大学

原文へ

(翻訳:iwatani、a.k.a. hiwa

小さなカーリングロボットのCurlyがストーンをみごとに投げた

最近はロボットがいろいろなスポーツで活躍しているが、本質的に得意とするのは特定の動作を繰り返すスポーツだ。ある種のスポーツ、例えばカーリングではタスクが限定された動きなのでロボットに非常に適している。韓国とドイツの研究者チームは国際大会に出場できるレベルでストーンを投げるロボットを開発した。

カーリングは氷の上に描かれた的に向かってストーンを投げるゲームだ。やったことないなら残念だが、大変おもしろい。ストーンを滑らせて押し出す動作は簡単に見えるが、適切な戦略を立ててスピード、方向とスピンを微妙にコントロールしなければならない。

ストーンは家庭で使う大型のやかんぐらいの大きさの非常に重い石で、これを氷上に描かれたサークルの中心にできるだけ近い位置に止めなければならない。このとき敵チームのストーンを弾き飛ばしたり、味方のストーンに当てて位置を動かしたりすることがテクニックとなる。ロボットのCurlyはまさにこれができるので驚きだ。

ソウルの高麗大学とドイツのベルリン工科大学(Berlin Institute of Technology)の研究者は「流動的な現実環境に応じて対話的に人工知能を利用するシステム」の実験としてCurlyを開発したという。つまりロボットは常に変化する的の状況を認識し、それに応じて自己の戦略を決定し、高い精度で実行しなければならない。

Curlyは2つのシステムで構成されるロボットだ。一つは的の状況を観察し戦略を決定するスキップの役割だ。もうひとつのシステムが実際にストーンを投げる。今のところ氷をホウキで掃いてストーンの進路を調整するスウィーパーはおらず、「ハード、ハード!」という叫びも聞かれない。しかし将来はスウィーパーロボットも開発されるのだろう。

このロボットのAIはストーンと氷の相互作用を物理的にシミュレーションしたカーリングのコンピューターゲームで訓練された。こうしたシミュレーションの成否はモデル化の正確さにかかっている。Curlyの場合これが極めてうまくいっているようだ。各ラウンドの第一投で氷の状況を確認し、それに応じて以後の戦略が決定される。

 

ロボットの動作は非常に優秀で、韓国の女子カーリングチームのトップや車椅子カーリングの国際試合の代表チームのレベルだ(4戦して3勝している)。スイーパーを含めた場合試合の結果がどう変わるかは興味のあるところだが、現時点では十分な成果とみていいだろう

ロボットの開発チームによれば、人間と試合をして好成績を収めたということよりも、現実のダイナミックな状況を認識し、リアルタイムで適切な戦略を決定できたことが重要なのだという。開発チームがロボットにいちいち新しい状況に応じた動作をプログラムしているわけではない。つまりロボティックスにとっての成果である一方、AIが自ら状況を認識してリプログラミングするという能力を実現できたことが大きい。最近までこのような複雑な状況をAIによって認識、分析することは極めて困難だった。

CurlyのAIその他エンジニアリング上の詳細についてはScience Roboticsに掲載された論文を参照 。

画像:Korea University

原文へ

(翻訳:滑川海彦@Facebook

自動化によりデータサイエンスは不要になるだろうか?

著者紹介:Tianhui Michael Li(ティエンフイ・マイケル・リー)氏は、学術界から産業界への博士やポスドクの移行を支援する8週間のフェローシップで知られる、The Data Incubator の創設者である。それ以前はFoursquareでマネタイゼーション・データサイエンスの責任者を務め、GoogleやAndreessen Horowitz、J.P.Morgan、D.E.Shawにおける勤務経験も有する。

「自動化によりデータサイエンスは不要になるだろうか?」

これは、私が参加するカンファレンスでほぼ毎回尋ねられる質問である。大抵質問を発するのはこの問題に関心を寄せる2つのグループである。まず1つ目のグループは、将来の雇用の見通しについて憂慮している現役の実務家、またはその志望者である。もう一方のグループは、データサイエンスへの取り組み開始したばかりの経営陣やマネージャーで構成されている。

彼らは、Targetは顧客が妊娠しているかどうかを買い物のパターンから判断できる、と聞くと、彼らのデータにも適用できるそうした強力なツールを持てないかと考える。そして、自動化AIベンダーが最新のセールスプレゼンテーションで、データサイエンティストなしにTargetが行ったのと同じこと(あるいはそれ以上)を実現できる、と主張するのを耳にする。彼らの問いに対し、私たちは、自動化や、より進化したデータサイエンスツールは、データサイエンスの需要をなくすことも、減らすこともないと主張している(Targetのストーリーのようなユースケースを含めて)。自動化によってさらに多くのデータサイエンスに対する需要が生み出されるのだ!

その理由は次のとおりだ。

関連記事:What’s different about hiring data scientists in 2020?」(未訳記事)

ビジネス上の問題を理解することが最大の課題

データサイエンスにおける最も重要な問題は、どの機械学習アルゴリズムを選択するかではなく、どのようにデータをクリーンアップするかでさえない。コードを書く前にまず考えるべきことがある。それはどのようなデータを選択し、そのデータに対してどのような質問を設定するか、ということである。

一般的イメージに欠落しているのは(希望的観測の面もあるが)、創意工夫、創造性、そしてこれらのタスクに注がれるビジネスへの理解である。顧客が妊娠しているかどうかを気にするのはなぜか。Targetのデータサイエンティストたちは、積み重ねてきた研究作業に基づいて、これがなぜ小売業者を変える準備をしている高収益の顧客層であるのかを把握した。利用可能なデータセットはどれか?それらのデータセットについて科学的に検証可能な質問をどう提示できるか?

Targetのデータサイエンスチームは、ベビーレジストリ(ベビー用品の買い物リスト作成サービス)データを購入履歴と結びつけ、それを顧客の支出と結びつける方法を見い出した。どのようにして成果を測るか。非技術的な要件を、データで回答できる技術的な質問に定式化することは、データサイエンスにおける最も困難な作業の一つであり、さらに精度を伴うことは非常に難しい。こうした問題を定式化できる経験豊かな人間がいなければ、データサイエンスへの取り組みを始めることさえできないだろう。

前提条件の作成

データサイエンスの質問を定式化した後、データサイエンティストは前提条件の概要をまとめる必要がある。これには、多くの場合、データのマンジング、データのクリーンアップ、フィーチャーエンジニアリングといった作業が伴う。現実世界のデータはまぎれもなく混沌としており、保有するデータと、取り組もうとしているビジネスやポリシーの質問とのギャップを埋めるために、多くの前提条件を作らなければならない。また、これらの前提条件は、実際的な知識とビジネスコンテキストに大きく依存する。

Targetの例では、データサイエンティストは妊娠の代理変数、分析の現実的な時間枠、正確な比較のための適切な対照群について前提条件をまとめる必要があった。彼らは、無関係なデータを捨て、特徴を正しく正規化できるような、現実的な前提条件をほぼ確実に作成しなければならなかった。こうした作業はすべて、人間の判断に大きく依存している。機械学習におけるバイアスに基づく問題が最近相次いでいるとおり、人間をこのループから外すのは危険だ。その問題の多くが、フィーチャーエンジニアリング排除強く主張するディープラーニングアルゴリズム周辺から発生しているのは、偶然ではないだろう。

コアとなる機械学習の一部は自動化されている(私たちもこれらのワークフローを自動化する方法をいくつか教えてさえいる)が、データサイエンスにおける実際の仕事の90%を占める、データのマンジング、データのクリーンアップ、フィーチャーエンジニアリングについては、安全に自動化することはできないのだ。

歴史的な例示

データサイエンスが完全には自動化されないことを示唆する明確な先例がある。ある分野では、高度な訓練を受けた人間が、コンピューターに驚くべき偉業を達成させるコードを生み出している。こうした人材は、この分野において、スキルを持たない人材よりもかなり高い報酬を得ており(驚くにはあたらない)、このスキルの訓練に特化した教育プログラムが存在する。その結果生じる、この分野を自動化しようとする経済的圧力は、データサイエンスへの圧力と同じように激しい。その分野とは、ソフトウェアエンジニアリングである。

実際、ソフトウェアエンジニアリングが容易になるにつれて、プログラマーへの需要は増すばかりである。自動化によって生産性が向上し、価格が下がり、最終的に需要が増大するというこのパラドックスは、新しいものではない。ソフトウェアエンジニアリングから財務分析企業会計に至るまで、さまざまな分野で繰り返し見られている現象だ。データサイエンスも例外ではなく、自動化により、このスキルセットに対する需要が促進されるだろう。

関連記事:データ駆動型組織になるための5つの構成要素

カテゴリー:人工知能・AI

タグ:機械学習 コラム データサイエンス

[原文へ]

(翻訳:Dragonfly)

米国のGoogleポッドキャストに機械学習でニュースをカスタマイズする機能が登場

2019年にGoogle(グーグル)は、Googleアシスタントでオーディオニュースをカスタマイズする「Your News Update」というプレイリストをリリースした(未訳記事)。機械学習の技術を活用してニュースコンテンツを理解し、そのコンテンツがリスナーの好みや関心とどう関連するかを判断する機能だ。米国時間9月2日、グーグルはオーディオのカスタマイズをGoogleポッドキャストに広げ、米国の数百万人のポッドキャストリスナーに提供すると発表した(Googleブログ)。

Your News Updateを購読するには、Googleポッドキャストアプリを起動し、Exploreタブでいくつかのストーリーを購読して聴く。これにより、関心や地域、履歴、設定が反映されるようになる。

画像クレジット:Google

Your News UpdateはAlexaで人気のFlash Briefingをさらに賢くした機能として設計された。現在、Alexaユーザーは1万種類を超えるFlash Briefingのスキルからニュース提供元やコンテンツを追加して自分のFlash Briefingをカスタマイズすることができる。しかしこの作業はユーザーがやらなくてはならない。

Your News Updateは、グーグルがユーザーの関心を理解することで、この面倒な作業をアルゴリズムに任せる。

カスタマイズではユーザーがGoogleに対して明示的に提供しているデータが考慮される。フォローして関心を示したトピック、ニュース提供元、地域などだ。これに加えグーグルは、ユーザーのグーグル製品利用状況から収集したデータ(Googleアカウントの設定)を利用し、ユーザーの関心に応じてニュースをさらにカスタマイズする。ただしユーザーは自分のアカウント設定のページでカスタマイズをオフにすることができる。

Your News Updateの下にあるGoogleアシスタントのリンクから、ニュースのアルゴリズムの仕組みを詳しく説明したウェブサイトにアクセスできる。グーグルは、ニュースのアルゴリズムではユーザーの政治的信条や属性に基づくカスタマイズはしないと説明している(Googleの説明ページ)。

とはいえ、GoogleニュースやDiscoverで特定のパブリッシャーをフォローしたり非表示にしたりする、あるトピックをフォローする、似た記事をもっと多くまたは少なく表示するように指定するといったアクティビティから、グーグルは知り、学んでいく。

つまりグーグルはYour News Updateを組み立てるために、ユーザーに関して知っている豊富な情報と、ユーザーが好みに合わせてニュースをカスタマイズした行動についての知識を組み合わせる。

これが有効に働く場合もある。例えば好きなスポーツチームや地元の最新ニュースを受け取ることができる。ユーザーを左派寄りあるいは右派寄りのニュース提供元に誘導しようという意図はないだろうが、カスタマイズ技術の仕組みとグーグルのパブリッシャーのラインナップに基づいて結果としてそうなることはあり得る。グーグルのラインアップには左派寄りと右派寄りの両方のニュース提供元(ad fontes mediaサイト)がある。

画像クレジット:Google

さらにグーグルはサービス開始にあたって、ユーザーの使い方から学ぶのでGoogleアシスタントの機能を使えば使うほど適切にカスタマイズされるようになると述べている。

ポッドキャストのアップデートとあわせて、グーグルはGoogleアシスタントで地元の話題を簡単に聴けるようにする。「Hey Google, play local news(ローカルニュースを再生して)」「Hey Google, play news about [your city]((街の名前)のニュースを再生して)」と話しかければ、ネイティブ音声とテキスト読み上げのローカルニュースのミックスを聴くことができる。この機能を利用すると、Your News Updateの選択にも反映されるようになる。

画像クレジット:Google

[原文へ]

(翻訳:Kaori Koyama)

機械学習のためのデータセットを見つけるExploriumが約32.5億円調達

データの量はどんどん増え、1つひとつの機械学習モデルに対して適切なデータセットを見つけるのは場合によっては難しい。Exploriumは、それを簡単にするプラットフォームを作っているスタートアップだ。同社は米国時間7月28日に、シリーズBで3100万ドル(約32億5500万円)を調達したと発表した。

このラウンドを主導したのはZeev Venturesで、Dynamic Loop、Emerge、01 Advisors、F2 Capitalも支援した。Exploriumによれば、これまでの調達金額の合計は5000万ドル(約52億5000万円)となった。

CEOで共同創業者のMaor Shlomo(マオール・シュロモ)氏は、同社のプラットフォームはモデルに合うデータを見つけたい人を支援するために設計されていると言う。「分析における次のフロンティアは、特定のアルゴリズムをいかに調整したり改善したりするかではなく、できるだけ有用で影響力のあるアルゴリズムにする目的に合うデータセットをいかに見つけるかということになるだろう」と同氏は語る。

パンデミックが発生して、企業のこうしたニーズは以前より高まっているとシュロモ氏は述べる。これまでのデータが予測モデルの構築の役に立たない場合に、適切なデータセットを見つければ妥当なデータを見つけやすくなる可能性があるからだ。例えば小売業の場合、店舗を営業できなくなった地域に関してはその企業が持っている過去の購買データは関連性がなくなるだろうと同氏は説明する。

「組織が解決しようとしている業務上の問題に影響を与える環境要因はたくさんある。そこでExploriumが業務上の問題を解決するためのデータを検索するレイヤーになり、顧客の予測モデルを進化させようとしている」(シュロモ氏)。

パンデミックが発生した3月、シュロモ氏はパンデミックが自社に及ぼす影響を懸念し、雇用を控えた。しかし4月と5月に業績が伸びているのを見て、雇用を再開することにした。同社のイスラエルと米国のオフィスには現在87名の従業員がいて、今後数カ月で100名にまで増やす計画だ。

雇用に関してシュロモ氏は、特定の学位を取得しているとか特定の学校に行っていたというような厳密なルールは設けないと言う。同氏は「重要なことはただひとつ、成功を渇望する良い人材を採用することだ。カルチャーやグループが多様になれば、メンバーがお互いを発見しさまざまなカルチャーを発見して楽しくなる」と説明する。

資金調達に関して言うと、Exploriumは成長を加速するために資金を必要としていたものの、2019年のラウンドで得た資金はまだ十分に残っていた。「パンデミックが発生してどれぐらい続くかわからず、(最初のうちは)パンデミックによってビジネスがどの程度影響を受けるかもわからなかった。既存の投資家は我が社に対して常に楽観的だった。我々はその見方に従うことにした」とシュロモ氏は語った。

同社は2017年に創業し、2019年のシリーズAでは1910万ドル(約20億550万円)を調達した(未訳記事)。

画像クレジット:Explorium

[原文へ]

(翻訳:Kaori Koyama)

がんを専門とする計算病理学スタートアップのPaigeがシリーズB投資で75億円を調達

Memorial Sloan Kettering Cancer Center(メモリアル・スローン・キャッターリングがんセンター、MSK)から独立し2018年に創設された(未訳記事)スタートアップのPaige(ペイジ)は、AIを使ってがん病理学の理解を深め、高度ながん研究と治療に貢献している。Paigeは米国時間7月13日に、その成長過程の一里塚となるシリーズBラウンドでGoldman Sachs(ゴールドマン・サックス)とHealthcare Venture Partners(ヘスルスケア・ベンチャー・パートナーズ)から2000万ドル(約21億円)を調達し、7000万ドル(約75億円)でクローズした。

PaigeのCEOであるLeo Grady(レオ・グラディ)氏は、この資金はいくつかの分野に使われると話している。

その用途は人材雇用、バイオ医薬品メーカーとのパートナーシップの拡大(契約内容はまだ公開されていない)、MSKのアーカイブにある2500万件の病理診断スライドでトレーニングした自社開発のアルゴリズムを基礎とする臨床研究への投資、そしてPaigeの事業の基本となるAIベースの計算病理学に関連する情報処理となっている。また、英国とヨーロッパへの進出にも使われるという。Paigeは、両地区での臨床利用を可能にするCEマーキング認証を取得している。すでに英国とEUにベータサイトを設けているが、どちらの地区でも完全な商用化には至っていないとグラディ氏は話している。

PaigeはBreyer Capital、MSK、Kenan Turnaciogluといったその他の投資家から9500万ドル(約102億円)以上を調達しているが、評価額は公表していない。しかし、このラウンドの最初の4500万ドル(約48億円)の支払いが発表された2019年12月、様々な情報を総合して我々は評価額をおよそ2億800万ドル(約223億円)と見積もった。その後、同社は2020年4月に500万ドル(約5億4000万円)を受け取っている。最後の2000万ドルを呼び寄せた要因の1つは堅調な事業だとグラディ氏はいう。結果として、資金調達が厳しい現状にも関わらずPaigeはそうした困難に遭わずに済んでいる。

「ゴールドマン・サックスが最初に投資を行ったときの状況(4月の500万ドル)」は「新型コロナウイルスの大打撃を受け、その深刻さに気がつき始めたころでした」とグラディ氏。「経済の中で、物事がPaigeにどう作用するかを彼らは見たかったのです。しかし、その成り行きは勇気づけられるものとなりました」。

たしかに現在は、多くの人の意識が新型コロナウイルスという形で世界中に蔓延した目下の公衆衛生の危機と、それが経済と社会に及ぼすドミノ効果に集中している。そうした中でのPaigeの成長は興味深い。

新型コロナウイルスと、それががんなどその他の疾患に及ぼす影響への私たち理解はまだ初期段階(CIDRAP記事)であり、Paigeの研究はそこには直接関わってはいない。だが同時に、デジタル化したスライドを中心に構築されている同社のプラットフォームは、それ自体が臨床医や、研究所に毎日出勤できなくなった人たちの役に立っている。

同社の共同創設者であるThomas Fuchs(トーマス・フックス)博士は「計算病理学の父」と呼ばれる人物で、MSKのThe Warren Alpert Center for Digital and Computational Pathology(デジタル及び計算病理学のためのウォーレン・アルパート・センター)の計算病理学のディレクターであり、ワイルコーネル医科大学医療科学大学院の機械学習教授でもある。もう1人の共同創設者であるDavid Klimstra(デイビッド・クリムストラ)博士は、MSKの病理学学部長だ。そうしたPaigeの企業向け視覚化システムは、遠隔でのデジタルスライドの閲覧を可能にする。今やどのハードウェアメーカーにもデジタルビューワーはあるが、それも自社のスキャナーにのみ対応する独自仕様で、「高性能には作られてない」とグラディ氏は指摘する。

Paigeのプラットフォームでは、利用者は研究成果だけでなく、実際にスライドをやり取りすることなくオリジナルデータも共有できるのだが、データの「読み出し」用に組み込まれた高性能ソフトウェアを使うことで、臨床医や研究者は他の方法を使うよりも総合的にデータを見ることができる。これは当初、前立腺がんと乳がんのためのものだったが、今はその他のがんにも範囲を広げているとグラディ氏は話す。「私たちはワークフローに情報を追加し、データの信頼性と品質を高めようとしています。最初の段階(プラットフォームとスライド)が次の段階を可能にしました」。

ゴールドマン・サックスの投資は、この大手金融サービス企業の自己資金投資部門から出ている。そしてその一環として、同社の業務執行取締役であるDavid Castelblanco(デビッド・カステルブランコ)氏がPaigeの役員会に加わった。

「私たちはこの会社と、その成長の早さに本当に驚かされました」と彼は声明の中で述べている。「レオ、トーマスそしてPaigeのスタッフのがん治療分野での人工知能と機械学習を駆使した革新的な仕事への支援が増やせることを、とても嬉しく思っています」。

「そもそも私たちがPaigeへの投資を決めたのは、彼らの製品がこの業界に膨大な価値をもたらし、がん治療の未来に大きな影響を与える可能性に気づいたからです」とHealthcare Venture Partnersの専務取締役であるJeffrey C. Lightcap(ジェフリー・C・ライトキャップ)氏はいう。「Paigeがわずかな期間で目覚ましい成長を遂げた後に、その成長をさらに加速させようと私たちは追加投資を行いました」。

画像クレジット:Ed Uthman Flickr under a CC BY 2.0 license.

原文へ
(翻訳:金井哲夫)