理研ら国際共同研究チーム、医療ビッグデータとコンピューター科学を活用し卵巣がんの新しい治療標的を特定

理研ら国際共同研究チーム、医療ビッグデータとコンピューター科学を活用し卵巣がんの新しい治療標的を特定

高異型度漿液性卵巣がんにおけるLKB1-MARK3経路の機能異常

理化学研究所(理研)は2月7日、医療ビッグデータとコンピューター科学の活用により、卵巣がんの新しい治療標的「LKB1-MARK3経路」を特定したと発表した。卵巣がんの中でもっとも死亡者数の70から80%を占める「高異型度漿液性卵巣がん」の新しい治療法の開発につながると期待されている。

これは、理研、国立がん研究センター研究所国立がん研究センター中央病院東京大学米メモリアルスローンケタリングがんセンター米国立がん研究所の国際共同研究によるもの。

高異型度漿液性卵巣がんの研究では、ゲノム解析の結果、ほぼ全例にがん抑制遺伝子TP53の不活性化型変異が認められている。その症例の半数にはPARP阻害剤が有効な治療法とされるが、残りの半数の症例への治療標的が十分には確立されていなかった。しかし、個別の遺伝子変異に注目した従来型の研究手法では、これ以上新しい治療標的を発見できない可能性がある。そう感じた研究グループは、様々なアルゴリズムを用いてコンピューター解析を行う「ビッグデータ解析」による、遺伝子発現量の変化を定量的に評価する必要があると考えた。

研究グループは、高異型度漿液性卵巣がんのがん組織と正常卵巣組織の遺伝子発現量を比較解析するために、大規模なマイクロアレイデータ、RNA-seqデータ、臨床情報などが含まれる複数データベースの統合解析を行い、遺伝子発現変化が臨床予後に影響する遺伝子を抽出するために、新しい解析プラットフォームを構築。これにより、「LKB1-MARK3経路」のMARK3遺伝子が高異型度漿液性卵巣がんで発現抑制されており、その遺伝子発現量の低下が臨床予後の悪化に関わることがわかったという。

医療ビックデータ解析による新規治療標的の探索パイプラインと解析結果

医療ビックデータ解析による新規治療標的の探索パイプラインと解析結果

次に、ビックデータ解析の結果を臨床医学的に検証するために、高異型度漿液性卵巣がんの正常組織(卵管上皮細胞)と前がん病変(上皮内がん)、浸潤がんの患者由来検体を用いて、「セリンスレオニンキナーゼ(serine-threonine kinase)をコードするがん抑制遺伝子」であるLKB1と、「LKB1によって直接的にリン酸化修飾を受けるセリンスレオニンキナーゼ」であるMARK3のタンパク質発現量を評価した。

その結果、LKB1とMARK3からなる「LKB1-MARK3経路」のMARK3遺伝子が高異型度漿液性卵巣がんで発現抑制されており、その遺伝子発現量の低下が病状の悪化に関わっていることがわかった。さらにその後の解析により、MARK3は卵巣がん細胞株において抗腫瘍効果を発揮することもわかった。これは、マウスの皮下組織にMARK3を強制発現させた卵巣がん細胞株を移植する実験でも、明らかとなった。

卵巣がん組織におけるLKB1とMARK3のタンパク質発現プロファイル

卵巣がん組織におけるLKB1とMARK3のタンパク質発現プロファイル

今回の研究は、理化学研究所革新知能統合研究センターの情報科学技術を用いて、「医療ビッグデータを解析し、従来の医学研究手法でその結果を検証した」ものであり、その成果は「がん研究においても情報科学と医学が融合した学際的な研究手法が重要であることを示しています」と研究グループは話している。このビッグデータ解析手法は、異なるがん種や疾患の原因探索にも応用できる可能性があるとのことだ。

JAXA認定宇宙ベンチャー天地人、衛星画像から水道管の漏水可能性区域を判定する実証実験を開始

JAXA認定宇宙ベンチャー天地人、衛星画像から水道管の漏水可能性区域を判定する実証実験を開始

JAXA認定の宇宙ベンチャー企業であり、宇宙ビッグデータを活用して土地の価値を見出すスタートアップ天地人は、衛星画像を使って水道が漏水していると思われる箇所の推定を行う実証実験を開始する。これは、愛知県の豊田市上下水道局、漏水検査や地中探査事業を展開するフジ地中情報と共同で実施されるもので、豊田市全域を対象として、2022年2月1日から2023年3月下旬まで行われる。

この実証実験で天地人は、衛星画像をAIで高精度解析して水道管の漏水可能性区域を判定し、フジ地中情報が実施する路面音聴調査のデータをもとに、AIによる漏水可能性判定の分析と精度向上を行うことにしている。「最新の衛星データでどこまで漏水可能性区域を判定できるかを検証」すると天地人は話している。

同様の調査は、2021年8月、豊田市の一部地域を対象に行っているが、そのときの推定的中率は約3割だった(556の漏水可能性区域のうち154区域で漏水が判明)。このときは、判定区域の直径を200mとしていた。今回は、直径100m以内に狭め、的中率約6割を目指すという。

【コラム】AI時代の「データの産業革命」:創始者たちが間違っていたこと

2010年2月、The Economist(エコノミスト)は「Data, data everywhere」というレポートを公開した。当時は、そのデータのランドスケープが実際にはどれだけ単純なものであったか、ほとんどわかっていなかった。つまり、相対的に見て、2022年に目を向けるときに直面するデータの現実を考えた場合である。

このEconomistのレポートの中で筆者は、ビッグデータをめぐる興奮から始まり、現在のデータ駆動型AIの時代に続いている「データの産業革命」に社会が突入しつつあることについて語った。この分野の多くの向きが、この革命によってより多くのシグナルを持つノイズを抑えた標準化がもたらされると期待していた。だがその代わりに、ノイズは増え、一方でシグナルはより強力になっている。つまり私たちは、ビジネス上の成果が大きくなるポテンシャルを有しながら、より困難なデータの問題を抱えているのである。

また、人工知能にも大きな進歩が見られている。それは現在のデータ世界にとって何を意味するのだろうか。私たちがいた場所を振り返ってみよう。

Economistの記事が掲載された当時、筆者はカリフォルニア大学バークレー校を離れ、同大学と共同でIntel Research(インテル・リサーチ)の研究所を運営していた。私たちは当時、今でいう「モノのインターネット(IoT)」に全面的にフォーカスしていた。

当時私たちが話していたのは、建物や自然、壁の塗料など、あらゆるものに埋め込まれた、相互に接続された小さなセンサーのネットワークについてであった。物理的な世界を計測しその現実をデータとして捉えることができるというビジョンがあり、そのビジョンに向けて理論を探求し、装置やシステムを構築していた。

私たちは将来に目を向けていた。しかし当時、データに関する一般的な熱狂のほとんどは、ウェブと検索エンジンの台頭を中心に展開していた。誰もが「ドキュメント」という形で大量のデジタル情報にアクセスできることを話題にしていた。ドキュメントとは、人間が生成し、人間が消費するコンテンツのことを意味する。

水平線の向こうに見えたのは、さらに大きな機械生成データの波だった。これは、筆者が「データの産業化」と呼んだものの1つの側面であり、データは機械駆動でスタンプアウト(型に合わせて生成)されるため、ボリュームが大幅に増加していくだろうと考えていた。そして、それは確かに起こった。

筆者が想定していた「データの産業革命」の第2の側面は、標準化の出現である。簡単に言えば、機械が生成しているものは毎回同じ形式で生成されるため、無数のソースからのデータを理解して結合することで、よりゆるやかな増幅過程を実現でるはずだ。

標準化の先例は古典的な産業革命であり、すべての関係者が交通機関や船舶のような共有リソースやプロダクト仕様を標準化するインセンティブが存在した。それはこの新しいデータ産業革命にも当てはまるように思われ、経済やその他の影響力がデータの標準化を推進するだろうと考えられた。

そのようなことはまったく起こらなかった。

実際、逆のことが起こった。「データの浪費」が大幅に増加した。これはログファイルの形式で計算量が指数関数的に増大した結果であり、標準化されたデータはわずかな増加に留まった。

そのため、統一された機械指向のデータではなく、さまざまなデータやデータ型が膨大な量となり、データガバナンスが低下した。

データの浪費や機械生成データに加えて、データを敵対的に利用するようになり始めた。これはデータに関与する人々が、その利用に対して多くの異なるインセンティブを持っていたためである。

ソーシャルメディアのデータと「フェイクニュース」に関する最近の話題を考えてみよう。21世紀初頭においては、個人だけでなく、大衆にリーチしようとしているブランドや政治的利益のために、デジタル情報をバイラルにすることの巨大な実験がなされた。

今日では、そのコンテンツの多くは実際には機械で生成されているものの、人間の消費と行動パターンに合わせたものだ。何年も前の純真な「人による、人のための」情報通信ネットワークとは対照的である。

要するに、今日のデータ生産産業は途方もなく大規模であるが、標準的なデータ表現に合わせて調整されておらず、10年余り前に筆者がこうした予測を立てたときに期待していたものではない。

イノベーションの状況:AI対人間のインプット

この10年ほどで明らかに大きく進歩したのが人工知能だ。私たちがアクセスし、処理し、モデルに取り込むことができるこの莫大なデータは、数年のうちにAIをSFから現実に変えた。

しかしAIは、ビジネスデータ処理の領域では期待していたほど有用ではない。少なくとも今のところはそうだ。自然言語処理のようなAI技術と構造化データの間には、驚くほどのずれが依然として存在する。いくらかの進展があったとしても、ほとんどの場合、データと通信して多くの成果が返ってくることは期待できない。Google(グーグル)で定量的な質問をして、テーブルやチャートが返ってくることもあるが、それは適切な質問をする場合に限られる。

AIの進歩は、スプレッドシートやログファイルなどの定量的で構造化されたデータ(IoTデータを含めて)とは、まだ大きく分離されている。結局のところ、私たちが普段データベースに入れているような従来型のデータは、画像検索や単純な自然言語による質問応答のような消費者向けアプリケーションよりも、AIで解読するのがはるかに困難であるということだ。

例えば、Alexa(アレクサ)やSiri(シリ)にデータのクリーニングを頼んでみよう。おもしろいが、あまり役に立たない。

AIの一般的なアプリケーションは、まだ従来のデータ産業には投影されていないが、努力不足のためではない。大学や企業の優秀な人材の多くは、従来の記録指向のデータ統合問題の難解な部分を打破できていない。

しかし、完全自動化はこの業界を巧妙に回避している。その理由の1つは、人間がデータから何を得たいのかを前もって特定するのが難しいことにある。もし「これが、この700個のテーブルを使って私があなたにしてもらいたいことです」と伝え、明確な目標を達成することができれば、アルゴリズムがそのタスクを代行してくれるかもしれない。しかし実際にはそうはならない。代わりに、人々は700個のテーブルを見て、そこに何があるのだろうと思い、探り始める。何度も探し回って初めて、これらのテーブルに何が起こって欲しいのかのてがかりを得ることになるだろう。

データを利用する方法のスペースは非常に大きく、成功の度合いを示す指標は実に多様であるため、探し回ることは創造的な仕事の域を出ない。最適化アルゴリズムにデータを渡して、最適な結果を見つけることはできないのだ。

AIによる完全自動化を待つのではなく、人間はAIからできる限り多くの助力を得るべきである。だが実際的には、ある程度の作用を保持し、何が有用か、あるいは有用でないかを特定した上で、次のステップを特定の方向に向けるべきであろう。それには視覚化と、AIからのフィードバックの束が必要だ。

データのインパクトを把握し、データの分散を制御する

もっとも、AIが本当に力を発揮している分野の1つは、コンテンツの推薦である。結果的にコンピューターは、コンテンツをターゲットにして広めるのに恐ろしいほど効果的なのだ。いやはや、私たちはデータとAIの側面に関するインセンティブとインパクトを過小評価していたのだろうか。

当時、データとそのAIへの利用に関する倫理的な懸念は、主にプライバシーに関するものだった。人々が予約した本のデジタル記録を公共図書館が持つべきかどうかについての大きな議論を覚えている。同様に、食料品のポイントカードプログラムについても論議があった。買い物客は、食料品チェーンがいつどんな食べ物を買ったかを把握して、それに付随するアイテムについて自分たちをターゲットにすることを望まなかった。

その考え方は大きく変わった。現在、10代の若者たちは、購入した食品のブランド以上に、ソーシャルメディア上ではるかに多くの個人情報を共有している。

デジタルプライバシーが良い状態にあるとは言い難いが、今日のデータ問題の中で最悪なものではないことは間違いない。例えば、政府の資金援助を受けた俳優たちが、データを使って私たちの社会的議論に混乱を加えようとしているという問題がある。20年前はこういったものが現れるのを目にすることはほとんどなかった。何が間違った方向に向かっているのかという倫理的な問いについて、大きな意識があったようには思えない。

この要素は、私たちのデータ利用の進化における次の、そして現在進行中のものにつながる。政府と善意の立法の役割はどういったものになるだろうか。ツールがどのように使われるかを予測しなければ、賢明に管理し制限する方法を知ることは難しい。今日の私たちは、データに関するコントロールやインセンティブ、そしてデータがどのように公表されるのかを理解する必要があるように思われるが、テクノロジーは社会がリスクや保護を理解するよりも早く変化している。控えめに言っても、それは不安を感じさせる。

さて、予想は的を得ていたのだろうか?

教授としては合格点を与えたいと思うが、Aにはしたくない。私たちが想像していたよりもはるかに多くのデータが利用可能になっている。その結果、AIと機械学習、そしてアナリティクスが驚くほど進歩したが、多くのタスクではまだ表面的なものにすぎず、他のタスクにおいては旋風を巻き起こしている。次の10年、20年がこのような問題に何をもたらすのか、そして何を振り返るのか、興味深いところである。

編集部注:執筆者のJoe Hellerstein(ジョー・ヘラースタイン)はTrifactaの共同設立者兼最高戦略責任者で、カリフォルニア大学バークレー校コンピューターサイエンスのJim Gray Chair。

画像クレジット:MR Cole Photographer / Getty Images

原文へ

(文:Joe Hellerstein、翻訳:Dragonfly)

九州大学とNTT西が教育ビッグデータで成果を分析するラーニングアナリティクス全国展開、広島市立大学で共同トライアル

九州大学とNTT西が教育ビッグデータを用い成果を分析するラーニングアナリティクスを全国展開へ、広島市立大学で共同トライアル九州大学NTT西日本は12月6日、ラーニングアナリティクス(学習分析:LA)技術を標準化し全国展開する手始めとして、広島市立大学で共同トライアルを行うと発表した。

LAとは、試験やアンケートのみに頼らず、教育・学習に関するビッグデータなどを用いて教育の成果を分析しようという研究領域。九州大学では、2021年4月にLAセンターを設立し、教育データの分析を通じて教育と学修の改善を行っている(大学設置基準上、大学での学びは「学修」としているという。平成24年中央教育審議会答申「新たな未来を築くための大学教育の質的転換に向けて~生涯学び続け、主体的に考える力を育成する大学~」)。コロナ禍により、リモート授業やオンライン留学など大学の授業のあり方が変化したが、この流れはコロナ収束後も後戻りすることはないとされる。さらにDXの推進による効果的な学修が求められるなど、新しい大学教育の形が求められている。そんな中で、LAに大きな役割が期待される。

そこで九州大学は、NTT西日本と共同でLA技術を活用した「個人の主体的な学修や個別最適化された学修指導」と「特色ある学校づくり」による大学教育のDXを支援する取り組みを始めた。これを全国に展開する最初の試みとして、広島市立大学を実証フィールドとした共同トライアルを2022年4月~2023年3月の1年間行うことにした。

この取り組みにおいて、九州大学は最先端のLA研究や取り組みに基づくアドバイスを行い、NTT西日本は九州大学のLAの取り組みの可視化と分析手法の標準化などを行う。さらに、NTTのAI技術を組み合わせ、電子教科書を活用したLAサービスのプロトタイプ提供、このトライアルで得られた成果や知見をサービス化なども行う。そして広島市立大学は、標準化されたLAの仕組みや電子教科書を使用して、データ収集やフィードバックを行うなどとしている。

今後、広島市立大学ではトライアル後のLAの本格導入を目指し、九州大学とNTT西日本はさらなる研究とサービスの本格提供化を進め、全国の高等教育機関のDXに貢献するとのことだ。

グルメコミュニティアプリSARAHや外食ビッグデータサービスFoodDataBankを運営するSARAHが2.2億円調達

グルメコミュニティアプリ「SARAH」(Android版iOS版)や外食ビッグデータサービス「FoodDataBank」などを運営するSARAHは11月25日、第三者割当増資により総額2億2000万円の資金調達を実施したと発表した。引受先は、既存投資家のセブンーイレブン・ジャパン、Social Entrepreneur3投資事業有限責任組合(PE&HR)、DD Holdings Open Innovation Fund投資事業有限責任組合、クロスボーダーインベストメント、新規引受先であるインフォマート、エー・ピーホールディングス。累計調達総額は7億7000万円となった。

調達した資金は、各サービスのマーケティング・セールス・カスタマーサクセス、飲食店向け電子メニュー化サービス「Smart Menu」の体制強化と組織増強に投資予定。

SARAHが展開する事業は3種類。累計投稿数80万件(2021年10月現在)のSARAHは、レストランの1皿に対する投稿を中心としたグルメコミュニティアプリ。レストラン単位ではなくメニュー単位での投稿や検索が可能だ。FoodDataBankは、SARAH内の膨大なユーザーの声を抽出し分析することで外食市場とその顧客ニーズをデータで定量化する。Smart Menuは、2020年5月よりβ版が稼働中のサービス。SARAHのデータを組み合わせることで来店客ごとにお勧めのメニューを表示でき、客単価向上に貢献することを目標としている。

JAXA認定スタートアップ「天地人」が宇宙ビッグデータを活用した土地評価エンジン「天地人コンパス」体験版を提供開始

JAXA認定スタートアップ「天地人」が宇宙ビッグデータを活用した土地評価エンジン「天地人コンパス」の無料体験版を提供開始

JAXA認定の宇宙領域スタートアップ天地人は10月11日、宇宙ビッグデータを活用した土地評価エンジン「天地人コンパス」の無料体験版「天地人コンパス Demo」の提供開始を発表した。宇宙ビッグデータを実際の事業に応用する体験ができる。

天地人コンパスは、宇宙から土地を評価するサービス。衛星写真だけでなく、降水量などの気象情報、3D地形情報、地表面温度などの地球観測衛星からのデータを活用して、土地の解析、可視化、データ提供を総合的に行うというものだ。世界中あらゆる場所のデータを取得でき、利用者が持っているデータを組み合わせた複合的な分析も可能。農業や都市開発など様々な用途に対応でき、宇宙から稲の栽培環境をモニタリングする「宇宙ビッグデータ米」プロジェクトや、キャンプ場の候補地探し、複数の土地の類似性を気象の観点から評価するプロジェクトなどに使われている。

「天地人コンパス Demo」では以下の機能が体験できる。

  • ピンポイント評価機能:地上データでは観測が難しい場所について、土地の状況・環境を過去からさかのぼり評価し、適地の探索や、未来のリスクを可視化する。サンプルエリア内と特定の期間に限り、任意の場所の気象の遷移や土地の情報を閲覧できる

  • 広域土地評価機能:ビジネスや農業に最適な場所探しや、災害や自然環境変化を分析できる。分析の元となる地図情報を重ね合わせることも可能。分析例として、農作物の高温障害リスクの分析、仮想の米の品種(天地人米)を栽培条件を仮設定し地表面温度と土壌から生産適性度をスコア化するといったものがある

「天地人コンパス Demo」サービス詳細

  • 料金:無料
  • 提供開始日:2021年10月11日
  • 対応ブラウザー:Google Chromeを推奨、PCのみ対応

評価が行えるサンプルエリアは、日本の都市部、山間部、平野部に限定される。特設サイトからアクセスすれば無料で利用できる。

巧妙化する金融犯罪と戦うAIベースのビッグデータ分析ツール開発Quantexaが約168億円を調達

金融犯罪の巧妙化が進むにつれて、それと戦うために使用されるツールも高度化している。Quantexaは、マネーロンダリングや詐欺などの違法行為を検知して阻止するAIベースのソリューションを開発してきた興味深いスタートアップだが、このほど1億5300万ドル(約168億円)の成長ラウンドを獲得した。この資金調達は、金融分野での事業拡大の継続と、同社のツールをより広範なコンテキストに展開すること、つまりすべての顧客データとその他のデータを取り巻く点を結びつけていくことに充てられる。

「当社は金融サービスに止まらない多様化を進めており、政府機関や、ヘルスケア、電気通信、保険業界と協働しています」と創業者兼CEOのVishal Marria(ヴィシャール・マルリア)氏はインタビューで語った。「そのことは非常に大きな意義を醸成しています。より大規模なデジタル変革の一環として、市場がコンテキストに基づく意思決定インテリジェンスに取り組んできたことを考えると、その流れは必然的なものでした」。

このシリーズDでは、ロンドンに拠点を置く同スタートアップの価値は8億〜9億ドル(約880億~990億円)と評価されている。これはQuantexaが2020年、サブスクリプション収入を108%成長させたことに続くものだ。

Warburg Pincusがこのラウンドを主導し、既存の支援者であるDawn Capital、AlbionVC、Evolution Equity Partners(サイバーセキュリティ専門のVC)、HSBC、ABN AMRO Ventures、British Patient Capitalも参加した。2020年7月のシリーズCでのQuantexaの評価額は、2億〜3億ドル(約220億~330億円)の間だった。これまでの調達総額は2億4000万ドル(約264億円)になる。

マルリア氏はErnst & Youngでディレクターを務め、マネーロンダリングなどの不正行為への対策についてクライアントを支援する役割を担っていた。Quantexaは、マルリア氏がそのときに特定した市場のギャップを出発点としている。同氏が認識したのは、潜在的な詐欺、マネーロンダリングなどの違法行為に関する有意義なインサイトを迅速かつ正確に得ることができる、真に有用なシステムが市場に存在しないということだった。企業の内部情報と外部公開データの照合・解析を通じて、利用可能なデータの世界を効率的に活用する、インサイトの導出に必要なツールが整備されていなかった。

Quantexaの機械学習システムは、この課題に対して典型的なビッグデータの問題としてアプローチしている。人間が自分で解析するにはデータが多すぎるが、特定の目的のために大量のデータを処理できるAIアルゴリズムにとっては小さな仕事だ。

Quantexaのいわゆる「Contextual Decision Intelligence(コンテキストに基づく意思決定インテリジェンス)」モデル(Quantexaという名前は「quantum」と「context」を想起することを意図している)は当初、金融サービス向けに特化して開発された。リスクとコンプライアンスの評価と金融犯罪行為の特定を行うAIツールを用いて、Quantexaが有するAccenture、Deloitte、Microsoft、Googleといったパートナーとのリレーションシップを活用し、より多くのデータギャップを埋めていくものだ。

同社のソフトウェア(データではなくこのソフトウェアが企業に販売され、企業独自のデータセットに使用される)は、単一のエンゲージメントで最大600億件のレコードを処理した実績があるという。処理を経た後、ユーザーが異なるエンティティ間の関係などをよりよく理解できるように、わかりやすいグラフやその他の形式でインサイトが提示される。

マルリア氏によると、現在、同社の事業の約60%を金融サービス企業が占めており、顧客には英国とオーストラリアの銀行上位10行のうち7行、北米の金融機関上位14行のうち6行が含まれているという。(このリストには、戦略的な支援を行うHSBCの他、Standard Chartered BankとDanske Bankも名を連ねている)。

しかし同時に、Quantexaの他のセクターへの進出は一層顕著な伸びを見せている。より広範なデータセットに大きく依存するようになった市場の大幅なシフト、近年における各企業のシステム更新、そして過去1年間でオンラインアクティビティが「唯一の」活動になることが多くなったという事実がそれを加速させている。

「(2007年の)金融危機は、金融サービス企業がよりプロアクティブになるための転換点でした。そして、パンデミックは、ヘルスケアなどの他のセクターがよりプロアクティブになる方法を模索する転換点となっています」とマルリア氏はいう。「その実現には、より多くのデータとインサイトが必要です」。

そのため、Quantexaは特にこの1年で、ヘルスケア、保険、政府機関(例えば税務コンプライアンス)、電気通信 / 通信手段など、金融犯罪に直面している他のバーティカルへの拡張を進めてきた。加えて、KYC(顧客確認)コンプライアンスに向けたより完全な顧客プロファイルの構築、カスタマイズされた製品の提供など、さらに多くのユースケースをカバーするための多様化を続けている。政府機関と協働し、人身売買の追跡や特定のような、違法行為の他の分野にも同社のソフトウェアが適用される見通しだ。

Quantexaは、70にわたる市場に「数千」もの顧客を抱えている。金融犯罪とより全般的なKYCの両方を含むこの種のサービスの市場規模は、年間約1140億ドル(約12兆6000億円)に上るとのIDCの予測を、Quantexaは引き合いに出している。

「Quantexaが独自に開発した技術により、クライアントは個人や組織の単一のビューを生成して、グラフネットワーク解析で可視化し、最先端のAI技術でスケールすることができます」とWarburg Pincusのヨーロッパ共同責任者であるAdarsh Sarma(アダーシュ・サルマ)医学博士は声明で述べている。「このケイパビリティはすでに、世界最大の金融機関や政府機関によるKYC、AML(マネーロンダリング対策)、不正行為プロセスの運営方法に革命的な変化をもたらしており、業界における重要性を増しつつある大きなギャップに対処しています。これまでの同社の目覚ましい成長は、利用可能な市場全体における計り知れない価値の提案と、新規セクターや地域への継続的な拡大を反映しています」。

興味深いことに、同社は大手テック企業などから買収のターゲットとしてアプローチを受けていることを、マルリア氏は筆者に認めた。それほど驚くことではない。しかし、長期的には、マルリア氏の視野の先には自立した未来があり、Quantexaが独自の成長を続けることを念頭に置いているという。

「確かに、大手テック企業などに買収されることは十分あり得ますが、私はIPOに向けて準備を進めています」とマルリア氏は語った。

画像クレジット:piranka / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)

人身売買被害者の合成データでプライバシーを侵害せずにビッグデータ分析ができる

人身売買に効果的に対処するためには、対処する側がそれを理解する必要があり、最近ではそれは「データ」となる。残念ながら、被害者を知るための便利なインデクスはないが、でもこの秘密情報はいろいろなところで豊富だ。Microftと国際移住機関(International Organization for Migration、IOM)は、本物の人身売買データの重要な特徴をすべて備えているが、完全に人工的な新しい合成データベースで前進する方法を見つけたかもしれない。

各被害者は疑う余地もなく個人だが、人身売買が多い国や彼らが利用しているルートや方法、被害者の行き着く先など、基本的な高レベルの問いは統計の問題だ。トレンドやパターンを同定するためのエビデンスは防止活動にとって重要だが、これら何千もの個人のストーリーに埋もれていて、しかも公開されたくないものが多い。

IOMのプログラムコーディネーターであるHarry Cook(ハリー・クック)氏は、データセットを説明するニュースリリースで次のように述べている。「実際に見つかった人身売買の事件に関する管理データは、可利用なデータの主たる源泉だが、そのような情報は機密性が高い。IOMは過去2年間Microsoft Researchと協力して、そうしたデータを分析用にシェアし、それと同時に被害者の安全とプライバシーを守るという困難な課題において進歩できたことを、うれしく思っている」。

歴史的には、犯罪データベースや医療情報などは大量の編集をするのが常套手段だが、「匿名性を取り去る」この方法は、データを再構築しようとする真剣な試みに対して効果がないことが立証されてきた。現在では数多くのデータベースが公開され、あるいはリークされて、コンピューティングの力を誰もが利用できる時代であるため、編集された情報を極めて信頼できる形で提供できる。

Microsoft Researchが採った方法は、オリジナルデータをベースとして、ソースの重要な統計的関係を保持し、しかし場所・時期・個人等を同定できる情報がない合成データを作ることだ。「Jane Doe」を「Janet Doeman」に書き換えたり、彼女の故郷をクリーブランドからクイーンズに変えるのではなく、データに似通った性質のある10名弱の人たちのデータを合わせて、彼らを統計的に正確に表現している属性の集合をつくるが、それを使って個人を同定することはできなくなっている。

画像クレジット:Microsoft Research / IOM

当然この方法では元のデータの粒度は失われるが、機密性のあるソースと違ってこのデータは実際に使用できる。それはどこかのタスクフォースが分析して「そうか、次の人買いはXXXXで行われるのだ」というタイプの情報ではないが、このデータは直接的なエビデンスに基づいているため、政治や外交レベルで事実の記録として取り上げることができる。これまではもっと一般的に「X国と政府Zはこの件で無視できる」や「共謀している」などと言わなければならなかったのが、これからは確かなデータに基づいて「性的人身売買の36%はあなたの司法圏を通っている」と言えるようになる。

データが一種の強制手段として利用されるという意味ではなく、人間の悲惨のグローバルな交易を、一連のお互いに無関係な出来事の連鎖ではなく、1つのシステムとして理解することは、それ自身に価値がある。そのデータは、ここで見ることができ、その作り方を勉強したい人には、この事業のGitHubがある。

画像クレジット:SEAN GLADWELL / Getty Images

原文へ

(文:Devin Coldewey、翻訳:Hiroshi Iwatani)

新型コロナのアルファ株・デルタ株変異体発見に貢献、ゲノム情報に特化した情報共有プラットフォームのSeqera Labsが約6億円調達

ビッグデータ時代の現在、あらゆる場所に存在する非構造化情報に秩序をもたらして理解するということは、最も重要なブレークスルーの1つだろう。ライフサイエンス分野において、この課題に取り組むためのプラットフォームを構築してきた欧州のスタートアップ(同社のプラットフォームは複数の研究所によって新型コロナウイルスの変異株の配列と特定にも活用された)が現地時間9月7日、より多くのユースケースに対応するためのツールを開発し、北米に進出するための資金調達を発表した。

バルセロナを拠点とするSeqera Labs(セケラ・ラブス)。シード資金として550万ドル(約6億円)を調達した同社は、データオーケストレーションやワークフローのカスタムプラットフォームを提供しており、科学者やエンジニアがクラウドベースのゲノムデータから情報を得たり、複数の場所からの複雑なデータを利用するライフサイエンスの応用に取り組んだりするのを支援している。

今回のラウンドはTalis Capital(タリス・キャピタル)Speedinvest(スピードインベスト)が共同で主導し、以前からの支援者であるBoxOne Ventures(ボックスワン・ベンチャーズ)も参加している。また、Mark Zuckerberg(マーク・ザッカーバーグ)氏とPriscilla Chan(プリシラ・チャン)博士が科学応用のためのオープンソース・ソフトウェア・プロジェクトを支援するために設立したChan Zuckerberg Initiative(チャン・ザッカーバーグ・イニシアチブ)も助成金を提供している。

Seqeraは「sequence(配列)」と「era(時代)」を組み合わせた造語で、シーケンスデータの時代を意味している。同社はこれまで100万ドル(約1億1000万円)以下の資金しか調達してこなかったものの、現在では世界最大の製薬会社5社の他、バイオテクノロジーやその他のライフサイエンス分野の顧客を持ち、収益を伸ばしている。

Seqeraはバルセロナのバイオメディカル研究センターであるCentre for Genomic Regulation(CGR、ゲノム規制センター)からスピンアウトしたもので、Seqeraの創設者であるEvan Floden(エヴァン・フローデン)氏とPaolo Di Tommaso(パオロ・ディトマソ)氏が、オープンソースのワークフローおよびデータ・オーケストレーション・ソフトウェアであるNextflow(ネクストフロー)の商用アプリケーションとしてCGRで構築したのが始まりだ。

SeqeraのCEOであるフローデン氏はTechCrunchに対し、Nextflowがライフサイエンスのコミュニティで多くの支持を得て、その後さらなるカスタマイズや機能を求める多くのリクエストを繰り返し受けたことが、同氏とディトマソ氏が2018年にSeqeraを創設する動機になったと話している。NextflowとSeqeraはともに多くの利用実績があり、Nextflowのランタイムは200万回以上ダウンロードされ、Seqeraの商用クラウドサービスでは現在50億件以上のタスクを処理しているという。

新型コロナのパンデミックのような深刻な課題は、Seqera(およびその関連としてのNextflow)が科学者コミュニティで解決しようとしていることの典型例である。新型コロナの大流行は世界中で発生しており、研究所で新型コロナの検査が行われる度にウイルスの生きた遺伝子サンプルが採取される。こういった何百万件もの検査結果は新型コロナウイルスがいつ、どこで、どのように変異しているかを示す情報の宝庫であり、さらにまだ解明されていない新しいウイルスにとってもこれは非常に貴重なデータとなる。

つまり問題は、より深い洞察を得るためのデータが存在するかどうかではなく(間違いなく存在するからだ)、既存のツールを使ってそのデータを総合的に見ることがほぼ不可能だということなのである。データはあまりにも多くの場所に存在し、その量はあまりにも多く、日々増加し続けている(そして日々変化し続けている)。データを中央に集めて分析を行うという従来のアプローチは効率的ではなく、実行には莫大なコストがかかってしまう。

そこで登場するのがSeqeraだ。同社のテクノロジーでは異なるクラウド上の各データソースを重要なパイプラインとして扱い、データがすでに存在しているインフラの境界を離れることなく、1つのボディとして統合・分析することができる。ゲノム情報に特化してカスタマイズされているため、科学者らはその情報を照会してより多くの知見を得ることが可能だ。新型コロナウイルスが世界中で猛威を振るう中、Seqeraはアルファ株とデルタ株の両方の変異体の発見に貢献したのである。

同社はいわゆる「プレシジョン・メディシン」の領域など、他のタイプの医療応用でも使用されており、がんなどの複雑な分野では非常に大きな可能性を秘めている。がんは患者自身の遺伝子の違いなど、多くの要因によって変異や行動が異なるため、画一的な治療では効果が出にくいためだ。

機械学習やビッグデータ解析を活用して、個々のがんやそれが異なるグループ間でどのように発症するかを理解してより個別化された治療法を生み出すアプローチが近年増えているが、Seqeraはそのようなデータをシーケンスする方法を提供しようと取り組んでいる。

Seqeraプラットフォームのもう1つの特徴として、データの専門家でなくてもデータを分析する人、つまり研究者や科学者自身が直接利用できるという点が挙げられる。同社にとってこれは優先事項だったとフローデン氏は話しているが、高度に技術的なプロセスを技術者ではない人々が使えるように設計された、今流行の「ノーコード・ローコード」ソフトウェアをこのプラットフォームが意図せずして取り入れているというのは興味深い事実である。

既存の可能性と、将来的にクラウド上に存在することになる他の種類のデータにSeqeraをどのように適用していくかという両点が、この会社を興味深いものにしており、また投資先としても興味深いものとして考えられているのだろう。

Talis CapitalのプリンシパルであるKirill Tasilov(キリル・タシロフ)氏は声明の中で次のように述べている。「機械学習の進歩とデータの量と種類の増加により、ライフサイエンスや生物学におけるコンピューター科学の応用がますます増えています。これは人類にとって非常にエキサイティングなことですが、一方で、コンピューターを駆使した複雑な実験は、コストが非常にかかり、プロジェクトごとに数百万ドル(数億円)になることもあります。Nextflowはすでにこの分野ではユビキタスなソリューションであり、Seqeraはその機能を企業レベルで推進しています。その過程で彼らはライフサイエンス業界全体を近代化しているのです。Seqeraの今後に関わって行けるということに、弊社は胸を躍らせています」。

SpeedinvestのプリンシパルであるArnaud Bakker(アルノー・バッカー)氏は「安価で商業的なDNAシーケンシングによる生物学的データの爆発的な増加にともない、増え続ける複雑なデータを分析する必要性が高まっています。Seqeraのオープンでクラウドファーストなフレームワークがもたらす高度なツールキットにより、組織は複雑なデータ分析の展開を拡大し、データ駆動型のライフサイエンスソリューションを実現することができるでしょう」と話している。

現在のSeqeraにとって、医療やライフサイエンス分野は最もタイムリーで明らかな活用分野ではあるものの、もともと遺伝学や生物学のために設計されたこのフレームワークは他のさまざまな分野にも応用することができる。AIトレーニング、画像解析、天文学の3つが初期のユースケースだとフローデン氏はいうが、天文学には限度がないため非常に適した分野なのではないだろうか。

「私たちは、現在が生物学の世紀であると考えています」とフローデン氏。「生物学は活動の中心であり、またデータ中心になりつつあります。我々はそれに基づいてサービスを構築しているのです」。

Seqeraは今回のラウンドでの評価額を公開していない。

画像クレジット:zhangshuang / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)

LinkedInのメタデータツールDataHubを商用化するAcryl Dataが約10億円を調達しステルスを脱却

2019年、LinkedInのエンジニアリングチームは「DataHub」を発表した。同社の膨大なデータコレクションからインサイトを整理、検索、発見するのに役立つように構築されたメタデータツールだ。LinkedInは2020年にこれをオープンソース化している。そしてこのたび、DataHubの開発者の1人と、Airbnbのデータポータルの開発に貢献した元上級エンジニアが共同で設立したスタートアップがステルスを脱し、LinkedInなどの支援を受けて、DataHubプラットフォームをその最新チャプターとなる商用化へと導こうとしている。

Acryl Dataと名付けられた同社は米国時間6月24日、8VCが主導し、LinkedInとInsightも参加した900万ドル(約10億円)でローンチした。企業が自社のビッグデータのニーズに合わせてこのツールを利用できるように支援していく。

Acryl Dataの推進力は、ビッグデータが、運用に大規模なデジタルコンポーネントを有する組織にインパクトを与える難しい課題を抱えているという、顕著な事実から生み出されている。具体的には、ビッグデータの組織化や理解を促進し、断片化されたビッグデータの宝庫(SnowflakeやDatabricks、Lookerなどの複数の場所から取得されたり、そこで利用されている情報を含む)を最大限に活用できるようにすることだ。従来、大手テック企業はこの問題に対処する上でより革新的な存在となっており、その多くは自社の技術をオープンソース化して他の企業が利用できるようにしている。

Acrylの創業者たちにとってのブレークスルーは、メタデータがビッグデータ情報を整理するための鍵を握ると認識したことを契機に訪れた。同社を立ち上げる前、まだ彼らがそれぞれの大手テック企業で働いていた頃のことだ。

「メタデータに関して興味深い側面は、それが事実上ビッグデータにおける解決すべき問題になっていることです」と、LinkedInでCEOを務め、Swaroup Jagadish(スワロウプ・ジャガディシュ)氏(AirbnbのCTO出身)と共同で同社を設立したShirshanka Das(シャルシャンカ・ダス)氏は語る。「つまり、私たちが保有するデータインフラのDNAはすべて、大規模なデータコレクションの構築、ストリーミング、インデックス作成、検索といった点で、現代の企業の要求に実際に対応できるメタデータ管理ソリューションを必要としているのです。それこそが当社が提供する、解決の鍵となる妙策であると考えています。私たちは、データインフラを適切に運用するためのベストプラクティスを取り入れたメタデータプラットフォームを構築し、それをメタデータインフラの運用に適用することを可能にしました」。

オープンソースプロジェクトとして、DataHubは大きな牽引力を得ている。LinkedIn自身に加えて、Expedia、Saxo Bank、Klarnaをはじめとする多くの企業が、本質的には一般化されたメタデータ検索および発見ツールであるこのフレームワークを利用しており、独自のメタデータグラフを構築して、さまざまなデータエンティティを相互接続している。プロジェクト全体でGitHubのスターは3200人を超え、100人以上のコントリビューターがいる。

Acryl Dataは、他のオープンソースの商用化の取り組みと同様、フレームワークのスケールアップを容易にし、より多くのユースケースに適用できるようなツールセットの構築に着手している。特に、これらの実装を独自に構築するリソースが不足している企業に向けたものだ。その第1弾は、Airbnbのデータポータルから得た設計情報に基づくデータカタログになるという。LinkedInは、今後の製品に関して、より広範なオープンソースコミュニティに加えて、Acryl Dataとの協業を進めていく予定だ。

LinkedInの最高データ責任者であるIgor Perisic(イゴール・ペリシク)氏は、声明の中で次のように述べている。「LinkedInの世界経済に対する独自の見解は、データ駆動型のインサイトとAIを活用した製品を通じて、世界中の何億人もの人々の経済的成果を改善する機会をもたらします。適切なデータを発見して、研究者やエンジニアが毎日使用する何万もの派生データセットをナビゲートし、それらを適切に管理するために、DataHubの存在は欠かせないものです。Acryl Dataと提携して、DataHubをさらに進化させていくことに、私たちは大きな期待を寄せています」。

これは意義深い好機といえるだろう。同じ分野の競合であるCollibraは、2020年に23億ドル(約2540億円)の評価額でラウンドを行った。別の競合、Alationは2021年6月初めに12億ドル(約13330億円)と評価された。しかし、イノベーションの余地は十分に残されており、この分野で最も基礎的なツールを開発した人財がこの課題に取り組むために起業家として留まっているのを見るのは、とても興味深いことだ。

「最新のデータスタックにおいては、メタデータの管理方法を根本的に見直す必要があります」と、Insight PartnersのMDであるGeorge Mathew(ジョージ・マシュー)氏は声明の中で語っている。「次世代のリアルタイム・メタデータ・プラットフォームが求められています。Acryl Dataは、DataHubでの先駆的な活動をベースに、この変革をリードしていく最高のチームです」。

画像クレジット:Who_I_am / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)

パーソナライズされた栄養改善アドバイスを提供するZoe、ビッグデータと機械学習で食品に対する身体の反応を予測

パーソナライズドニュートリション(パーソナライズされた栄養改善アドバイス)のスタートアップ企業Zoe(ゾーイ)がシリーズBラウンドで2000万ドル(約22億円)を調達し、累計調達額が5300万ドル(約58億円)に達した。ちなみに、社名の由来は人名ではなく「生命」を意味するギリシャ語の言葉だ。

今回クローズしたシリーズBラウンドをリードしたのは、2人のノーベル賞受賞者をサイエンスパートナーに擁するとZoeが述べているAhren Innovation Capital(アーレン・イノベーション・キャピタル)だ。加えて、元アメリカンフットボールプレイヤーのEli Manning (イーライ・マニング)氏とOsitadimma “Osi” Umenyiora(オシタディマ(オシ)・ウメニーラ)氏の2人の他、米国ボストンを拠点とするシードファンドのAccomplice(アコンプリス)、ヘルスケアに特化したベンチャーキャピタル企業のTHVC、アーリーステージのスタートアップを支援する欧州系VCのDaphni(ダフニ)が参加した。

Zoeは英国と米国を拠点として2017年に創業したスタートアップなのだが、最初の3年間は自社のサービスや製品について外部に公表せずに活動し、その間、マサチューセッツ総合病院、スタンフォード大学医学部、ハーバード大学 T.H.チャン公衆衛生大学院、ロンドン大学キングス・カレッジの科学者と協力してマイクロバイオームの研究を進めてきた。

創業者の1人は、食をテーマにしたサイエンス系の人気書籍を多数執筆しているキングス・カレッジのTim Spector(ティム・スペクター)教授だ。人間の健康における遺伝子(自然要因)と栄養(環境・生活要因)の役割の対比など、数十年にわたる双子研究を続けた末、健康全般における(一般的な)食の役割、(特に)マイクロバイオームの役割に興味を抱いたという。

Zoeは、2つの大規模なマイクロバイオーム研究のデータを使って同社の最初のアルゴリズムを開発し、2020年9月にそれを商品化した。同社の商品化第一号として米国市場に投入されたこの製品は家庭用検査キットだ。Zoeの栄養分析プログラムに登録するとこの検査キットが届き、ユーザーは、各種食品に対して自分の身体がどのように反応するのかを理解し、自分だけの栄養改善アドバイスをもらうことができる。

プログラムにかかる費用はおよそ360ドル(約4万円)で、6回の分割払いも可能だ。さまざまな検査を(自分で)行うことが必要だが、このプログラムにより、血中脂質や血糖値、腸内細菌の種類の変化など、代謝や腸内環境に関する情報を収集し、生物学的に分析することができる。

Zoeでは、ビッグデータと機械学習を活用して各種食品に対する身体の反応を予測し、何をどう食べれば腸内環境を改善し、食事による炎症反応を抑えることができるか、個人に合わせたアドバイスを行っている。

さまざまな生物学的反応を組み合わせて分析する手法により、血糖値などの単独の数値に焦点を当てた商品を展開する他のパーソナライズドニュートリションのスタートアップ企業とは一線を画している、とZoeは主張する。

しかし、誤解のないように言っておくと、Zoeの商品化第一号であるこの製品は医薬品として認定されたものではない。同社のFAQにも、特定の疾患に対する医学的診断や治療を行うものではないと明言されている。あくまで「一般的な健康増進のみを目的としたツール」だという。つまり、今のところは、Zoeのアドバイスが実際に役立つことをそのまま信用するしかない。

1つ確実なことは、Zoeの共同創業者がTechCrunchのインタビューで明言しているように、マイクロバイオームの科学研究がまだ始まったばかりということだ。そのため、データとAIの活用により個人に合わせた有用な予測をはじき出そうとするスタートアップによく見られるように、Zoeでも初期の顧客のデータが研究の推進に役立てられていることに留意すべきである。食事が健康に与える影響について未知の部分が多い現状を鑑みれば、個人の期待に応えるよりも、まずはデータ収集が優先されることは仕方のないことかもしれない。

それでも、果敢に(お金を払って)プログラムを試してみるユーザーは、特定の食品に対する自分の身体の生物学的反応を数千人と比較した詳細な個人レポートを手に入れることができる。レポートにはさらに、自分に合う健康的な献立作りに役立てることができるよう、特定の食品に関する個人データを点数化した「Zoe」スコアも表示される。

Zoeのウェブサイトには「1人ひとりの身体の状態と生活スタイルに合わせた4週間プランで食事による炎症反応の抑制と腸内環境の改善を実現」「フードスコアに基づいた毎週の食事改善ノウハウをアプリで学べる」などの宣伝文句が並ぶ。

マーケティング資料にも「食べてはいけない食品」は一切なしと書かれており、前述のZoeスコアが、特定の食品群を禁止することもある(減量重視の)ダイエットとは異なることを示唆している。

「必要な情報とツールを提供することで、自分の健康にとって最善の決断ができるようにすることが目標」だとZoeは胸を張る。

その根底には、同じ食品でも身体が示す反応は人によって異なるという前提がある。食事内容(または食事量)に関わらず、痩身で(一見)健康な人を誰でも少なくとも1人は知っているだろう。その人と同じ食生活を送っても、期待通りの結果は得られないことが多い、ということだ。

共同創業者のGeorge Hadjigeorgiou(ヨルゴス・ハッジゲオルギオ)氏は次のように説明する。「Zoeは、昔から言われてきたことに初めて科学的な裏づけを与えている。(マイクロバイオームの科学研究は)始まったばかりだが、Zoeは、双子でさえ腸内マイクロバイオームが異なること、食事やライフスタイル、生活様式によって腸内マイクロバイオームが変化すること、特定の(腸内)細菌と食品の間につながりがあることを説明し、自社の製品を用いた実際的な改善方法を全世界に発信している」。

Zoeのこの製品を利用するには、各種食品に対する身体の反応を分析して自分だけの栄養アドバイスを得るため、検便や血液検査、血糖値モニタリングなど、身体に関するさまざまなデータを収集するための検査を自力で行う意思(と能力)が必要となる。

食事が身体に与える生物学的な影響を調べるためにZoeがこのプログラムで採用しているもう1つの方法は、一定のレシピで作られた「検査用の特製マフィン」だ。このマフィンを数千人に食べてもらい、カロリー、炭水化物、脂質、タンパク質の特定の組み合わせに対する栄養反応を比較し、ベンチマーク解析を行っている。

特製マフィンを食べるだけならまったく問題はなさそうだが、実は、Zoeの家庭用検査キットを利用するのにかかる労力は、栄養改善に何となく興味があるだけの消費者には面倒に感じられる可能性が高い。

ハッジゲオルギオ氏も、今のところは食事や栄養に関する特定の問題(肥満、高コレステロール血症、2型糖尿病など)を抱え、解決を希望している人に焦点を当てているとあっさり認めている。ただし、データや見識を引き続き収集しつつも、Zoeの目標はあくまでパーソナライズされた栄養アドバイスを入手する機会を広げることだという。

ハッジゲオルギオ氏はTechCrunchの取材に対し「これまで同様、解決すべき問題を抱えている人たち、人生を変えるような経験を提供できそうな人たちから始めようという発想」だと答え「現時点では広く一般を対象とした商品にしようとは思っていない。初めは小規模にやるしかないことは分かっている。ただし、現在の限定的なターゲットグループでもかなりの人数になるはずだ」と述べた。

「もちろん、全体のコンセプトとしては、初期(のユーザー)の検査を終えた後、収集したデータや経験を踏まえてプログラムを簡素化し、対象者を拡大したいと考えている。内容面でも価格面でも利用しやすいようにシンプルにしていきたい。もっと多くの人に使ってもらえるように。最終的には、誰もが自分で最適化、理解、管理できるようになるべきだし、そうすることがZoeの目標でもある」と同氏は語る。

「生まれ育った環境も社会経済的地位も関係ない。それに実際、こうした手段や能力は、健康などの大きな問題を抱える人たちの方が限られている場合が多いかもしれない」。

Zoeは今のところ初期登録者の数を発表していないが、ハッジゲオルギオ氏によれば需要は高いようだ(現在、新規登録は順番待ちの状態だ)。

さらに同氏は、初期グループの中間トライアルの速報結果は期待を持たせるものだと胸を張る。AIを活用してカスタマイズした栄養改善プランを3カ月間試した結果、活力が増し(90%)、空腹だと感じることが減って(80%)、体重が平均約5kg減少したという。とはいえ、トライアルの参加人数が公表されていないため、これらの指標を定量化することはできない。

シリーズBで調達した追加資金は、年内に予定されている英国でのローンチを控え、プログラムの展開を加速させるために使用される予定だ。2022年にはさらに地域を拡大する。また、工学技術・科学分野の人材確保を継続するための資金にも充てられる。

Zoeは2020年、欧米で新型コロナウイルス感染症が拡大する中、症状自己申告アプリをローンチして注目を集めた。収集したデータは、新型コロナウイルスが人にどう影響するかを科学者や政策立案者が把握する一助として利用されている。

2020年1年間でZoeの新型コロナウイルス感染症アプリは約500万ユーザーを獲得したという。こうした(非営利の)取り組みは、Zoeが栄養改善サービスの分野で推進していきたい斬新な社会参加活動の一例だとハッジゲオルギオ氏は説明する。

同氏は「新型コロナウイルス感染症に関する新たな科学的知見を得るため、何百万、何千万もの人々が突如、協力してくれるようになった」と述べ、アプリ利用者から入手したデータが数多くの研究論文に利用されていると強調する。「一例を挙げれば、嗅覚障害や味覚障害といった症状を初めて科学的に(根拠を)示すことができた。その後、英国政府の公式症例リストに掲載されたのも、そのおかげだ」と同氏はいう。

「販売開始当初には思いもしなかったスピードで人々が参加したことで、大きな影響を生むことができたすばらしい例である」とハッジゲオルギオ氏は述べた。

ここで食生活のことに話を戻そう。食生活については、野菜を食べるとか、加工食品を控えるとか、糖分を減らす(またはゼロにする)といった、誰もが簡単に実践できるシンプルな「経験則」がすでに存在しているのではないだろうか。いまさらオーダーメイドの栄養改善プランにお金を払う必要はあるのだろうか。

「経験則は確かにある」とハッジゲオルギオ氏は同意する。「そんなものがないというのはおかしなことだ。経験則はあるし、時間が経過するにつれて、例えばZoeの研究などを通して洗練されていくだろうが、問題は、ほとんどの人が徐々に不健康になっているという実情に集約されると思う。実際、生活は乱れがちだし、経験則に基づく食事の法則さえ無視されている。そのため、乱れた生活やライフスタイルを改善するにはどうすれば良いかを自分で判断し、無理なく楽しく実践して健康になれるように人々を教育し、そうした能力を高めていくことも重要だと考えている」。

「それこそが、私たちが顧客とともに目指していることだ。そうした判断ができるように能力を高める後押しをしている。個人でカロリー計算をする必要はないし、糖質制限(食事制限)などの我慢をする必要もない。私たちは基本的に、食品が身体に及ぼす影響を把握できるように個人をサポートしているにすぎない。自分の血糖値や体内細菌、血中脂質がどう変化しているかをリアルタイムに理解できるよう、能力を育成して理解を深めた上で、『こんなコースはどう?ゲーム感覚で簡単にできるよ?』と呼びかける。そしてさまざまな食品をカスタマイズして組み合わせるためのツールをすべて提供する。食べてはいけないものもない。Zoeのアプリが示すフードスコアが75点になるような食事を日常的に心がけるだけでよい」。

「このように能力向上を図るアプローチはやる気を引き出すらしい。ユーザーはゲーム感覚で楽しみながら腸を整えて代謝を向上することができ、いつの間にか驚きの効果を実感し始める。活力に満ち、空腹感が減って体重が減少し、時間の経過とともに見違えるほどの健康を手に入れることができる。『人生を変える』と言われる所以だ」。

「人生を左右する目標にゲーム感覚で取り組める」なんて、確かに平均的な消費者にとっては「野菜を食べろ」と言われるよりよほど心惹かれる提案だろう。

ただし、ハッジゲオルギオ氏が認めたように、Zoeが商業的・研究的に独自の強みを持つマイクロバイオームは研究分野としてはまだ歴史が浅い。そのため、研究を進めるためにより多くのデータを収集することが当面の事業課題となっている。食事や運動などの生活要因と健康の関係は複雑で分からないことも多いため、色々とやるべきことが残っていると言える。

しかしハッジゲオルギオ氏は思いつくアイデアに1つずつ取り組んでいくつもりのようだ。

「砂糖はだめでケールは良いという単純な話ではない。魔法そのものはその間に発生するからだ」とハッジゲオルギオ氏は続ける。オートミールはヘルシーなのか。コメや全粒粉パスタはどうか。全粒粉パスタとバターはどう組み合わせれば良いのか。どれくらいの量を食べるべきか。どれも基本的にほとんどの人が日常的に直面する疑問だ」。

「アイスクリームを食べない日もあれば、ケールを食べない日もあるが、その間に色々な食品を摂取しているからこそ、魔法が生まれる。食品の摂取量やより良い組み合わせ、食事と運動の最適なバランス、食後3時間経っても血糖値を下げず、空腹だと感じない食べ方を知る必要がある。Zoeなら、これらをすべて予測し、分かりやすく説得力のある方法で点数化できる。そして食事成分の代謝反応を(本人が理解できるように)示すことができる」とハッジゲオルギオ氏は説明する。

関連記事
ストレスと白髪には顕著な相関、心理的負荷取り除けば元の色に戻る可能性をコロンビア大学の研究者が確認
CTOなど技術幹部志向のITエンジニア対象、paizaでデジタルヘルス領域アイデアソンの参加者募集開始
キユーピーが卵から生まれた「加熱変性リゾチーム」による新型コロナウイルスの不活性化を確認

カテゴリー:ヘルステック
タグ:Zoe資金調達ビッグデータ機械学習

画像クレジット:Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

Apple Watchで心疾患発見を目指す、慶應医学部 木村雄弘先生に訊く(WWDC 2021)

Apple Watchで心疾患発見を目指す、慶應医学部 木村雄弘先生に訊く(WWDC 2021)

アップルの開発者イベントWWDC 2021は、日本時間6月8日午前2時から始まります。世界開発者会議WWDCといえば、 iOS / macOS / watchOS等の新機能に加え、これから登場するデバイスやサービスの可能性をいち早く開発者に紹介する場です。

「アップル史上もっともパーソナルな製品」として2015年に登場した Apple Watch も、世代を重ねるごとに心電計や血中酸素濃度計、睡眠計測など新たな機能を導入し、フィットネスやヘルスケアの分野で新たなアプリやサービスの可能性を開いてきました。

WWDC 2021を前に、そうしたアップルのテクノロジーで社会を変える取り組みとして、一般のApple Watchユーザーを対象にした心疾患の臨床研究アプリ Apple Watch Heart Study をリリースした慶應義塾大学医学部の循環器内科特任講師 木村雄弘先生にお話をうかがいました。

ウェアラブルで心疾患の早期発見を目指す

まずは臨床研究 Apple Watch Heart Study と同名のアプリについて。慶應義塾大学医学部が2021年2月から開始した Apple Watch Heart Study は、Apple Watch の睡眠計測・心電図記録・心拍計と、着用者が手動で回答する質問表を組み合わせて「心電図はいつ計測するのがもっとも有効なのか?」を解明するための研究。

Apple Watch は日本国内では2021年1月末に心電図アプリが解禁されましたが、常時着用するウォッチでも心電図は常時計測できないため、ユーザーが手動でアプリを起動して30秒間指を当てる必要があります。

しかし木村先生によると、たまたま心電図をとったときに異常が見つかることは稀。心筋梗塞などの予防には、異常が出ているときの心電図が手がかりとして役立ちますが、診療に役立つタイミングで都合よく取得できるとは限りません。

「調子が良いときに測っても良いと出るのは当たり前。一度計測して結果が良かったからといって、必ずしも病気がないって話にはならないんですね。いかに異常があるときを捉えるか? が非常に大事で、その心電図一枚で治療の方針が変わることもあります」(木村)。

Apple Watchで心疾患発見を目指す、慶應医学部 木村雄弘先生に訊く(WWDC 2021)

Apple Watch

Apple Watch Heart Study ではこの問題に対して、Watchの心拍計と睡眠検出、毎朝の質問票、自覚症状があった場合に手動入力する動悸記録を組み合わせて、ライフスタイルや生活パターンとの関連性を見つけ出し、将来の心疾患予防や診断に役立てることを狙います。

対象は一般のApple Watchユーザーすべて(20歳以上、日本語が理解できること。心電図記録は22歳以上)。具体的には、アプリをインストールして説明の確認と同意を済ませたら、あとは毎晩就寝時にApple Watchを着けること、毎朝質問票に答えること、もし脈が飛んだ、胸が痛い等の症状があったら手動で選択肢を選んで入力することで参加できます。今回の取り組みで収集するのは7日分のデータ。

一般のApple Watchユーザーを対象とした研究とは別に、慶応義塾大学病院で心房細動患者を対象にした研究も実施しています。そちらでは臨床の現場で使われる医療機器での計測と、Apple Watchを使ったデータとを比較し、機械学習で不整脈が発生しやすい条件を推定するアルゴリズムを構築します。一般のApple Watchユーザーを対象とした研究は、この患者グループの研究で得られたアルゴリズムが一般にどれほど適用できるのかの答え合わせともいえます。

あくまで臨床研究へ協力するためのアプリなので、参加しても個人の診療に役立ったり、健康改善につながるわけではありません。ただし記録へのモチベーション維持のために、毎日の計測結果には睡眠中・日中の心拍数などを元にシンプルなロジックで生成された「コメント」がつくため、睡眠中の心拍傾向を見て飲酒・寝不足などを見直す契機にはなるかもしれません。

医療のDXとWWDCへの期待

Apple Watch Heart Study の実務責任者である木村先生と、アプリを開発した株式会社アツラエの担当者お二方にお話をうかがいました。

Apple Watchを使った臨床研究に取り組んだきっかけは?

・個人的に、Apple Watchは心拍計が使える初代モデルから利用していた。健康のためを意識しなくても、時計として着けているだけで心拍や運動など役立つデータを常時記録できることが大事。

・一度の検査だけではなかなか分からない。「病院で良い検査結果を出そうと思うと、たとえば一週間酒を止めたとか、そういうことができてしまうんですよ」。家庭で実際にどういう生活をしているかを医療に反映させるためには、常時計測できるApple Watchを使う必要がある。

・特に心電図アプリケーションについては、医療機器ではないApple Watchである程度信頼できるデータが取得できる、本当に革命的なことが起きた。一回測って終わりではなく、継続して有意義に使ってもらうにはどうするか、が今回の研究に至る経緯。

心疾患は高齢者に多いと思いますが、Apple Watchを着けている高齢者は多くありませんね

「高齢者こそApple Watchだ!と思います」。慶應で臨床研究をする際は、意図的に高齢の方にお願いすることもある。たしかに操作から覚えてもらう必要はあり、利用者と医療従事者の双方にもっとデジタルリテラシーが必要になるが、自分の健康状態を意識するきっかけにもなる。高齢者こそ使ったほうが良いんだよ、ということを啓発していきたい。

高齢者といえば、Watchを使った「見守り」のアプリケーションについてはどうでしょうか

・ICT技術的には非常に簡単。医療者としても、電子カルテにプラスアルファのヘルスケアデータとして管理できれば非常に有用。

・ただ簡単にできたとしても、異常があったときに誰が対応するのか、具体的にどこまでの緊急性をもって対応するのか? など、リソースの配分やマネジメントをどうするかのルールが統一できていない。体制づくりが必要。

(注:Apple Watchを使った見守りサービスを独自に提供している企業はあります)

セコムがApple Watchで見守りサービスなどを開発。今年秋より順次提供

アプリ作成について。実際のアプリ開発を担当したアツラエとはどんなふうに仕事を進めたんでしょうか。苦労した点があれば教えてください

・ユーザーからすれば、医学研究って堅苦しいとか、たくさん質問票が出てきて面倒くさい! といった点が問題になる。打破するにはユーザーインターフェース、UXできれいなデザイン性を持たせることが重要。それができるデベロッパーを探していて辿り着いたのがアツラエ。研究参加にあたっての同意など、必須のステップをユーザーフレンドリーに構築していただけた。苦労としては、オンラインの打ち合わせを中心に進めざるを得なかったこと。(木村)

・アツラエは前身の会社に遡れば2008年から、クライアント向けのiOSアプリ開発をお手伝いしてきた。iOS / iPadOSと使いやすいデザインには自負もあった。苦労したのは、このコロナ禍でなかなか先生にもお会いできずオンライン打ち合わせで進めたこと。

・UI、UXの開発については、木村先生が求めるものに対してどこまで省略できるのか、遊びをもたせるか、を汲み取るのが重要だが、対面ならば表情や口調も大きな手がかりになる。オンラインでは、本当に喜んでくれているのだろうか? ユーザーに役立つものができているのだろうか? を探り探りで進める必要があった(アツラエ有海)。

・技術的には、開発時点で国内での心電図アプリケーションがまだ解禁されておらず、テストに苦労した(アツラエ早川)。

(日本国内での心電図アプリケーション解禁は1月22日、Apple Watch Heart Studyアプリ配信はわずか一週間後の2月1日)

今回の臨床研究で得られた成果は、今後具体的にどのような形で活かされるのか。「心臓病予防アプリ」への課題は

「最終的な結果はただ研究で終わらせることなく、医療のDXとして提供できるような形を考えています」(木村)。一つ大きな壁は、医学的なアドバイスや計測結果を出すとして、どこまで言えるのか、(認可的な意味で)医療機器の扱いになるか否か。診断を与えることではなく、日々の生活を見守り、自分の変化に気づかせることがおそらく一番重要。長い時間をかけて医療機器を作るんだ! ではなくても、ヘルスケアに貢献できるソリューションは色々ある。

・必ずしも医療機器の精度でないとしても、個々のユーザーに対していま測ったほうがいいのかな、いま病院にいったほうがいいかなという気づきを与えること。知らないうちに見守られていて、変化を教えてくれるものが増えていけば、早期発見や健康寿命に貢献していくことになる。今回の研究も、ソリューションはとしてはそうしたところを目指したい。

Apple Watch Series 6からは、医療機器としての数字ではないものの「血中酸素ウェルネス」でSpO2も取得できるようになりました。今後さらにこんなデータが取れればと期待しているものは

・色々とうわさはあり、今度のWWDCでもジェスチャ検出など新しいものが出てくるようだが、大事なのは同じ機械で計測し続けること。

・計測したデータに医療機器と同じ精度があるかどうかまで立ち戻らなくても、同じ機器で計測し続けた変化量は、その個人にとっては評価できるものになる。もちろん、これが欲しいあれが欲しいという期待はあるが、いずれにしても個人に紐付けられたデータであれば非常に貴重なものになると考えている。

次のWWDCへの期待をお願いします

「WWDCには毎年驚かされていて、素人ながら分かる範囲の開発者向け動画はすべて見るようにしています」。毎年大幅に変わるが、今回のアプリでも睡眠計測やウィジェットなど、新しい機能をできるだけ使うようにお願いした。うわさの血糖値やジェスチャは大変興味深いと思っている。(木村)

・アクセシビリティ・デイで発表済みのジェスチャ操作はどうなるのか、自分たちのアプリに組み込めるか? は注目。日本国内のアプリはアクセシビリティが行き届いていないことが多く、いちデベロッパーとして注目していきたい。過去でいえば、watchOS 2でガラリと変わったこと、6でできることが一気に増えたのが印象深い。Apple Watchのアプリ開発は今後もっと注目されてくるのではないかと思っている(アツラエ早川)。

・プランニングの観点から。毎年WWDCの時期には、クライアントから自社のアプリにこの新機能は使えるんじゃないか、どう変わるのかと問い合わせや提案が増える。応えるためにいち早くプロトタイピングをしたり、社内でディスカッションするのが恒例行事 (アツラエ有海)。

WWDC 2021 のキーノートは日本時間で6月8日午前2時から。Engadgetでも速報体制でお伝えします。

病院がアプリを処方する時代。iOS活用で進む未来の医療
Apple Watch Heart Study

Engadget日本版より転載)

関連記事
慶應病院が全国のApple Watchユーザーを対象とする睡眠中・安静時の脈拍に関する臨床研究開始
Googleが感染症の数理モデルとAIを組み合わせた都道府県別の新型コロナ感染予測を公開、慶応大監修
IBMが量子コンピューターの競技型オンライン・プログラミング・コンテスト開催、慶応大とコラボ

カテゴリー:ヘルステック
タグ:Apple / アップル(企業)Apple Watch(製品・サービス)医療(用語)慶應義塾大学(組織)ビッグデータ(用語)日本(国・地域)

データ量の多い科学の再現をサポートし科学者たちのコラボを容易にするCode Ocean

科学のあらゆる分野で、ビッグデータとその分析への依存度が高まっている。そのため、フォーマットやプラットフォームがますます混乱に陥っている。これは不便なだけでなく、査読プロセスや研究の再現に支障をきたす。Code Ocean(コード・オーシャン)は、あらゆるデータセットや手法に対応した柔軟で共有可能なフォーマットとプラットフォームを提供することで、科学者同士のコラボレーションを容易にしたいと考えており、その構築のために総額2100万ドル(約22億8100万円)を調達した。

科学界には確かに「選択肢がどんどん増えていってしまう」といった雰囲気がある(これに関するXKCD漫画もある)。しかしCode Oceanは、Jupyter(ジュピター)やGitLab(ギットラブ)、Docker(ドッカー)のような成功したツールの競合製品を作っているわけではない。Code Oceanが作っているのは、データや分析に必要なすべてのコンポーネントを、どのようなプラットフォーム上であっても簡単に共有できる形式にまとめることができる小規模なコンテナプラットフォームだ。

問題となっているのは、自分がやっていることを他の研究者と共有する必要があるときだ(相手がすぐ側にいても、国内の大学にいても同じ)。再現する時は、他の科学技術と同じように、データ解析をまったく同じ方法で行うことが重要だ。しかし、他の研究者が同じ構造、フォーマット、表記、ラベルなどを使うという保証はない。

仕事を共有するのが不可能なわけではない。しかし、同じ方法を用いているか、同じバージョンのツールを同じ順番で使っているか、同じ設定で使っているかなど、複製や反復を行う人が何度も確認しなければならないため、多くの余計なステップが必要になる。小さな不整合は、将来的に大きな影響を及ぼす可能性がある。

この問題は、多くのクラウドサービスが生み出される過程に似ていることがわかった。ソフトウェアの展開は科学実験のように難しいが、その解決策の1つがコンテナだ。コンテナとは、小さな仮想マシンのようなもので、コンピューティングタスクを実行するために必要なものすべてを、さまざまなセットアップに対応するポータブルなフォーマットで管理する。この方法は、研究の世界にも当然当てはまる。データ、使用したソフトウェア、ある結果を得るために使用した特定の技術やプロセスを、1つのパッケージにまとめておくことができるからだ。Code Oceanは、このプラットフォームと「Compute Capsules(コンピュート・カプセル)」を提案している。

画像クレジット:Code Ocean

あなたは微生物学者で、ある筋肉細胞に対する有望な化合物の効果を調べているとしよう。あなたはUbuntuパソコンのRStudioでRを使用しており、データはin vitro観察で収集したものだ。発表する際にこれらのことをすべて公開しても、すべての人がRStudioが動作するUbuntuのパソコンを持っているとは限らないので、たとえあなたがすべてのコードを提供したとしても、それが無駄になるかもしれない。

しかし、このようにCode Oceanに載せれば、関連するすべてのコードが利用可能となり、クリックするだけで修正されずに検査・実行できたり、ユーザーが特定の部分が気になる場合には、その部分を微調整したりすることができる。Code Oceanは、単一のリンクとウェブアプリ、クロスプラットフォームで動作し、ドキュメントや動画のようにウェブページに埋め込むこともできる。(以下ではその方法を試してみるが、私たちのバックエンドは少し好き嫌いが激しい。カプセル自体はこちらを参照。)

さらに、コンピュート・カプセルは、新しいデータや修正を加えて他の人が再利用することができる。もしかしたら、自分が公開している技術は、適切にフォーマットされたデータを与えれば機能する汎用のRNA配列解析ツールであり、もし他の人が特定のプラットフォームで利用しようとしたら最初からコーディングしなければならなかったものかもしれないのだ。

他の人のカプセルを複製し、自分自身のデータで実行すれば、その人のカプセルを検証するだけでなく、自分の結果の検証もできる。これは、Code Oceanのウェブサイトを介して行うこともできる他、zipファイルをダウンロードして自分のコンピュータで実行することもできる(互換性のあるセットアップが必要)。その他のカプセルの例はこちらを参照。

画像クレジット:Code Ocean

このような研究手法の相互交換は、科学の世界では古くから行われているが、データを多用する現代の実験では、技術的にはコードを入手できても、共有や検証が容易ではないため、サイロ化してしまうことが多い。つまり、他の研究者が研究を先に進めて自分だけの研究を作り、サイロシステムをさらに強化してしまうのだ。

現在、Code Oceanには約2000のパブリックコンピュート・カプセルが存在し、そのほとんどが発表された論文と関連している。ほとんどのものは、他の人が複製したり、新しいことを試したりするために使用されており、中にはかなり特殊なオープンソースのコードライブラリのように、何千人もの人が使用しているものもある。

もちろん、個人情報や医療上の機密データを扱う場合にはセキュリティ上の懸念があるが、企業向け製品であるCode Oceanでは、システム全体をプライベートクラウドのプラットフォーム上で稼働させることができる。これによりCode Oceanを内輪でのツールとして活用でき、大手の研究機関ではそのこと自体が非常に役に立つかもしれない。

Code Oceanは、コードベース、プラットフォーム、コンピューティングサービスなどをできるだけ包括的に提供することで、最先端のコラボレーション環境を実現したいと考えている。

その野望は他の人の共感を呼んでいる。同社はこれまでに2100万ドル(約22億9400万円)を調達しており、そのうち600万ドル(約6億5500万円)は以前は未公開の投資で、1500万ドル(約16億3900万円)は現地時間5月17日に発表されたAラウンドで調達した。Aラウンドは、Battery Ventures(バッテリーベンチャーズ)が主導し、Digitalis Ventures(ジギタリスベンチャーズ)、EBSCO、Vaal Partners(バール・パートナーズ)をはじめとする多数の企業が参加した。

この資金により、同社はプラットフォームの開発、拡張、普及を進めることができるだろう。運が良ければ、必要性があり、深く統合されていて収益性の高い、事情に精通したSaaS業界にすぐに仲間入りできるはずだ。

関連記事
マイクロソフトが今や1日に1億4500万人が利用するTeamsの開発者向け新機能やツールを発表
クラウドを使わずドキュメント共同編集機能を実現するP2Pソフトウェア「Collabio」
簡単にコラボができる画面共有サービスCoScreenが約5億円調達

カテゴリー:ネットサービス
タグ:Code Ocean科学者資金調達コラボレーションビッグデータ

画像クレジット:Code Ocean

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)

運送業向けクラウドのhacobuが9.4億円調達、物流業界初のビッグデータ・ガバナンス体制立ち上げ

運送業支援クラウドのhacobuが9.4億円調達、物流業界初のビッグデータ・ガバナンス体制立ち上げ

「運ぶを最適化する」をミッションとして、企業間物流の最適化を目指すHacobu(ハコブ)は4月19日、第三者割当増資による総額約9億4000万円の資金調達を発表した。引受先は、JICベンチャー・グロース・ファンド1号投資事業有限責任組合、NREGイノベーション1号投資事業有限責任組合(野村不動産グループ)、豊田通商、Logistics Innovation Fund投資事業有限責任組合(セイノーホールディングスをアンカーLPとするSector-Focused Fund)、SMBC社会課題解決投資事業有限責任組合、ダイワロジテック(大和ハウスグループ。既存株主)、三井不動産(既存株主)。

これを機にHacobuは、社会課題解決に賛同するステークホルダーとのパートナーシップ強化とともに、アプリケーションの開発・販売にかかる人員の増強、物流ビッグデータ分析基盤の強化にかかる人員の増強、また物流業界初となるビッグデータ・ガバナンス体制の立ち上げ・運用などの施策を推進し、物流ビッグデータ活用に向けた体制を強化する。

外部専門家で構成する物流ビッグデータ・ガバナンス委員会では、委員長として國領二郎氏(慶應義塾常任理事、慶應義塾大学総合政策学部教授政策・メディア研究科委員 経営学博士)、委員として岩田彰一郎氏(フォース・マーケティングアンドマネージメント代表取締役社長CEO)、水越尚子氏(レフトライト国際法律事務所 弁護士)が就任する。

また資金調達と同時に、野村不動産および豊田通商と、物流業界における公正なビッグデータ活用を通じた社会課題解決と相互の事業発展を目的として、業務提携契約を締結した。野村不動産とは物流施設とそれに関わるサービスを活用したオープンイノベーションの推進、豊田通商とは、物流業界が抱える課題解決やカーボンニュートラル社会の実現に向けて、自動車業界を中心とした物流およびサプライチェーンにおけるビックデータの活用と最適化の実践を中心的な取り組む。

資金使途:物流ビッグデータ活用に向けた体制強化

  • アプリケーションの開発・販売にかかる人員の増強:企業間(発着荷主、物流企業、運送会社)のやり取りや物流現場の業務をデジタル化するアプリケーション群「MOVO」(ムーボ)の機能増強、物流業界向け他社サービスとのAPI連携によるプラットフォームとしての成長の加速、新アプリケーション開発推進に向けたエンジニア・デザイナー・プロダクトオーナーの採用を加速。また、顧客の物流DX推進パートナーとなるセールス・カスタマーサクセス・マーケティング・企画系職種の採用を加速
  • 物流ビッグデータ分析基盤の強化にかかる人員の増強:Hacobuでは、MOVOに蓄積された物流ビッグデータを分析・活用し、業務効率化の提案を複数企業に対し展開。抜本的な物流コストの削減や現場の生産性向上につながる示唆を顧客に提供している。この取り組みをけん引するHacobu Strategies(コンサルティングサービス)の物流DXコンサルタント・データエンジニア・データアナリストの採用を加速する
  • 物流業界初となるビッグデータ・ガバナンス体制の立ち上げ・運用:サプライチェーン全体の最適化の実現に向けて、個社の枠を越え、公正性・客観性を確保しつつ物流ビッグデータの活用を進めるために、外部専門家で構成する物流ビッグデータ・ガバナンス委員会を設置する。第三者の視点や意見を取り入れ、物流ビッグデータ活用に関するガイドラインを策定、運用する体制を構築する

現在物流業界は、トラックドライバーの人手不足に陥っている一方で、企業間のやり取りが電話やFAX、紙帳票などの非効率なツールが中心になっており、DXによる業務の効率化が急務となっている。

これに対してHacobuは、物流現場の業務をデジタル化するアプリケーション群MOVOを提供することで、事業者・業界の垣根を超えた「モノと車両と場所」にかかわる物流情報をビッグデータとして蓄積し、物流全体が最適化された持続可能な社会を目指すという。

MOVOでは、トラック予約受付サービス「MOVO Berth」(ムーボ・バース)、動態管理サービス「MOVO Fleet」(ムーボ・フリート)、流通資材モニタリングサービス「MOVO Seek」(ムーボ・シーク)、配送案件管理サービス「MOVO Vista」(ムーボ・ヴィスタ)の4アプリケーションを提供しており、メーカー、小売、物流企業など、すでに500社以上の企業に導入されているそうだ。

またHacobuによると、MOVOの導入企業の広がりとともに物流ビッグデータの蓄積が進んでおり、この個社の枠を越えた物流ビッグデータを分析・活用し、物流業界に還元することでサプライチェーン全体の最適化を図りたいと考えているという。

同社は、物流の最適化には、個社内に閉じた取り組みだけではなくサプライチェーン内のステークホルダー間での調整が必要で、複数のステークホルダーで議論する際にはデータが不可欠と指摘。Hacobuは、担当者間の属人的なつながりだけに頼るのではなく、データを基盤とした議論によって、業界や会社の枠を超えた物流の協調が進むとした。また、ひとつの会社内でも物流部と他部署が建設的な議論をするために、データがあると本質的な課題の抽出と部署間での連携が行われるとしている。

データがあることで、事実を共有しかつ見つ直し、建設的な解決策を考え、新しいロジスティクスの在り方を考えていく、そのようなロジスティクスの世界を「Data-Driven Logistics」と定義し、Hacobuはその実現に邁進するとしている。

関連記事
Hacobuの動態管理サービスが専用端末なしで日野のコネクティッドトラックで利用可能に
運送業向けサービス開発のhacobuが業務・運行管理クラウドを提供——7月にはデジタコも販売

カテゴリー:モビリティ
タグ:資金調達(用語)hacobu(企業)ビッグデータ(用語)MOVO(製品・サービス)日本(国・地域)

慶應大病院が全国のApple Watchユーザーを対象とする睡眠中・安静時の脈拍に関する臨床研究開始

慶應義塾大学病院が全国のApple Watchユーザー対象とする臨床研究開始、App Storeでアプリ配信

慶應義塾大学病院は2月1日、全国を対象とするApple Watchヘルスケアビッグデータの構築と医学的な網羅的解析を目的に、Apple Watchを利用した臨床研究「Apple Watch Heart Study」の開始を発表した。研究責任者は副病院長陣崎雅弘氏、実務責任者は循環器内科特任講師木村雄弘氏。

同院独自の研究用iPhoneアプリケーション「Heart Study AW」は、App Store(日本)よりダウンロード可能。同臨床研究の対象者は以下の通り。また参加同意後、いつでも自身の意思で同意を撤回し、参加を取りやめられる。

  • 日本語を理解できる20歳以上の日本国民の者
  • iPhone(iOS 14.0以降)、Apple Watch(watchOS 7.0以降)の利用者
  • 上記を利用し、App Store(日本)から研究アプリケーション「Heart Study AW」をダウンロードできる者
  • 同研究の参加に同意できる者
  • Apple Watchを睡眠中7日間装着し質問票に回答できる者

慶應義塾大学病院は、今回の臨床研究について類を見ない試みとしており、今後家庭でのデジタルヘルスケアと適切な医療との連携に貢献することが期待されるという。なお、本臨床研究は慶應義塾大学病院が行うもので、Appleが共同研究などで関与するものではない。

同院は、日常生活で着用し、血中酸素ウェルネスや脈拍数などの生体情報を自動的に計測・記録できるApple Watchが、心電図アプリケーションで心電図も記録できるようになり、家庭で可能な予防医療の幅が広がりつつあると指摘。同種の機器が取得するデジタルヘルスケア情報を医療に橋渡しするには、これら情報を集約したヘルスケアビッグデータベースを構築・解析して実際の医療に応用できる情報を抽出することが必要とされるという。

そこで同臨床研究では、Apple Watchの心電図アプリケーションで測定する心電図や脈拍などの様々なヘルスケアデータと、同院独自の研究用iPhoneアプリケーション「Heart Study AW」(App Store)で収集する睡眠・飲酒・ストレスなどに関する調査データを解析することで、睡眠中・安静時の脈拍と生活習慣との関連について、分析を行う。

また、アプリケーション経由でなされる「脈がとぶ」「脈が速い」などの動悸の申告を元に、心電図やヘルスケアデータの変化を解析するという。

心電図は心臓に異常がある時に記録することが重要なものの、病院での限られた検査時間中に症状や異常が現れない場合、病気を検出することが困難という。同研究により、家庭でApple Watchのような機器を使用し的確に心臓の異常を記録できるタイミングはどのような場合であるのかが明らかになり、病気の早期発見につながることが期待されるとしている。

同院に通院する患者対象の研究と、全国のApple Watchユーザー対象の研究の2種類で構成

同研究は、対象者の異なるふたつの研究から構成。そのうちひとつは、「Apple Watch Heart Study慶應義塾版」を利用したもの。同院に通院する心房細動患者の協力のもと、臨床現場で使用している心電図検査(2週間。Holter心電図、携帯型心電図)と、Apple Watchおよび心電図アプリケーションから得られる脈拍データと心電図との比較を行う。

また、ヘルスケアデータを睡眠・飲酒・ストレスとの関係に関して人工知能で解析し、どのような時に不整脈になりやすいかを推定するアルゴリズムを構築する。

全国のApple Watchユーザーを対象とした「Apple Watch Heart Study」では、睡眠中および可能な範囲での日中安静時のApple Watch装着と、動悸などの症状の記録の協力(7日間)を依頼。

慶應義塾大学病院が全国のApple Watchユーザー対象とする臨床研究開始、App Storeでアプリ配信

Apple Watchで収集するデータを活用し、日本におけるヘルスケアビッグデータの構築と解析を行うとともに、慶應義塾版で開発するアルゴリズムを一般国民のデータに対して適用。生活スタイルや申告された症状のデータに焦点を置いた解析を行うことで、適切な精度となるよう評価・改修を行う。

収集したデータは、学会や論文での発表を予定。取りまとめられた情報を医学雑誌、データベース(UMIN-CTR)上などに公表する場合には、統計的な処理が行われ、個人の情報は一切公表しないとしている。

なお同研究は、慶應義塾大学病院が内閣府より受託している戦略的イノベーション創造プログラム「AI(人工知能)ホスピタルによる高度診断・治療システム」研究開発事業(研究責任者:病院長 北川雄光)として実施。Apple提供の臨床研究用フレームワークを利用したアプリ開発の技術的サポートをAppleから受けている。また、ジョンソン・エンド・ジョンソングループBiosense Webster, Inc.のInvestigator-Initiated Study Programからの資金提供および指定寄附の支援によって実施される。

関連記事
大学VCの慶應イノベーション・イニシアティブが2号ファンドを103億円で募集終了
Googleが感染症の数理モデルとAIを組み合わせた都道府県別の新型コロナ感染予測を公開、慶応大監修
慶應義塾大学 岩本研究室とEdMuseがブロックチェーン基盤ID証明関連ビジネスモデルに関し協働研究
IBMが量子コンピューターの競技型オンライン・プログラミング・コンテスト開催、慶応大とコラボ
Apple Watch Series 6ファーストインプレッション、血中酸素計測機能と新バンド・ソロループに注目
watchOS 7パプリックベータを検証、待望の睡眠追跡機能の実力は?

カテゴリー:ヘルステック
タグ:Apple / アップル(企業)Apple Watch(製品・サービス)医療(用語)AI / 人工知能(用語)慶應義塾大学(組織)ビッグデータ(用語)日本(国・地域)

Tonicは合成データがスケーラビリティとセキュリティを解決する新しいビッグデータであることに着目

ビッグデータは表面的で中身が掴めない。何年も前から、あらゆる企業はある種のデータベースの中でデジタル情報の残滓をすべて保存しておくべきだと言われてきた。そうしないと、経営陣は競合他社などに対して競争力のあるインテリジェンスを失いかねない。

しかし、ビッグデータには1つ問題がある。とにかく膨大な量であることだ。

ペタバイト規模のデータを処理してビジネスに関する洞察を生成するには、コストと時間がかかる。さらに悪いことに、これらのデータは世界中のあらゆるハッカーグループのターゲットになる危険が大きい。ビッグデータは、維持、保護、機密保持すべてにコストがかかるが、押し並べてみると結果はそうしたコストに見合わない可能性がある。多くの場合、精選されたデータセットは、無限量の未処理データよりも速く、より良い洞察を提供できる。

企業は何をすべきだろうか?ここでまさに、Tonicがビッグデータの問題を改善するのに必要とされるだろう。

Tonicは「合成データ」プラットフォームで、未処理のデータをソフトウェアエンジニアやビジネスアナリストが使いやすいプライベートなデータセットに変換する。その過程でTonicのアルゴリズムは元のデータを識別せず、統計的には同一だが合成されたデータセットを作成する。これは個人情報が不安定なかたちで共有されないことを意味する。

たとえば、オンラインショッピングプラットフォームはその顧客と彼らが購入したものに関する取引履歴を持つ。そのデータを社内のすべてのエンジニアやアナリストと共有することは危険である。なぜなら、その購入履歴には知る必要のない者がアクセスすべきでない個人的な詳細情報が含まれている可能性があるからだ。Tonicは元の支払いデータを、まったく同じ統計的性質を持つが元の顧客とは結びつかない、新しい小さなデータセットに変換することができる。そうすればエンジニアがアプリをテストしたり、アナリストがマーケティングキャンペーンをテストしたりといったことがプライバシーに関する懸念を引き起こすことなく可能になる。

巨大なデータセットのプライバシーを扱う合成データやその他の方法が、ここ数か月の間、投資家から大きな注目を集めている。我々は先週、従業員が必要なデータのみにアクセスし、他のデータへアクセスすることをブロックするポリモーフィック型の暗号化への取り組みにラウンドを調達したSkyflowについて報じた。BigIDは、地域のプライバシー法に基づいてデータのある場所やアクセスすべき人物について追跡する(すなわちデータガバナンス)ことに留まらない包括的な視点を有している

Tonicのアプローチには、プライバシーの問題だけでなく、データセットのサイズが大きくなるにつれて生じるスケーラビリティの問題も解決できるという利点がある。この組み合わせは投資家の注目を集めている。Tonicは本日午前、GGVのGlenn Solomon(グレン・ソロモン)氏とOren Yunger(オレン・ヤンガー)氏が率いるシリーズAで800万ドル(約8億3000万円)を調達したことを発表した。

同社は創業者4人によって2018年に設立された。CEOのIan Coe(イアン・コウ)氏はCOOのKarl Hanson(カール・ハンソン)氏と中学時代に出会い、両氏とCTOのAndrew Colombi(アンドリュー・コロンビ)氏は共にPalantirで勤務した経験がある。コウ氏はまた同社のエンジニアリング責任者Adam Kamor(アダム・カーマー)氏と共にTableauで働いていた。シリコンバレーの成功している最大手のデータインフラ企業で培われたものは、Tonicの製品DNAの一部を形成している。

Tonicのチーム。写真はTonicより提供

コウ氏によると、Tonicは現代のソフトウェアエンジニアリングで発生する最も明白なセキュリティ上の欠陥のいくつかを防ぐように設計されているという。エンジニアリングチームがデータパイプライン処理に費やす時間を節約することに加え、Tonicは「機密データが本番環境から、本番システムよりも常に安全性の低い下位の環境に移動することを懸念していない」という。

Tonicが誕生するきっかけは、Palantirの銀行顧客のトラブルシューティングをしていたときだったという。彼らは問題を解決するためにデータを必要としていたが、そのデータは非常にセンシティブだったため、チームは合成データを利用することになった。コウ氏は、合成データの有用性をより厳密な方法でより多くの人々に拡大したいと考えている。「規制の圧力は、データの取り扱い慣行を変えることをチームに迫っていると思います」 と彼は言う。

Tonicのテクノロジーの鍵は、未処理データを評価し、すべてのレコード間の関係を統計的に定義するサブセッターにある。分析の一部はデータソースに応じて自動化されており、自動化できない場合にデータサイエンティストがデータセットをオンボードし、それらの関係を手動で定義することをTonicのUIは可能にする。最終的にTonicは、そのデータを所有する企業内のすべての人が使用できる合成データセットを生成する。

今回の資金調達でコウ氏は、使いやすさとオンボーディングをさらに強化し、顧客にこのモデルのメリットを広めたいと考えている。「私たちは様々な観点からカテゴリーを生成しています。それは人々が商品やサービスを早期に受け入れるアーリーアダプターの考え方とその価値を理解し身につける必要がある、ということを意味します」と彼は語る。

主要投資家のGGVに加えて、Bloomberg Beta、Xfund、Heavybit、Silicon Valley CISO Investments、そしてエンジェル投資家のAssaf Wand(アッサーフ・ワンド)氏とAnthony Goldbloom(アンソニー・ゴールドブルーム)氏がこのラウンドに参加している。

関連記事:イリノイ州がマスク着用啓発の広告費割り当てにデータサイエンスを活用

カテゴリー:セキュリティ
タグ:ビッグデータ データサイエンス

[原文へ]

(翻訳:Dragonfly)