EAGLYSが東芝と協業検討、リアルタイムビッグデータ分析にセキュリティ・秘密計算を適用へ

秘密計算 EAGLYS 暗号化 ビッグデータ 準同型暗号

秘密計算技術のEAGLYS(イーグリス)は7月13日、東芝が新規事業創出を目指し開催した「Toshiba OPEN INNOVATION PROGRAM 2020」において、協業検討企業として選抜されたと発表した。

EAGLYSは、秘密計算技術で常時暗号化したデータ操作が可能なデータベース向けプロキシソフトウェア「DataArmor Gate DB」と、東芝のIoT・ビッグデータに適したデータベース「GridDB」との製品連携の実証を重ね、ビッグデータのリアルタイム分析における高セキュリティ・秘密計算機能の実現と価値創出に向け協業検討を進めるという。

Toshiba OPEN INNOVATION PROGRAM 2020は、東芝グループが持つローカル5G、IoT、ビッグデータ、画像認識などの技術を活用し、共に新規事業の創出や協業検討を行うプログラム。EAGLYSは、プログラム採択企業として2020年9月25日の成果発表会までに実証実験を重ねて検討をブラッシュアップ、より本格的なビジネスソリューションとしての事業化を目指す。

秘密計算技術とは、データを暗号化したまま復号することなく任意のデータ処理ができる暗号技術の総称。ゼロトラスト時代のデータセキュリティには、ネットワークなどの境界に依存したセキュリティ対策ではなく、「データそのもの」を守るアプローチが求められ、それを実現する基盤技術として期待されている。

秘密計算 EAGLYS 暗号化 ビッグデータ 準同型暗号

EAGLYSの秘密計算技術は、格子暗号をベースとする準同型暗号を採用。暗号処理に伴う計算量の増加が準同型暗号実用化の課題となっていたが、IEEEをはじめ各種国際学会に採択された同社秘密計算エンジン「CapsuleFlow」(カプセルフロー)関連の研究成果によって、大幅な高速化と省メモリー化を達成。業界に先駆けて準同型暗号の実用化に成功した。

DataArmor Gate DBは、EAGLYSが開発・提供するセキュアコンピューティング・プラットフォーム「DataArmor」シリーズのデータベース向けの高機能暗号プロキシーソフトウェア。このソフトウェアでは、データを暗号化したまま透過的に検索・集計クエリなどのデータベース操作が可能。データベース側に鍵をもたない設計により、通信中・保管中・処理中(検索・集計などのクエリ)を常時暗号化し、セキュリティレベルの向上と高パフォーマンスを両立している。

また、プロキシー型で提供しているため、データベースの種別に依存しない連携が行える。同製品にはデータを暗号化したまま計算可能な秘密計算機能も搭載しており、IoTなどセンシングデータの計算処理などのユースケースにも適用可能。

関連記事
量子コンピュータ対応の暗号化セキュリティ技術を擁するPQShieldが7.5億万円調達
マイクロソフトがセキュリティスタートアップのCyber​​Xを買収、Azure IoT事業のセキュリティ強化に超本腰
暗号化したままデータ解析可能な「秘密計算」の実用化めざすEAGLYS

ビッグデータ解析のPalantirが約590億円を調達、最終調達額は1000億円超に

ときおり議論の的になるが常に秘密主義のビッグデータ・アナリティクス企業であるPalantirは政府機関や大企業を顧客として、安全保障情報(未訳記事)、ヘルス情報(未訳記事)、そのほか機密性の高い情報処理を事業としている。ビジネスとしてはこの秋にも株式上場を目指していると報じられている(Bloomberg記事)。しかし当面は非公開企業としての資金調達にも力を入れているようだ。

Palatirはこのほど4年ぶりとにSEC(米証券取引委員会)にフォームD(登録義務の免除規定のための書類)を提出した。この報告書によれば、同社は10億ドル(約1075億円)近く、正確には9億6109万9010ドル(約1030億円)を調達中であり、このうち5億4972万7437ドル(約590億円)をすでに調達したという。つまり今後4億1137万1573ドル(約442億円)を集める計画だという。

6月のReuters(ロイター)の記事によれば、Palantirは提携先2社からの戦略的投資を受けている。ひとつは日本の保険会社であるSOMPOホールディングスからの5億ドル(約537億円)、もう1件は日本のテクノロジー企業である富士通からの5000万ドル(約53億円)だ。これは合計5億5000万ドル(約591億円)となるため、フォームDで調達済みとされている5.5億ドルがこれに当たるようだ。

フォームDによれば投資家からすでに58件のオファーを受けており、Palantirは調達予定の10億ドルのうちすでに調達した5.5億ドル以外の部分に対しても投資コミットメントを確保しているわけだ。ただし資金調達ラウンドはまだ締め切られていない。

Palantirに今回のフォームDに関してコメントを求めたが「これは当社が直接売却する予定の株式であり、既発行株の二次的取引ではない」と述べるに留まった。今回の資金調達ラウンドはフォームDの説明では上場計画に遅延が生じているためなのか単に上場を補完するだけなのか明らかではない。

また報告書はPalantirが4年ぶりに10億ドル以上30億ドル以下の資金調達を図っているというCNBCの2019年9月の報道を裏付けるものらしい。その報道ではPalantirは会社評価額として4年前の200億ドルを260億ドルにアップすることを目標としていると指摘していた。 6月のロイターの報道では二次市場の取引に基づく会社評価は100億ドルから140億ドルの間だとしていた。

PitchBook調べでは、Palantirは現在までに108以上の投資家から少なくとも33億ドルの資金を調達している。PitchBookのデータ(一部は有料記事)ではPalantirはこれ以前に金額は不明だが非公開で何度か資金調達ラウンドを実行しているという。

Palantirの評価額は4年前の200億ドルが最後だが、その後、さらに高い評価額に向かうことを示唆するいくつかのポイントがあった。新型コロナウイルスによるパンデミックで株式の新規上場はほぼ停止したものの、再び動きが見られるようになっている。またPalantir自身の事業活動も活発化の兆候を示している。

Bloombergによれば、同社は4月に投資家向けブリーフィングを発表し「今年の収入予想は10億ドルに達し、2019年から38%増加して損益分岐点に達する」と予想している。これはPeter Thiel(ピーター・ティール)氏などが16年前に同社を設立して以来初めてのことだ。他の共同創業者には Nathan Gettings(ネイサン・ゲッティングス)氏、Joe Lonsdale(ジョー・ロンズデール)氏、Stephen Cohen(スティーブン・コーエン)氏、現在のCEOを務めるAlex Karp(アレックス・カープ)氏だ。

なお、Bloombergの記事にはPalantirがなぜ投資家にブリーフィングを行ったかは説明されていないので、上場を控えての広報だったのか、今回の資金調達あるいは別の理由だったのか不明だ。またPalantirはは新型コロナウイルスによるパンデミックに関するニュースにもたびたび登場している。

具体的には、英国ではコンソーシアムの一部としてNHSと共同(未訳記事)で新型コロナウイルスデータベースの開発)、米国では連邦政府の新型コロナウイル追跡システム(Daily Beast記事)やCDCとの共同プロジェクト(Forbes記事)など、主要市場で大規模なビジネスを獲得していることが報じられている。こうしたプロジェクトはPalantirのほかのビジネス(未訳記事)同様、準備と実施に多額の先行投資を必要とすることが予想される。 こうした事情が現在資金を調達している理由の1つかもしれない。

画像:Jason Alden/Bloomberg / Getty Images 画像編集済

原文へ

(翻訳:滑川海彦@Facebook

Palantirの新型コロナモニタソフトを米CDCやNHSが利用中、EUにも採用働きかけ

多くのスタートアップが新型コロナウイルス(COVID-19)のパンデミックによって苦境に追い込まれている中、政府の感染抑制策を助けることによって事態が追い風となっている企業もある。その1社が謎めいた巨大企業、Palantirだ。

政府機関と密接な関係をもつ同社はビッグデータ処理を専門とし、膨大な情報を分析して個人を追跡し、トレンドを視覚化することができる。新型コロナウイルス感染の拡大が医療システムを崩壊させ社会、経済を混乱させる危険に直面している現在、極めて有用な能力だ。

3月中旬の Wall Street Journalの記事によれば、Palantirはウイルス感染の拡大をモデル化するためにCDCに協力したという。 Forbes(フォーブス)はCDCは現在新型コロナウイルスの流行状況を視覚化し、医療ニーズを予測するためにPalantirのアプリを使っている」と報じている。

記事によれば、Palantirはコロナウイルス関連のシ処理では個人を特定可能なプライバシー情報の取り扱いを避け、病院、ヘルスケア、研究機関、メーカーからの匿名化されたデータを分析しPalantir Foundryに集約している。

英国における新型コロナウイルス対策ではNHS(National Health Service、国民健康保険サービス)に同社のFoundryプラットフォームを通じてデータ分析を提供している。イギリス政府はブログ記事 で、Palantirとの提携に触れ、同社のFoundry ソフトウェアを利用するとして、「(このFoundryは)主として英国で開発されたものであり、異種データを組み合わせ、クリーンアップし、総合することにより意思決定に役立つ単一かつ確実性の高い情報源を提供する」と述べている。

Bloomberg(ブルームバーグ)によれば、Palantirはフランス、ドイツ、スイス、オーストリアの政府に対して同社の分析ソフトウェアの採用を働きかけている。同社はFoundryだけでなくデータ分析ツールのGothamも売り込んでいるという。このツールは政府の情報機関や捜査機関が個人を追跡するのに役立ていることでよく知られている。米国でICE( 移民税関捜査局)が不法滞在者を摘発するために用いているのがいい例だ。 FoundryとGothamは多数の情報源からデータを統合して新型コロナウイルスによるパンデミックの鳥瞰図を得られるとして各国政府の保健機関に提案されている。

危機に対応して監視テクノロジーへの関心が高まる中、プライバシー活動家は早くも警鐘を鳴らしている。 EFF(電子フロンティア財団)は「世界の政府はウイルスと戦うために並外れて強力な監視権限が必要だとしている。パンデミックから生じる政府と民間企業の間の新しい関係については綿密に検討しなければならない」と警告している

たとえばPalantirの共同創業者会長のPeter Thielピーター・ティール)氏は、テクノロジー界における最も強力はトランプ政権支持者の一人だ。ティール氏の推進するプロジェクト投資は、広く注目を集めると同時に賛否の議論を引き起こしているが、Palantirもその1つだ。

ICEの不法滞在者摘発強化に協力する謎めいたテクノロジーの巨人という一般のイメージがあることにPalantir自身も気づいており、プロダクトが多くの人々のプライバシーに影響することを認めている。Wall Street Journalへのコメントで、Palantirのプライバシー担当の責任者、Courtney Bowman(コートニー・ボーマン)氏は「新型コロナウイルス対策においてもプライバシーと市民的自由はわわれの指導的原理であり、付録のようなものであってはならない」と述べている。

Palantirは、米国の新型コロナウイルス対策でも大きな役割を担っているようだが、同社と米政府は長年にわたって協力して感染症の脅威に取り組んできた。たとえばCDCは2010年にハイチにおけるコレラの流行をモニターする同社のソフトウェアを利用している。

ごく最近の例もある。 この1月下旬、PalantirはHHS(保健社会福祉省)と360万ドルの契約を結び、PEPFARにソフトウェアを提供した。 PEPFAR(統領緊急エイズ救済計画)は HIVの感染者を援助するための啓蒙、救済活動だ。

画像:デンバーの新型コロナウイルス検査センター Michael Ciaglo/Getty Images

原文へ

(翻訳:滑川海彦@Facebook

Amazon Forecastは時系列データから予測を作りだす機械学習ツール

AmazonのAWSが今日(米国時間11/28)、時系列データに基づいて予測を生成する機械学習ツールAmazon Forecastをローンチした。予測は機械学習のかなりふつうの使い方だが、そのスキルのないデベロッパーが一からそれを作るのは難しい。しかしAmazonは当然ながら、自社のニーズのためにすでに多くのモデルを作っているので、今回はそれらをデベロッパー向けのプロダクトにまとめたのだ。

AWSのCEO Andy Jassyが今日のAWS re:Inventのキーノートでこう述べた: “わずか三クリックで、このツールにデータを与え、予測を得ることができる。超簡単でしかも、非公開ベータでベンチマークした結果としては、正確度は人びとがふつうにやるよりも50%高い。また費用は、どこかからソフトウェアを買う場合の1/10程度だ”。

Amazonはそのリテールビジネスの中で、自社のデータを扱うモデルをたくさん作ってきた。それは、Amazonがそのリテールサイトの需要予測に使ったりするものと基本的には同じ技術だ。ユーザーは同社に、彼らのサプライチェーンのデータのすべてを提供し、それによりそのサービスに、予測に影響を及ぼす変数を与える。

その楽屋裏では、AWSがそのデータとシグナルを見て、あらかじめ構築されている8種のアルゴリズムからどれかを選び、モデルを訓練し、それを微調整して予測を提供する。

AWSのこのサービスは、SAPやOracleのサプライチェーンツールと容易に統合できるし、Amazonの新しいデータベースサービスTimestreamのデータも使える。

このサービスは必ずしも安くはないが、デベロッパーの時間を大幅に節約できるだろう。

more AWS re:Invent 2018 coverage

画像クレジット: Ron Miller

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのBigQueryの中で機械学習のモデルを作れるBigQuery ML…データの移動が要らない

機械学習のモデルの構築にはまだ多くの障害があり、その一つが、データのあるところからモデルを構築するところへ、大量のデータを移動することだ。Googleはその工程を少しでも容易にするために、データウェアハウスBigQueryの中でモデルを作れる機能、 BigQuery MLを立ち上げた。

BigQuery MLを使うと、モデルをファインチューニングするためにデータを行ったり来たりさせることなく、データウェアハウスの中で線形回帰やロジスティック回帰を使ってモデルを構築できる。しかも、モデルを構築して予測を得るためにやるべきことは、少量のSQLを書くことだけだ。

データの移動がそんなに大きな問題だとは、ふつうの人には思えないかもしれないが、単なる物理的な移動ではなくて選択や整形などの処理が必要だから、かなりの時間を要する。そのぶん、モデルの構築に投じるべき時間がしわ寄せされる。

BigQuery MLでは、機械学習の経験の浅い者でも、容易にモデルを構築できる。まず、SQLの変種のようなもので、作りたいモデルの種類と、入力データを指定する。するとBigQueryMLがモデルの構築を開始し、そこから直ちに予測が得られるようになる。 RやPythonでコードを書く必要はない。

BigQuery MLは、今ベータを利用できる。

[若者の失業の解決、アルツハイマー病の検出、ほか]

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MySQL代替系MariaDBがビッグデータ分析スタートアップMammothDBを買収してBIアナリティクスを強化

MariaDBは、人気の高いMySQLデータベースの簡易な代替系としていちばんよく知られている。しかしMariaDB Corporationを創ったのはMySQLのファウンダーMonty Wideniusであり、そこがそのソフトウェアのすべてをオープンソースのライセンスで提供している。それは明らかに、もっと大きな市場をねらっているからであり、大きくなってOracleなどともより有利に競合したいからだ。という同社が今日(米国時間3/27)、ブルガリアの企業向けビッグデータ分析サービスMammothDBを買収したことを発表した。

MariaDBはすでに、MariaDB AXという名で企業向けアナリティクスとデータウェアハウジングのシステムを提供している。そのサービスは2017年にローンチしたが、これにMammothDBの専門的能力を注いで、力をつけたいのだ。

MariaDBのCEO Michael Howardはこう説明する: “MammothDBのチームは、MariaDBの成長にとってきわめて重要な時期に来てくれた。彼らは、ビッグデータのソリューションでめざましい実績を有している。昨年はMariaDB AXの需要が急増したが、それは、Oracle やTeradataのようなプロプライエタリな提供物と違ってオープンソースの世界では従来、アナリティクスの部分に欠落があり、企業ユーザーはその欠落を埋めたかったからだ。MariaDBがこの成長中のニーズに対応し、そのアナリティクスのプロダクト(MariaDB AX)を継続的にイノベーションしていくためには、MammothDBの専門的なアナリティクスの能力が欠かせない”。

買収の価額は公表されていない。MammothDBは2015年に3TS Capital PartnersとEmpower Capitalがリードするラウンドで180万ドルのシード資金を調達したが、その後の資金獲得の話は聞かない。一方MariaDBは、2017年の後半にAlibaba GroupとEuropean Investment Bankが率いるシリーズCのラウンドで5400万ドルを調達した。その資金が、今回の買収を支えたものと思われる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMのPAIRS Geoscopeは地理空間的/時間的データの大規模データサービス、デベロッパーはクェリするだけ

IBMが今日、PAIRS Geoscopeを発表した。それは、さまざまなソースからの大量の地理空間的データをデベロッパーが容易に扱えるようにする、実験的なクラウドサービスだ。このサービス自身がデータの取り入れや統合化、そして管理を担当し、デベロッパーはもっぱらクェリに集中できる。

というより、このサービスのデータの取り入れとインデクシングの部分が、PAIRS Geoscopeをそのほかのビッグデータ分析サービスとはひと味違うものにしている。取り入れるデータとしては、センサーからの、地理情報タグのついた(geotagged)IoTデータもあれば、天気予報データや国勢調査データ、航空写真、それにTwitterのツイートやGoogleが支援するGDELT Projectからのデータもある。

この膨大なデータサービスの仕組みに関心のある方は、彼らが最近発表したペーパーを読んでみよう。そこには、統合化エンジンについても詳しく書かれている。しかしデベロッパーの視点から見てもっとも重要と思われる機能は、PAIRSがすべてのデータを共通の形式と単位に変換して、すべての空間的データを自動的に整列することだ。

IBMによると、同社はこのサービスを、“スケーラビリティの高い”クラウド上のリポジトリに構築した、それは複雑な地理空間的-時間的情報のために特製したリポジトリだ”、という。デベロッパーはこのサービスにREST APIでアクセスできるが、ほかにWebによるインタフェイスもあり、それを使えばさまざまな層の選択や操作、結合により新しいクェリを作ることも容易にできる。

PAIRS Geoscopeを自分で試してみたい人は、このプロジェクトのホームページへ行ってみよう。現在は、このサービスのリポジトリにある公開データセットのどれでも無料で利用でき、そのやり方もガイドしてくれるから、この種のデータで遊んでみるためには、いちばん容易なツールであるようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

月定額のカーレンタルサービス「SmartDrive CARS」発表、安全運転で料金割引も

自動車のビッグデータ解析ビジネスを展開するSmartDriveは2月5日、毎月定額制のコネクテッドカー・レンタルサービス「SmartDrive CARS」を開始すると発表した。

SmartDriveは、自動車に取り付ける専用デバイスから50〜60項目にわたるデータを取得・解析し、それをもとに自動車保険の開発や走行データ可視化サービスなどを展開するスタートアップだ。そのようなデータを利用して、安全運転の度合いによって掛け金が変動するテレマティクス保険をアクサ損害保険と共同で開発するなどの実績がある。

SmartDriveが今回発表したSmartDrive CARS(以下、CARS)では、同社が開発したデータ取得用デバイスを新車に標準搭載し、それを月々定額でユーザーに貸し出す。毎月の利用料には税金、自賠責保険料、メンテナンス費などがパックとして含まれているため、ユーザーは余計な心配をせずに“移動”というサービスだけを享受することができる。

利用料金は車種にもよるが、安いもので月額2万円程度。具体例としては、600万円ほどのランドクルーザーを1年間借りる場合には月額約7万円の料金で利用可能だという。

所有する“モノ”ではなく“移動サービス”としてクルマを捉える動きは加速している。トヨタ自動車代表取締役の豊田章男氏はCES 2018の壇上で、トヨタが今後「モビリティサービス・カンパニー」へ生まれ変わることを明言した。2017年12月にはトヨタモビリティーサービスという名の新会社が設立されていることからも、トヨタがこの変革に本気で取り組んでいることが伺える。

また、2018年1月には定額制のマイカー賃貸サービス「カルモ」がリリースするなど、すでにこの分野には新しいプレイヤーが続々と誕生しつつある。そんなモビリティーサービス市場へ新たに参入するSmartDrive。彼らの攻めの一手は、データだ。

SmartDrive CARSのサービスイメージ図

SmartDriveは既存サービスの「DriveOps」などを通じて、自動車データの収集と解析に関する知見を貯めてきた。同社がこれまでに解析したクルマは2万台を超える。

その強みを生かし、CARSにはデータを貯めれば貯めるほどサービスがより便利に、よりお得になる仕組みが盛り込まれている。

同サービスでは、自動で診断される安全運転スコアに応じてポイントが付与され、溜まったポイントは他のショッピングポイントなどに交換することができる。また、安全運転を続けることで月々の利用料金が安くなるなどの仕組みも検討中だという。

将来的には、クルマの位置情報を利用することで、ガソリンスタンドに入ると自動的にクーポンが届くなど、データとリアル店舗を組み合わせた取り組みなどにも期待できそうだ。

「あるショッピングセンターで買い物をしなくなったユーザーが、その代わりにいったいどこで買い物をしているのかなど、クルマから取得できるデータには大きな価値がある。そのようなデータを販売し、ユーザーに還元することで月額利用料がどんどん安くなるモデルを作る。最終的には、クルマを完全無料で手に入れる時代が来るかもしれない。クルマを入手することの対価として、お金ではなくデータを払うという時代です」(北川氏)

SmartDriveはCARSを2018年春にリリース予定で、選べる車種やそれに応じた利用料金などの詳細は順次公開していくとしている。

同社は2013年10月の創業で、2017年4月にはシリーズBラウンドで10億円の資金調達を実施している。なお、当時同社はシリーズBにおける出資企業を非公開としていたが、同ラウンドにはSMBCベンチャーキャピタル産業革新機構住友商事Sony Innovation Fund、FoxconnグループのCVCである2020、みずほキャピタルが参加していたことをTechCrunch Japanに明かした。

水は身近すぎて忘れられている問題、研究者たちは将来に備えてネット上の情報共有化を提案

蛇口から出る水は、どこから来ているのだろう? どのようにろ過され、浄化されているのだろう? 1ガロン(約4リットル)の水を利用者に送るために要する市や州の費用はどれぐらいだろう? それはもっと安くできないのか? きれいな水がますます貴重な資源になってくるにつれて、あれやこれやの疑問が自然に湧いてくる。それらの疑問に答えるためには、オープンに共有される‘水のインターネット’(internet of water, IoW)が必要だ、デューク大学とアスペン研究所(Aspen Institute)の研究者たちはそう考えている

干ばつや洪水のような自然災害や、過密都市や工場廃液のような人災、これらの被害者である水系は酷使され無理解にさらされている。各地の行政や公共事業体は、水の使用に関するデータを大量に作っているが、国レベルのデータベースはほとんどなく、国や世界の標準に合ったオープンなデータベースとなると、なおさらない。

“人間と水に関しては、データは多いけど情報は乏しい”、デュークのニコラス研究所のMartin Doyleが説明する。“水のデータがオープンに共有され、みんながよく使うデジタルのプラットホーム〔Google検索など?〕に統合されたら、一般市民が地元の水質を測れるようになり、行政は水に起因する健康危機を早めに警報できるようになるなど、水をめぐる社会状況が一変するだろう”。

それは、ミネアポリスの水道局の人がフェニックスの1ガロンあたりの水道料金を知りたい、というレベルの問題ではない。むしろそれは、有意義なビッグデータがみすみす捨てられていた、という問題だ。視野を広げればより多くのデータが得られ、システムの一部を最適化するための意思決定の質も向上する。マクロとミクロの両方のレベルで。

しかしデータの収集と分析にはお金がかかり、国レベルの情報共有システムともなるとさらにお金が要る。そこで研究者たちの結論は、それをすることのメリットを分かりやすい言葉で説得していくことだ。結局のところ、お金の余裕のない州当局が、既存の実際に役に立っているサービスではなく新奇なデータプロジェクトに数百万ドルを投じるとしたら、そこまでする動機やメリットはなんだろうか?

研究者たちは、水と水のデータが極端に軽視されている、と断言する。カリフォルニアで最近の大規模な干ばつのとき行われたような、既存のデータ収集努力を検分することによって、オープンなデータにアクセスできることの具体的な利点を示せるのではないか、とも期待している。

それでも、こんな状況は、きれいな水の入手にはまったく問題がなく簡単でやさしい、ということを意味しているのではない。水不足や季節変動は、自然資源が今後さらに枯渇し、人口が増加するに伴って、ますます深刻になる。

“有限な水資源に対して需要は成長している。適正なトレードオフを見つけるためには、オープンで誰もがアクセスできるデータが必要だ”、カリフォルニア州水管理委員会のGreg Gearheartはそう語った。

デュークのチームが好んでそう呼ぶ“水のインターネット”は、すべての自治体からの、水に関するあらゆる種類のデータが集まるクリアリングハウスだ。関心を持つ一般市民や、行政府のデータサイエンティスト、それにアプリケーションのデベロッパーなど、誰もがそれにアクセスできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Compute EngineがCPU 96コア、メモリ624GBの巨大インスタンスを提供、プロセッサーもグレードアップ

どんなにリソース大食漢のアプリケーションでも、Google Compute Engine(GCE)なら満足するだろう。今度新たに、CPU 96基、メモリ624GBという怪物インスタンスが生まれたのだ。Bill Gatesは昔、誰が一体640KB以上ものメモリを必要とするんだい?と言ったらしい。彼には、今日のような日が来るとは想像もできなかったのだ。

これは、本当の話ですよ。しかも、ちょっと前の3月にはGCEは64コアのCPU + 416GBのメモリというインスタンスを発表している。今回は、それを上回る。

使用するチップは、たぶんご想像どおり、IntelのXeon Scalableプロセッサー(コードネームSkylake)だ。Googleによるとこの子は、前の世代のXeon系列に比べて計算性能が20%速く、high performance computing(HCP)では82%より高速、メモリ帯域はほぼ2倍だ。もちろん、これで十分という性能は永遠にないけどね。

それほどのパワーは要らない、というユーザーは、ご自分のワークロードに合わせてCPUとメモリの構成をカスタマイズできる。

Googleによると、今回の巨大インスタンスは、その性能をすでにSAP HANAで実証している。SAP HANAは、ドイツのソフトウェア大手によるインメモリデータベースで、ユーザーの必要に応じてメモリをいくらでも使える。

624GBでも足りない、というユーザーに対応するためGoogleは今、最大4TBまでメモリを搭載できる製品を開発中だ。お金をしっかり用意して、待っていよう。本日(米国時間10/5)紹介されたインスタンスは、一時間約4ドル95セントからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMが世界中のスーパーコンピュータのボランティアネットワークにより人体のマイクロバイオームと免疫疾患の関係を解明へ

体内の細菌が人間の健康に及ぼす影響は、まだその全貌と詳細が解明されていない。IBMは、World Community Gridと名付けたクラウドソースなスーパーコンピューター群の“コミュニティ”を利用して、人体のマイクロバイオームと、それが自己免疫疾患にもたらす役割に、光を当てようとしている。

このプロジェクトでIBMがパートナーしたのは、ハーバード大学のBroad Institute, MIT, Massachusetts General Hospital(マサチューセッツ総合病院), カリフォルニア大学サンディエゴ校, そしてSimons FoundationのFlatiron Instituteだ。プログラミング学校も開設しているFlatiron Instituteは、人間の腸内のバクテリアの300万種の遺伝子の、染色体上の位置を解明しようとしている。

この研究は、これらのバクテリアが1型糖尿病や橋本病、クローン病、潰瘍性大腸炎などの疾患にどのように寄与貢献しているのかを、科学者たちが知る手助けになることを目指している。

腸の健康問題に取り組もうとしているのは、もちろんIBMだけではない。むしろそれは今、テクノロジー企業のあいだで流行になってるようだ。4月には、Alphabetのライフサイエンス部門Verilyが、10000名の協力者から得た腸とDNAのサンプルにより、マイクロバイオームに関する情報を集めるプロジェクトをローンチした。テクノロジー世界の億万長者Naveen Jainは、2016年に創ったViomeで、同様の研究を開始した。過去2年間で、このテーマでVCの資金を獲得したスタートアップが数社ある

IBMの研究は、上述の大学等の科学者を起用するだけでなく、世界中のボランティアが提供する膨大なコンピューティングパワーによってデータを分析し、それらの分析結果と所見を一般に公開する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

コネクテッドカーにおけるビッグデータ技術開発のためToyota、Intel、EricssonなどがR&Dコンソーシアムを立ち上げ

テクノロジー業界の著名な企業数社がToyotaとチームを組んで、自動運転車と未来の高度な自動車技術をサポートするビッグデータシステムを開発することになった。

このたび日本の自動車大手と手を握るのは、Denso, Ericsson, Intel, そしてNTT Docomoだ。グループは今日(米国時間8/11)、Automotive Edge Computing Consortium(自動車用エッジコンピューティングのコンソーシアム)という共同事業体の立ち上げを発表した。発表によると、年内にそのほかの“適切なグローバルのテクノロジーリーダー”〔複数形〕を仲間に加えていく予定だ。

各社の共通の問題意識は、未来のコネクテッドカー(インターネットに接続された自動車)におけるデータの使い方だ。地図のリアルタイム構築や、運転の補助機能などのサービスを理論から実装へと孵(かえ)すためには、それが欠かせない課題だ。そしてさらにそのためには、大量のデータを安全確実に処理できなければならない。

グループの声明文はこう述べている: “2025年には各月の車両とクラウド間データ量が10エクサバイトに達すると予想される。それは現在の量のほぼ10000倍である。このような予想増加量はネットワークとコンピューティングインフラストラクチャの新しいアーキテクチャを要請し、それらが分散リソースとトポロジーを認識できるストレージ容量をサポートできなければならない”。

10エクサバイトは、100億ギガバイトである。なにしろ、膨大な量のデータだ。

控えめに言ってもToyotaはこのところ、コネクテッドカーの分野で相当多忙だった。先週はマツダとの株式持ち合いにより、AIと自動運転技術を前進させていくことになり、今年の顕著な進展としてはほかに、コネクテッドカーに関するNTTとの提携、ブロックチェーンの研究開発着手、AIスタートアップ育成のための1億ドルのファンド創設、などがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ツイートが犯罪発生予測に役立つ

バージニア大学の助教Matthew Gerberは、ツイートと犯罪の間に相関関係があることを発見した。いや、犯罪者がこれから酒屋強盗をやるぜ!なんてツイートをしているわけではない。そうではなく、ツイートに付随したGPS座標と人口集積度のヒートマップも評価することによって、警察はどこで犯罪が起きやすいのかを予測することが可能なのだ。

「私の最初の仮説は、Twitterの利用と犯罪との間には相関関係はないだろうということでした。なにしろ、普通はこれから犯罪をおこなうぞとか、いまやったばかりだ、などという情報は、世界に向けて発信したりしないものですから」とGerber。「そうした人たちがシェアするのは、犯罪活動につながる可能性のある社交イベントや外出などに関してです」。

Gerberは、シカゴ地区における2013年1月から3月までのツイートを、150万本集めた。また同時期の犯罪記録も入手した。彼は地理的な場所に基づいてツイートを分割し、それぞれの地域の犯罪データとツイートのタイプ(スポーツへの喝采、レストランへの言及など)を比較して、ツイートの密度が犯罪と相関しているかどうかを調査した。実際それは相関していたことが判明した。この方法を使えば、25種類の犯罪タイプのうち19種類を正確に予測することができたのだ。

「こうした手法をリソース配分の基準に採用した都市の中には、犯罪が激減した場所もあります」とGerberは語る。残念ながら、なぜツイートが犯罪の予測に使えるのかを説明することはまだできないが、とにかくそれは役に立つ。彼は現在警察と協力して、シカゴとニューヨークでシステム作りを行なっている。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: BRYCE DURBIN/TECHCRUNCH

大量高速なデータストリームをリアルタイムで分析/視覚化するGPU駆動インメモリデータベースKinetica

Kineticaの企業としてのルーツは、アメリカの諜報部門のための2009年のコンサルティングプロジェクトまで遡る。テロリストをリアルタイムで追尾するという、そのときの軍やNSAの厳しい要求を満たすソリューションを市場に見つけることができなかった同社は、それを自分で作ろうと決心した。今日の同社は、インメモリのデータベースソリューションがメインのプロダクトで、それは、NVIDIAのGPUを使って処理を加速する一般市販のハードウェアを使用する。

そのアイデアがシリコンバレーの多くの投資家たちに受けて同社は、大枚5000万ドルのシリーズAを調達した。

同社は、初期の諜報機関向けのソリューションのパワーを、そこらの誰もが利用できるようにしたい、と考えている。データベースをGPUが動くチープなハードウェアの上で使うと、コストを低くでき、同時に当時のソリューションの高速性を享受できる。CEOで協同ファウンダーのAmit Vijによると、そのソリューションは従来のデータベースの100倍速く、しかもハードウェアの費用は1/10だ。

この価格性能比が投資家たちの関心を惹き、今日のラウンドはCanvas Ventures とMeritech Capital Partnersの共同リードに、新たな投資家としてCiti Ventures、そしてこれまでの投資家GreatPoint Venturesが参加した。

GreatPointの投資を決めたRay LaneはOracleの元役員で、データベースの技術には詳しい。その彼によると、このところデータの量と回転率は急速に増加しており、とくにIoTの貢献要因が大きい。そして、これまで主に顧客やサプライヤーからのトランザクションデータを扱ってきたレガシーのデータベース技術は、今日のデータ量の増大に追随できなくなっている。

“今日のチャレンジは、私が“外部的”(external)データと呼んでいるものだ。その量は膨大で、しかもほとんどが非定型、そしてリアルタイムのストリームだ。センサーやスマートデバイスから、絶え間なく大量のデータがやってくる。頭上のドローンから画像が来る。ソーシャルメディアのフィードもある。Kineticaは最初から、これら多様なデータ環境のリアルタイム分析と視覚化を目的として構築されている”、とLaneは語る。

NSAの長官だったKeith Alexanderによれば、彼の組織は2009年にKineticaのファウンダーたちに、たいへんな難題をぶつけた。しかし、“彼らはその機に乗じて、今日のKineticaデータベースプラットホームの前身を開発した。そのほかの商用やオープンソースのソリューションはすべて、そのミッションの目的を満たさなかった”、とAlexanderは声明文で述べている。

Vijの説明では、同社が提供するのはソフトウェアソリューションであり、NVIDIAのGPUが動くハードウェアは、IBM、HP、Dellなどのパートナーが提供する。またAWSやAzure、Google Cloud Platformなどの、GPUを利用するクラウドでも動く。

Kineticaの当初の顧客リストには、GlaxoSmithKline, PG&E, US Postal Serviceなどが名を連ねている。同社はOracleやSAP HANAなどの従来のデータベースベンダーと競合するが、同社によるとそれらは費用が高くてしかもGPUを使っていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebook、匿名位置情報を人道支援団体と共有へーー災害支援の効率化を目指す

Faceboookは新たなイニシアチブのもと、人道支援団体に対して被災地域のユーザーの位置情報を提供することを決めた。これにより、各団体は災害発生時に市民の避難場所や避難元となる地域を把握できるようになる。このFacebookの決定からは、ユーザー追跡データの大きな可能性を感じることができる一方で、同社はこのデータを使って他にどんなことができてしまうのかという問いが再び頭をよぎる。

Facebookで公共政策リサーチマネージャーを務めるMolly Jackmanは、ブログポスト動画の両方で新たな”ディザスターマップ”について説明しており、関連情報はまずUNICEFや国際赤十字赤新月社連盟、国連ワールドフードプログラムと共有されることになる。

提供情報は大きく以下の3つのカテゴリーに分けることができる。ちなみに、全てのデータはGPSのほか、ユーザーがFacebook上で何かしたときに生成される位置情報から収集されていると考えられる。

地域別人口密度マップ(Location density maps)からは、直近でユーザーがどこにいたかについての大まかな情報を掴むことができるので、時系列で並べたり他の情報と比べたりすることで有用な洞察を得られる。

ムーブメントマップ(Movement maps)は、近所内であれ異なる街のあいだであれ、ユーザーがいつ、どのように移動したかということを示すものだ。この情報があれば、その時々の避難場所や障害にリソースを集中させることができる。

安全確認マップ(Safety Check maps)には、どこでユーザーがFacebookの安全確認機能を利用したかが表示される。もしもユーザーが一か所に密集していれば、その場所は洪水の影響を受けにくい、もしくは地震の影響をそこまで受けなかったところだと考えられる。

どこに水を輸送し、どこに避難用のシェルターを設置すればいいかといったことを考える上で、上記のような最新情報がどれほど役に立つかはすぐに想像がつくだろう。もちろん全ての位置情報からは個人情報が取り除かれ、ひとつの塊として扱われる上、パートナーシップを結んだ各団体は「Facebookのプライバシースタンダードを尊重」しなければならないとJackmanは記している。

その一方で、今回のようにFacebookがユーザーデータを使って社会の利益になるようなことをしようとすると、同社は他に何ができるのかと疑わずにはいられない。

一体Facebookはユーザーの移動に関し、他にどのような情報を(恐らくは広告主のために)追跡しているのだろうか? 今回のような実験的な試みに自分のデータが使われているとユーザーはどのように知ることができるのか? 利用される情報にはFacebookのプラグインやクッキーから拾い集めたデータも含まれているのだろうか? 誰がデータにアクセスすることができ、データの粒度と匿名性はどの程度なのか?

Facebookには上記のような問いに回答する法的な義務はなく、私も同社に悪意があるのではと疑いたくはない。しかし、人道的な目的と私的な目的の両方を簡単に満たせるようなツールが誕生すると、なぜか前者の話しかきかないというのは気になる点だ。

いつもの通り、FacebookやGoogleのように大量のデータを保有している企業が「集めたデータは〇〇の目的では使いません」と明言しない限り、あなたのデータはまさにその目的でも利用されていると考えた方がよいだろう。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

ディープラーニングをApache Sparkのクラスターで分散化、サーバーレスでそれができるDatabricksのServerless Platform

今日(米国時間6/6)のSpark Summitの幕開けで最初にボールを蹴ったDatabricksは、Apache Sparkのためのサーバーレスプラットホームを発表した。クラスター管理に費やす時間を短くしたいと願うデベロッパーにとって、良いニュースだ。デベロッパーの仕事をより単純化しようとする動きは、このイベントの全体を貫く大きなテーマでもあった。同社はServerless Platformに加えて、Sparkでディープラーニングフレームワークをより使いやすくするためのライブラリDeep Learning Pipelinesも披露した。

今、クラウドベースのデータ処理技術がどんどん進歩している中で、DatabricksはオープンソースのApache Sparkプロジェクトの商用サービスだ。同社のエンジニアたちはもっぱら、Sparkのエコシステムを支えるツール類を作っている。今日発表された製品も、その一部だ。

大企業における意思決定がますますデータ駆動型になりつつある今日、これから取り組もうとする新しいユーザーにとっては、データパイプラインとクラウドインフラストラクチャの扱いが、目の前に山のようにそびえる大きな課題に見えてしまう。そこに登場したサーバーレスの技術とは、サーバーなしでデータを操作するという意味では決してなく、エンドユーザーがサーバーなどの低レベルの問題にいっさい関わりあうことなく、コンピューティングリソースの管理されたプールから適当なものを選んで、単純に今やるべき仕事をする、という単純化簡素化された新しいタスク構造を指す。

“SQLはステートレスだから扱いも楽だが、データサイエンスにはステートがあるから、それをサーバーレスにするのは難しい”、とDatabricksのCEO Ali Ghodsiは説明する。

ServerlessがDatabricksの幅ないし広さを表すとするなら、Deep Learning Pipelinesはその深さへの挑戦だ。TensorFlowなど、現存するディープラーニングフレームワークは“使いやすい”とはお世辞にも言えないが、でも昔の(AI言語とも呼ばれた)LISPなどに比べたら相当に使いやすい。そのためディープラーニングは今、ますます多くのワークフローに導入されつつある。

“Sparkなどを使ってTensorFlowのタスクを分散化しようとすると、手作業でグラフを作り、どのマシンがどの部分の処理を担当するか、いちいち決めなければならない”、とGhodsiは言う。“100台のマシンを相手にそれを人間がやるとすると、ものすごくたいへんな作業になる”。

Databricksの今度のオープンソースのライブラリを使ってデベロッパーは、ディープラーニングのモデルをSQLのファンクションに変換できる。ユーザーは学習をSpark MLlib Pipelinesで転送し、Sparkの分散コンピューティングが提供する利点を享受する。

なお、Ghodsiによると、DatabricksのStructured Streamingが一般公開された。このAPIは、シーケンシャルデータのストリーミングを処理する。同社によると、Structured Streamingの開発工程では、レイテンシーの最小化が最優先された。それによって、異状検出などのアプリケーションを動かす顧客にとって、費用低減とスピードの向上が実現した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

警察のボディカメラが明らかにした、黒人に対する無意識の差別行動

警察のボディカメラは、ただ銃撃戦やその他の危機を記録しているだけではない。それらは毎日終日記録を続けている。このため警察官と人びとのやりとりに関して、前例のない詳細な観察結果が示されることになる。もしその膨大な量のデータを処理できるなら、本当にそれが可能になる。スタンフォード大学の研究者たちは、こうした事を可能とする手法を開発した。そして程なく研究者たちは、オークランドの警察官たちが、黒人たちと話すときには、礼儀正しさが抑えられた言葉を使っている傾向があることを発見した。

とはいえ、これはそれほど大きく目立っていた違いではなかった。オークランドの警察官たちの何千にも及ぶ会話で使われた、50万にも及ぶ単語が分析の対象になったのだが、量が集まる事で引き出すことのできる結果が示されたのだ。もしそうでなければ、この違いというのは、おそらく気のせいだろうと片付けられていたことだろう。

しかしそれは事実なのだ。もし職務質問で呼び止められた人物が白人の場合には、57%以上の警察官が、呼び止めたことに対する謝罪や感謝の意を表明する傾向にある。そして呼び止められた人物が黒人の場合には、61%以上の確率で、相手に対し手をハンドルの上に置き続けるように言ったり、”dude”とか”bro”(どちらもタメ口っぽい2人称)という呼びかけをしているのだ。このパターンは、研究チームが人種と不法行為の重大さを考慮して集計方法を調整しても相変わらず存在していた。

「全体として、黒人コミュニティメンバーとの警察官の対話は、白人コミュニティメンバーとの対話に比べてより困難の大きいものになっています」こうスタンフォードニュースの中で語っているのは、調査の共同著者であるJennifer Eberhardtだ。しかし彼女はまた「私たちの調査結果は、個別の警察官の偏見や良くない行いを証明するものではありません。礼儀正しい話し方に関する人種間格差の要因となるものには、多くのものが考えられます」と指摘している。

しかし違いが微妙であるということだけで、それが重要でないという結論にはならない。

「皆善良な警察官たちでした」ともう1人の共著者Dan Jurafskyは言う、「しかし、コミュニティメンバーとの会話の中で積み上げられた小さな違いが、広範な人種間格差となっていたのです」。

対象となった極めて長時間の職務質問を精査するために、研究チームはまず一般の人びとの会話記録を用いて、礼儀正しさ、フォーマル度、そして敬意などの指標を計測した。そして、それらの質に相関するフレーズが同定され、記録された会話の中からそれらのフレーズが探された。

図から読み取れるように、安全への気遣いや手間を取らせたことに対する謝罪は、白人を止めたときにより多く行われている。一方インフォールな呼びかけや「法的な権利の説明」(これは注意を喚起するという意味でネガティブな意味合いである)が黒人を相手にしているときにはより多く見受けられている。またそれほどはっきりとはしていないものの、警察官はどちらの側対しても、どちらの表現も使っていることはわかる。しかし時間が経てば統計的に有意なパターンが生まれてくるのだ。

しかしこの発見は、このパターンの起源を明らかにしている訳ではない。

「警察官による扱いの人種間格差は明らかで統計的に安定しているものの、この格差の原因はそれほど明らかではない」という報告がNational Academy of Sciencesのジャーナルに掲載されている。「これらの格差の一部がコミュニティメンバー自身のことば遣いや振舞いに起因していることは確かであろう。特にオークランドに於ける歴史的緊張関係や、警察の正当性に対する先入観が、恐れや、怒り、あるいはステレオタイプの脅威を引き起こしている可能性がある」。

私たちが今ここに手にしているのは出発点だ。別の言葉で言うなら、ボディカメラが生み出した雑音の多い膨大なデータから、入念な調査で徐々に明らかにされて来た検証可能なパターン(大事なことは、恣意的な選択ではないということ)だ。次は何だろう?より深い分析によって、声のトーンやスラング、あるいは居合わせた人や場所といった他の要因を取り込んで、他の側面を掘り下げることも可能かもしれない。

事実を軽視すること、全ての人種の警察官の会話に於ける負の傾向、ある人種の人びとへの偏り、こうしたことはいずれも私たちが議論を始めるためのきっかけとして十分だ。これまでに気が付いた人はいるのか?そうした人たちはこれを問題にしたのか?警察官たちは自分たちの行為に気が付いているのか?警察の行動をデータでコントロールすることは可能だが、警察の活動は最終的にはコミュニティサービスであり、こうした問題を真に解決するためにはコミュニティの中で取り組まなければならない。

「私たちが作ったもののような、情報処理ツールが開発されることによって、さらに多くの法執行機関がそのボディカメラの映像を、有罪無罪の証拠として使うだけでなく、理解のためのデータとして取り扱うようになることを希望しています」とEberhardtは語った。

[ 原文へ ]
(翻訳:Sako)

Clouderaは株式市場へのデビュー初日を20%アップで終える、前途は明るいというが損失は続く

ビッグデータ分析のトップ企業Clouderaは、IPOで15ドルをつけ、その日の終値はそれから20%強増の18ドル9セントになった。これもClouderaの予測12〜14ドルを上回っている。

株価の上昇は新たな投資家にとって良くても、その結果は一部の社員にとっては大きな幻滅だ。彼らが同社の最後のプライベートラウンドの後でチームに参加した場合は、報酬株式の価額が下がったことになるからだ。Clouderaの時価総額は今約23億ドルだが、Intelが2014年に与えた41億ドルの評価額より相当少ない。この、最近ますます一般的になってきた現象は、“ダウンラウンドIPO”とあだ名されている〔IPOで評価額が下がること〕。

しかしCEOのTom Rileyは本誌TechCrunchのインタビューで、“今後の確実な成長が見込めるからそれは問題ではない”、と力説した。株式市場におけるパフォーマンスは良いから、いずれ40億ドル+には達するだろう。2015年に上場したSquareは、上場前の市場評価額の半分でスタートし、その後株価は倍増した。

同社は2008年以来10億ドルあまりを調達している。Intelが最大の株主で、IPOの前には同社の22%を所有していた。Accelが16.3%、そしてGreylock Partnersが12.5%を握っていた。

Clouderaは、銀行や通信企業など、幅広い業種部門に顧客を抱えている。同社は、テロ対策のためのインテリジェンスサービスも提供している。

“弊社の顧客は、それまでアクセスできなかった新しいデータを活用して、彼らの顧客に関するより良いインサイトを得ている”、とRileyは語る。

Clouderaの売上は伸びていて、1月に終わった会計年度の売上2億6100万ドルは、前年度の1億6600万ドルを大きく上回った。

損失は1億8632万ドルで、前年度の2億300万ドルから減少した。しかしIPO申請書のリスク要素の節には、“今後もしばらくは継続的に純損失を負うことが予測される”、とある。

今後は競合がClouderaにとって大きな障害物になると思われるが、Releyは“うちは大企業専門だから大丈夫”、と言う。しかし同社のS-1申請書には、競合他社の長いリストがあり、そこにはHP, IBM, Oracle, Amazon Web Services, Hortonworksなどの名が挙げられている。

IntelとClouderaは協働して、データ処理のスピードとセキュリティの改善に努めている。両社が共同で“パフォーマンス向上のためのソフトウェアとハードウェアを設計している”、とRileyは語る。IntelはClouderaの上場に際してその株式を買い増しした。

Morgan StanleyとJP Morgan、そしてAllen & CompanyがIPOの引受銀行だった。同社は“CLDR”の チッカーでニューヨーク証券取引所に上場した。

先月はSnapが2017年のテクノロジー企業のIPOの口火を切り、市場を覚醒させた。そしてその後は、MuleSoft, Alteryx, Yext, Okta, Netshoes, Carvanaと公開市場へのデビューが続いた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

初期費用約1万円のデバイスで自動車のビックデータ解析 ― スマートドライブが10億円調達

自動車のビックデータ解析を手かげる日本のスマートドライブは4月5日、複数の事業会社および既存株主の産業革新機構、その他銀行系VCを引受先とした第三者割当増資を実施し、約10億円を調達したと発表した。これが同社のシリーズBラウンドとなる。今回の調達ラウンドは将来的な事業提携を視野に入れた戦略的投資だと見られるが(すでに数社とは業務提携を締結済み)、代表取締役の北川烈氏は「まだ発表していない大きな業務提携に関わるため、現段階では会社名を明かすことはできない」としている。

スマートドライブは自動車に取り付ける専用デバイスから50〜60項目にわたるデータを取得・解析し、それをもとに自動車保険の開発や走行データ可視化サービスなどを展開している。現在、同デバイスは大手コンビニの配送車両をはじめとする1万台以上のクルマに装着されているという。

この専用デバイスを取り付けるのは「OBD-Ⅱ」と呼ばれるコネクターだ。これは車両の自己診断用に搭載されたコネクターで、ここから車速やエンジン回転数など様々なデータを取得することができる。日本では2010年9月以降に販売されたすべての自動車(輸入車含む)への搭載が義務化されている。

スマートドライブは2015年10月よりクラウドファンディング・プラットフォームのMakuakeでデバイスの先行販売を開始。現在はOBD-Ⅱコネクタに装着する2つのタイプ(3G接続、Bluetooth経由でスマホと接続)と、シガーソケットに装着するタイプの計3種類のデバイスを用意している。デバイス本体は約1万円で購入することができ、月額でかかる費用も1500円〜と比較的リーズナブルだ。

価格を低く抑えることができた理由として北川氏は、「デバイスの販売で利益を得るのではなく、そこから得たデータを解析して付加価値を提供するビジネスモデル」だからだと語る。

その例として、同社は2015年に業務提携したアクサ損害保険と共同で「テレマティクス保険」を開発している。これは、スマートドライブが取得したデータによって運転の安全性を判断し、それをもとに掛け金が変動する仕組みの保険商品だ。

その他にも、走行データの可視化サービスを法人向け「DriveOps」と個人向け「DriveOn」のそれぞれに提供している。

つい先日もYahoo! Japanが自動運転車のSBドライブに出資するなど、日本でも「クルマを賢くしよう」とする動きが盛り上がりを見せている。そんな中、約10億円という大規模な資金調達を完了したスマートドライブ。今後の展望を北川氏に聞いた。

それによれば、まず同社は2017年度中に交通渋滞の予測など公共性の高いデータを地方自治体などに販売開始するという。

また、2017年夏ごろにはドライブレコーダーの動画データを解析するサービスを公開する予定だ。GfKジャパンの調査によれば、2015年度におけるドライブレコーダー保有率は16%とまだ低いものの、販売台数は前年比42%増の61万台と上昇傾向にある。需要は少しずつ増えているようだ。しかし、企業の営業車にドライブレコーダーが導入された場合、取得した動画データをすべて目視で確認するのは難しい。そこで、スマートドライブはデバイスから得たデータ(急なハンドル操作など)を組み合わせて解析することで、危険な運転があった箇所だけをサマライズできるクラウド解析サービスを提供していく。

スマートドライブは2013年10月の設立。同社はベンチャーキャピタルのANRIからシードマネーを調達後、2015年8月には産業革新機構から最大で6.6億円を調達すると発表した。北川氏によれば、助成金や借入金も含めた累計調達金額は約20億円だという。

筆頭株主Intelとの共同開発も進めるClouderaが上場申請

大方の予想通り、過去にIntelからの巨額出資を獲得したビックデータ企業のClouderaがIPOの申請を行ったことが明らかとなった。

S-1フォームで同社の財政状態を確認することができる。収益は伸びていて、2017年1月に終了した会計年度では2億6100万ドルを記録している。昨年同期における収益は1億6600万ドルだった。

最終損益は1億8632万ドルの損失。昨年の2億300万ドルと比べると損失額は減っている。フォームの「リスクファクター」の項には「近い将来に関して言えば、今後も損失が発生することが予測されます」と記載してある。

Clouderaの事業領域には多くの競合が存在することを同社は認識している。彼らは、HP、IBM、Oracle、Amazon Web Services、Hortonworksなどの企業を競合として挙げている。

2014年、IntelはClouderaに7億4000万ドルを出資した。当時のバリュエーションは41億ドルだ。しかし、IntelとClouderaのパートナーシップは財務的なものだけではない。S-1フォームによれば、この2社は大量のデータセットを処理するスピードとセキュリティ性を向上させるためのプロダクトの共同開発に取り組んでいるようだ。フォームには、「私たちが想定している共同開発の例として、Intelのアーキテクチャーに演算加速機構を組み入れることでデータを暗号化するスピードを向上させるという試みがあります。また、IntelとClouderaはSpot(インキュベーティング・プロジェクト)の開発にも取り組んでいます。これはオープンソースのサイバーセキュリティ分析プラットフォームで、ビックデータ分析と機械学習の技術によって想定される脅威を事前に警告するオープン・データモデル上に構築されたものです」と書かれている。

2008年まで遡った同社の累計調達金額は10億ドルだ。S-1フォームによればClouderaの筆頭株主はIntelで、発行済株式の22%を同社が保有している。以下、Accelが16.3%、Greylock Partnersが12.5%を保有している。

Clouderaが最後に資金調達を行ったのは3年前だ。IPOを目指し、かつベンチャー資金が投下された企業としてはその空白の期間は長かったと言える。ただ、この数年間Clouderaによる買収やIPOの噂は絶えなかった。

今回のIPOで主幹事を務めるのはMorgan Stanley、JP Morgan、Allen & Coの3社だ。Clouderaが上場するのはニューヨーク証券取引所(NYSE)で、ティッカーコードは「CLDR」。昨年は大半のテック系企業がNasdaqを目指していた一方、今年上場したSnap、Mulesoft、AlteryxなどはClouderaと同じくNYSEに上場した。

JOBS Actにより、企業は通常、ロードショーの約15日前に申請書類を公開する。つまり、企業と株式市場が安定していれば、実際の上場が行なわれるのは4月下旬から5月上旬になる可能性が高い。

株式の発行価格の合計は2億ドルだ。しかし、これはあくまで推定でしかない。実際の発行価格が最終的に決定するのは上場日の前日夜となる。

今回の上場により、Clouderaも最近のテック系企業によるIPOラッシュに加わることになる。閑散とした昨年の後に起こったIPOラッシュの先駆けとなったのは、今月はじめに上場したSnapだ。その後、Mulesoft、Alteryxがその流れに加わることとなる。YextとOktaもすでに申請を済ませており、彼らのデビュー戦は今後数週間のうちに行なわれると見られている。

直近に上場を果たした企業の成功、そしてポジティブな株式市場の動向によりIPOの「窓」は開いている。投資銀行と企業も株式公開に乗り気だ。

[原文]

(翻訳:木村拓哉 /Website /Facebook /Twitter