MesosphereのDC/OSにワンクリック統合の対象サービスが増え、とくに機会学習のサポートを充実

Mesosphereが、マイクロサービスとビッグデータアプリケーションをプライベートとパブリックのクラウドで動かすためのプラットホームDC/OSをアップデートした。今回バージョン1.9になったDC/OSは、一見メジャーアップデートではないような番号だが、実は大型リリースだ。

このアップデートによりDC/OSのユーザーは、一度のクリックで100以上のサービスをデプロイできる。このバージョンで新たに加わったサービスは、高速分散ストレージアクセスAlluxio、NoSQLデータベースCouchbase、分散データベースサービスDataStax Enterprise、アナリティクスサービスElastic Search、そしてインメモリデータ構造Redisなどだ。これらの新しい統合はすべて、DC/OSのPartner SDKを使っている。同社によると、そのために、完全なデータサービスインフラストラクチャの構築が比較的容易に(とは言っても単純ではないが)なり、数日で構築できる。

さらにDC/OSにGPUベースのスケジューリングのサポートが加わったので、インフラのGPU部分をプールしておいて機械学習のワークロードに向ける、といったことができる。それはNvidiaとMesosphereが2015年に発表した提携事業の延長だ。

新しいデータコレクションやメトリクスも加わり、複数のコンテナにまたがるデプロイメントをモニタできる。その単純化されたログシステムは、SplunkやDatadogなど、そのほかのモニタリングツールと統合できる。

MesosphereとDockerとKubernetesは、同じ顧客を奪い合っているように見えるかもしれないが、しかしMesosphereは、ビッグデータの世界に自分のニッチを見つけた。今回のアップデートも同社がその強みに乗ったものだが、機械学習のサポートは新しい。企業のデータウェアハウスが、大量のデータを処理する機械学習のブームでまた忙しくなってることも、同社の追い風になっている。

 
[DC/OS紹介ビデオ]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが多様なツールを用意してクラウド上のデータ操作/データ処理を助ける

今日(米国時間3/9)のCloud NextカンファレンスのステージでGoogleは、データの準備や統合化を助ける一連のツールを発表した。いずれも、Google Cloudの企業利用をより強力かつ敏速にするためのアップデートだ。

まず紹介されたのがGoogle Cloud Dataprepの非公開ベータ。その名のとおり、データ(data)を視覚化のために準備(preparation)する。このツールには、異状検出機能があり、機械学習を利用して通常と異なる形のデータをユーザーに告げてデータのクォリティーを改善する。

誰にも使いやすいツールにするために、すっきりとしたインタフェイスに留意している。多くのコントロールが、ドラッグ&ドロップでできる。DataprepはGCP(Google Cloud Platform)への統合化に向けて最適化されており、Google Cloud Dataflow中のパイプラインを作ることによって、容易にBigQueryへデータをフィードできるようにしている。

今日は、BigQueryも強調された。新たにBigQuery Data Transfer Serviceというサービスを立ち上げて、複数のデータソースからのデータのマージを単純化する。既存の商用データセット、Xignite, HouseCanary, Remind, AccuWeather, Dow Jonesなどを最初からサポートしている。

ユーザーがTableauのような視覚化サービスを利用するときは、データをシームレスに準備して分析結果を表示できる。BigQueryは大規模プロジェクトのためにCloud Bigtableを今後サポートするから、データをいちいちコピーして移送する手間もなくなる。

Googleのクラウドプラットホーム担当VC Brian Stevensはこう語る: “マーケティングのチームがマーケティングに関するデータ分析をGCP上できわめて容易にできるようにした”。

Cloud Dataflowには、PythonによるSDKが広く提供される。これまでのJavaを超えて、コミュニティがさらに拡大するだろう。

ワークフローツールCloud Datalabも、今度から一般提供される。デベロッパーは、ノートブック環境Jupyterと標準のSQLを使って、データ分析ができる。TensorFlowとScikit-learnもサポートされる。バッチとストリーム処理はCloud DataflowやApache Spark + Cloud Dataprocでできる。またCloud DataflowのためのStackdriver Monitoringはベータへ移行し、GCPやAWSがホストするアプリケーションのモニタリングや診断を行う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AP通信社が自社の記者たちのためのデータサービスをData.worldの協力で一層充実

ap-data

The Associated Press(AP通信社)は2013年から、自社の記者たちへのデータ提供サービスを始めている。たとえば情報の自由法(Freedom of Information Act)に基づくデータリクエストを手伝ったり、4名のエンジニアを起用してデータの視覚化や、大量のスプレッドシートからのインサイトの取り出し、などをやってきた。そして今日(米国時間3/3)から同社はData.worldとの共同パイロット事業により、記者たちにこれまでよりも詳細なデータを提供していくことになった。

データ分析企業Data.worldB corpの認定企業でもあるので、自分たちの事業の社会性をつねに意識している。今回のAPとのパートナーシップでもそれは変わらず、データの提供者が個々のデータ集合のパーミッションを自分で設定できるようにした。たとえばAPは、インポートしたデータとその分析結果をとりあえずプライベートにしておき、その真実性に確信を持てた段階で一般公開することができる。

APのデータジャーナリズムチームの編集長Troy Thibodeauxはこう語る: “データにフォーカスしたプラットホームが欲しかった。ほかのものは今ますますヴィジュアル性が重視されるようになってきたが、ユーザーがデータにアクセスしてそれらを深く正しく理解することも重要、と考えている”。

Thibodeauxたちは最初、そんなデータプラットホームを内製するつもりでいたが、最終的にはData.worldを起用することに決めた。過去にAPは、データ配布のためのいろんなWebサイトを作っていた。でも今では、その新しいプラットホームが、データへのアクセス性の向上以上のことを、やってくれる。たとえば一つの調査課題に対して一般公開データとプライベートなデータの両方を取り出して、状況がより詳しく分かるようにする。それにより、一つのことに関して、複数の異なった考え方があることも、分かるのだ。

複数の報道機関の共同体でもあるAP通信は、データを配布するためのハブとしても理想的だ。たとえばAPのメンバーである各地の地方紙はそれらのデータを利用してインサイト(とくにニュースに対する解釈や意味)を、読者が求める方向へ調整できる。

“最近は、アメリカに来た難民たちの現状に関するデータを公開した。7つの国からの10年におよぶ移民データだ。そのデータの要約のような短い記事も付けたが、データの利用者であるうちの記者たちの方が、もっとずっと良い記事を書いてくれた”、とThibodeauxは語る。

今後は、データの読み方や使い方に関する記者たちへの教育も行っていく予定だ。そしてシステムが効果的に稼働するようになったら、その結果として実現するデータドリブン(data-driven, データ駆動型)なジャーナリズムが、ニュースの信頼性と透明性と妥当性(適切性)を向上させるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

天気に応じたオススメ曲を表示ーSpotifyがAccuWeatherと新サービスをローンチ

screen-shot-2017-02-07-at-14-39-16

天気や空模様はミュージシャンのインスピレーションを刺激し、ロンドンの霧太陽が顔を出したときの様子、さらには季節に合った服などをテーマにした曲がこれまでに誕生した。そこでSpotifyはAccuWeatherとタッグを組み、ユーザーの位置情報からリアルタイムで天気やムードを読み取り、それぞれのユーザーの状況にあったプレイリストを表示する、Climatuneというサービスをローンチした。

これは以前、Songza(後にGoogleに買収された音楽のレコメンデーションサービス)がWeather Company(後にIBMが買収)とのコラボを通してつくった機能に似ている。Songzaは、もともと時間や日付、ユーザーの位置情報をもとに楽曲をレコメンドするサービスを提供していたが、Weather Companyと組むことで、さらに気象情報を加味したものへとサービス内容を進化させていた

しかしClimatuneの機能はSongzaとはちょっと違う。Spotifyが新規に用意したClimatune用のウェブサイトは、ユーザーの現在地(もしくはそこから1番近いClimatuneがトラックしている地域)を検出し、その場所と天気に合うであろう30曲がおさまったプレイリストを表示してくれる。

Spotifyによれば、Climatuneのプレイリストは、1年分の気象データと850億件に及ぶSpotifyのストリーミングデータを紐付けて作られた。つまり同社は、雨が降っているとき、晴れているとき、曇っているとき、風が強いとき、雪が降っているときに、それぞれSpotifyユーザーはどんな曲を聞いていたかという情報をまとめてこのサービスを完成させたのだ。そして、その結果浮かび上がってきた曲や、それに似た曲からプレイリストは作られている。

インタラクティブな壁紙も準備されているClimatuneだが、Spotifyの狙いはユーザーをずっとこのサイトに留めておくことではない。Climatune上では各曲のプレビューしか表示されず、ユーザーは楽曲全体を聞くためにはSpotifyへ移動しなければならず、最終的にはSpotifyへユーザーとエンゲージメントが集まるような仕組みになっている。

現在音楽レーベルとのライセンス費用に関する再交渉を狙っているSpotifyは、ユーザー数やエンゲージメントといった指標に敏感になっている。私たちが入手した情報によれば、Spotifyはこれまで再生数に応じて楽曲使用料を支払ってきたが、定額制へ移行したいと考えているようなのだ。そのため、楽曲の権利者に対して、Spotifyユーザーはある特定の曲だけでなく、音楽全体を楽しんでいるという証拠を見せることができれば、Spotifyの希望は通りやすくなる。

さらにClimatuneのサービスは、自分が何を聞きたいかイマイチわからないような、そこまで音楽に熱心ではない人にリーチするためにも有効な手段だといえる。3000万曲ものストックがある中、カジュアルに音楽を楽しみたい人は、いちいち自分で聞きたい曲を探すよりも、良い曲をオススメしてほしいと考えているのだ。

Climatuneのサイトを開くと、ユーザーの現在地に応じたプレイリストが表示されるが、もしも周りは雨が降っているのに雪っぽい曲を聞きたいと思ったら、ユーザーは好みの天気を選ぶことができ、そうすれば違う街と天気に合ったプレイリストが表示される。

天気と音楽の関係については、ある程度であれば予想がつく。Spotifyによれば、晴れた日は「元気いっぱいで楽しい雰囲気が好まれる傾向にあり、テンポが速くラウドかつノイジーな”動き”のある曲や、長音階やその他の音楽的な要素とも関連して、ハッピーかつ陽気で幸せになるような曲が再生されることが多い」一方、雨の日は「アコースティックで落ち着いた、悲しい雰囲気の曲」を聞く人が多い。

しかし、シカゴの人は雨の日にアップビートな曲を聞きがちなど、意外な傾向も見られた。

その他にもさまざまなトレンドを見て取ることができるが、中には複数のプレイリストに繰り返し登場する楽曲もある。これについては、Climatuneを新しいプロモーションの手段に使おうとしていると考えることもできるし、単にその曲が天気や地域を超越して、高い人気を誇っていると考えることもできる。例えば、晴れた日のロンドンのリストと風が強い日のリスボンのリスト両方に、Twenty One PilotsのRideと、Selena GomezのKill Em With Kindnessが含まれている。

「天気とユーザーが聞く曲の間には、ハッキリと相関関係が見てとれます。私たちが調査した主要都市のほぼ全てで、晴れた日は明るい曲の再生数が増加していました。特にヨーロッパのユーザーは晴れた日に敏感に反応していましたね」とSpotifyでヘッド・データ・リサーチャーを務めるIan Andersonはからかって言った。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

つねに一歩先を見ながらやっていける農業経営をデータ分析で支えるFarmLogsが早くもシリーズCで$22Mを調達

jesse-vollmar-farmlogs-06

収穫量の計算、利益予測、天候被害や害虫/疫病対策など、農家の経営のさまざまな側面を支えるミシガン州アンアーバーのFarmLogsが、立ち上げから4年で早くもシリーズCの資金調達ラウンドを迎え、2200万ドルを獲得した。ラウンドをリードしたのはNaspers Venturesで、同社の初期の投資家Drive Capital, Huron River Ventures, Hyde Park Venture Partners, SV Angel, それにY Combinatorの社長Sam Altmanのような個人も参加した。

FarmLogsのCEOで協同ファウンダーのJesse Vollmarによると、Y Combinatorのアクセラレータ事業を2012年に卒業した同社はその後、衛星画像およびデータの分析利用に重点投資をしてきた。それらの原始データをもとに予測モデルを開発し、農家の“計画的な”農業経営を助ける。

“今では全国各地の農地を年間を通して分析している。そして問題の兆候が見えたらそこを強調して農家に警報している。彼らは、地上にいるだけでは分からない初期的問題をチェックでき、対策を講じる。それができるのは、衛星画像を複数年にわたって分析している、われわれの積み重ね努力のおかげだ”、とVollmarは説明する。

最近の例では、近隣の農家がどこもバッタの被害に遭っているから、うちでもすでにどこかで発生しているかもしれない、被害がわずかながら始まっている場所を特定してくれ、という依頼が大規模農家からあった。これなどは、衛星画像が得意とする分野だ。もうひとつの例では、やはり大規模農家から、灌漑設備に故障が起きて過灌水や乾燥が生じている箇所を見つけてくれ、という依頼があった。そんな農地では、高価な肥料や農薬が無駄になってしまうのだ。

Vollmarは農家の子どもとして農村で育った。実家は、コーンを有機栽培していた。FarmLogsはこれまで主に、コーンや大豆のような条植作物の生産農家を対象にしてきた。それらはアメリカの農業生産の大きな部分を占める。Vollmarによると、農家が同社のモバイルアプリやWebサイトを好むのは、データサイエンスに基づくデータ駆動の農業経営のために、自分で大量のハイテク機器を導入せずにすむからだ。しかし今ではトラクターなど主な農業機械には必ずデータ収集機能があるから、それらJohn Deere, Holland, Case Corporationなどの農業機械メーカーが作った機器からFarmLogsは原始データを集め、それらのデータをあらゆる角度から分析する。

FarmLogsの正社員は今や約70名いるが、今度の資金でさらなる増員を図り、もっと多くの条植作物農家に同社の技術を知ってもらいたい。この投資の一環としてNaspers Venturesのアメリカにおける投資のトップMike Katzが、FarmLogsの取締役会に加わる。

同社の主な競合相手は、Monsanto傘下のClimate Corp.と、そのClimate FieldViewアプリケーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

UberがMovementを発表、所有する交通情報の公開を狙う

Uberはより閉鎖的なエリアの中で競争力を持つ分野に進出しようとしている:この乗車提供会社の新しいMovementウェブサイトは、同社が運行を行う場所での交通の流れを点数化し提供するものだ。都市の移動性を向上させようとしている都市計画者や研究者による利用が意図されている。

基本的なアイデアは、Uberは既に都市内での交通の仕組みに関する多くの洞察を所持していて、ほとんどの場合特定の個人に結び付けられないようにこうしたデータを匿名化することができるということだ。そこで可能な分野から始めて、Uberは前述のデータを、初めは早期アクセスを申請した特定の組織に対して、そして最終的には一般に向けて提供する予定だ。

Uberは、収集したすべてのデータを眺めるうちに、それらが公共の利益のために使用できることを認識し始めたので、それを実現する製品チームを立ち上げたのだと語った。この取り組みの成果がMovementである。Movementは、市の担当者や都市計画者が、実際の状態や原因に関するすべての情報、あるいは適切な情報にアクセスできないままに、重要なインフラストラクチャーの決定を下さなければならないという問題を解決することを狙っている。

Uberによれば、本質的には、都市の交通計画に影響を与える人びとが適切な意思決定を行うことを容易にし、正確なデータの後ろ盾を用いて、変更の理由、場所、そして時期を説明できるように助ける。また、同社は各組織が容易に利用できるようにしたいと考えているため、既存の都市計画と交通管理に役立つように合意された境界を用いた、都市内の交通解析ゾーンを意識してまとめたデータの形で公開する。
washingtondc-04

ウェブサイトのユーザーは、時間、曜日、ゾーンのようなものを指定して、特定の地点または範囲のUberのデータを呼び出し、ダウンロードすることができる。時系列に沿ったチャートと、独自のモデルに入力するための生データの両者が用意されている。 Uberによると、APIを介してのデータへのアクセス公開も検討しているが、現段階では「パフォーマンスの良い方法でこれを行う方法を見つけようとしている」とのことだ。

もちろん、この種のデータをUberが公にすれば、プライバシー擁護者たちの眉をひそめさせることだろう、しかし同社は集計して匿名化が可能なデータだけを提供するので、ユーザーのプライバシーは確保できていると強調している。Uberによれば、ドライバーと乗客の身元を適切に保護できるだけの十分な量のデータがないと判断した市のエリアでは、クエリの結果が返されないということだ。

もう1つの疑問は、交通需要を正確にマッピングする能力が、ライドシェアリングビジネスの競争力の核となる需要予測能力の一部であることを考えると、Uberがなぜこのようなことを行う気になったのかということだ。Uberによれば、それが運営されている都市で何か良いことをしたいということが理由の1つだが、都市のインフラ整備の恩恵を受けることもできると述べている。

sf_gif_2

「私たちはインフラを計画することはなく、都市を計画することもなく、将来それを行うつもりもありません」と、UberのプロダクトマネージャーのJordan Gilbertsonはブリーフィングで説明した。Uberのビジネスがそれらの側面に直接関与しないということは、それらの改善に間接的に影響を及ぼすための何かを可能な限り行わなければならないことを意味するが、Movementはもちろんそれを助けることができる。市街での輸送の効率化は一般に、より効率的なUberサービスの提供、顧客満足度の上昇、より多くの利用率に繋がる。

これはまた、Uberの事業が成熟するにつれて、Uberが運営される都市の地方自治体と間により緊密な関係を築くのに役立つ。とはいえ、第1には、現在制御されていない変数をモデルに取り込んで如何に制御するかというのが大きな目標のように思える。そしてそれは都市の中心部の道路を走る全ての人に恩恵をもたらす可能性のあるものだ。

[ 原文へ ]
(翻訳:Sako)

トランプ政権にチーフデータオフィサーが必要な理由

white-house-data1

【編集部注】執筆者のBob MugliaはSnowflake ComputingのCEO。

ほぼ全ての世論調査の結果、民主党候補ヒラリー・クリントンの勝利が確実視されていたにも関わらず、次期大統領ドナルド・トランプがサプライズ勝利を収めたことから、この選挙結果はクリントンだけでなく、ビッグデータの敗北をも表しているという話を聞くことがある。共和党ストラテジストのMike MurphyはMSNBCで「今夜、データは死んだ」とさえ語っていた。

実際のところ、彼の発言は現実をかなり誇張したものだ。もちろん、今回の選挙を受けて、世論調査の価値にはかなりの不信感が生まれ、調査手法の再検討が叫ばれており、これはしかるべき結果だ(これについては後述する)。しかし、ビッグデータがアメリカ中の企業にディスラプションや変化をもたらす原動力であり続けるという事実は、選挙結果をもってもしても変わらない。

IDCは、1年間に生まれるデータ量が、2025年中に180ゼタバイト(=180兆ギガバイト)に達すると予測している。これは今日の数字の18倍にあたる。1ゼタバイトとは、書類がいっぱいに詰まった引き出しが4つ取り付けられたキャビネットを、一列8万台で地上から縦に積み上げて、月に届くくらいのデータ量だ。

さらにIDCは、ネットワークに接続されたデバイスの数が、現在の200億台から2025年までに800億台へと増加すると予想しており、「少しでも価値のあるものは全てインターネットに接続されるようになる」とまで語っている。市場や顧客の分析・予測、ワールドシリーズ制覇の推進力いうのはまだ序の口で、私たちはまだ世界中の全てのデータを利用しはじめた段階にしかない。

ビッグデータは、新たな市場・収入源の発見、ヘルスケアや科学研究分野でのイノベーション、さらには国家単位でのセイバーセキュリティ強化にも大いに役立つ。そのため、アメリカ政府上層部にもビッグデータを推奨するリーダーのような存在がいてもおかしくない。だからこそ、次期大統領のトランプは、アメリカ初のチーフデータオフィサーを設置すべきなのだ。

トランプの根っこはビジネスマンであり、ビッグデータはビジネス面でも目を見張るほどの可能性を持っている。

Twitterの利用を除いては、あまりテクノロジーに関連したイメージを持たれていないトランプも、データ周りの重要な構想を支持することで、雇用を生み出そうとしている前進的な大統領だというイメージを作りあげることができる。

トランプの根っこはビジネスマンであり、ビッグデータはビジネス面でも目を見張るほどの可能性を持っている。

IDCによれば、ビッグデータとビジネスアナリティクスの市場規模は、昨年の1220億ドルから、2019年には50%増の1870億ドルまで膨らむと予想されている。さらにForresterは、ビッグデータ関連のテクノロジー市場が、IT全般の市場に比べて3倍の速さで成長すると考えている

またトランプは、チーフデータオフィサーを任命することで、新政権がテクノロジーを需要な経済成長エンジンとしてサポートしようとしているという意思を国民に伝えることができる。Amazonに対する反トラスト運動や、Appleに対する国内生産の強要といった内容が含まれる彼の公約によって傷つけられたシリコンバレーとの関係性も修復に向かうかもしれない。

次期大統領のトランプが、現大統領のオバマほどシリコンバレーと仲良くなる可能性は極めて低いが、チーフデータオフィサーの指名によって、トランプは現在ほとんどいないであろう、シリコンバレーのファンを増やすことができるかもしれない。トランプ自身は、シリコンバレーでの自分の評判を気にしていないかもしれないが、彼とシリコンバレーが協力する道が見えれば、それはアメリカにとって大きな財産となる。

オバマ大統領は、初めて大統領に就任してからわずか3ヶ月の2009年4月に技術局(Office of the Chief Technology Officer)を設立し、同局は国内の消費者へどのようにデジタルサービスが提供されているかの管理や、テクノロジー関連の研究開発に対する連邦政府投資のコーディネート、STEM分野の発展促進といった機能を担ってきた。そして、Aneesh ChopraTodd ParkMegan Smithの3人がこの組織を率いている。

トランプは同局を保持しつつ、データに特化して業界を監視し、合衆国最高技術責任者とタッグを組むような新しい役職を作るべきなのだ。以下の人々を含め、官民どちらにもチーフデータオフィサーにふさわしい候補者はたくさん存在する。

  • Tyrone Grandison: 前商務省データ担当副局長で、以前に労働省と国勢調査のデータに関して協業していた。
  • Scott Hallworth: Capital Oneでチーフデータオフィサーを務め、過去25年間にわたり、企業のデータ戦略の最前線にいた。
  • Claudia Imhoff: Boulder Business Intelligence Brain Trustのファウンダーで、データインテリジェンス業界における思想的なリーダーとして知られている。
  • Guy Peri: Procter & Gambleのヴァイスプレジデントで、同社のデータ戦略のトップを務めている。

また、チーフデータオフィサーの役職をつくることで、トランプはビッグデータの戦略的な価値や、ビッグデータを使って何ができるかを理解しているということをアピールできると同時に、新しいプロダクトやビジネスモデルの創出を促進することができる。さらには、誤った世論調査の結果生まれた、ビッグデータは過大評価されているという間違った考えを正すことにもつながるかもしれない。

そもそも世論調査のデータ量は、ビッグデータと呼ぶには少なすぎる。典型的な世論調査には、エクセルで分析できてしまうほどのデータポイントしかない。世論調査とビッグデータには、1200世帯を対象にした1960年代の視聴率調査と、ユーザーの日々の視聴動向に関する何百万ものデータポイントを対象にしたNetflixの調査くらいの差がある。

アメリカ大統領選や7月に行われたBrexitに関するイギリス国民投票の結果から分かる通り、回答者の答えと行動は必ずしも一致しないため、信頼できるデータが世論調査から得られるかどうかというのは疑わしい。それとは逆に、顧客がショッピングサイトのどのリンクをクリックしたかに関する調査のように、ほとんどのビジネスデータは実際の行動に基づいている。また、世論調査会社がそれまでの調査をもとに最新のデータに改変を加えることで、調査結果にはさらなるバイアスが生まれてしまう。つまり世論調査の問題点は、データ自体に間違いが含まれているということなのだ。

関係者は今回の結果を冷静に受け止め、現状の世論調査のアプローチには穴があり、改善が必要だと認めている。その解決策として、Facebookのようなソーシャルプラットフォームを利用した現代的な手法をとれば、何千万人もの人々からデータを集めることができ、調査結果の正確さを担保できるかもしれない。ビッグデータは世論調査の失敗を招いたのではなく、むしろ2020年頃には、ビッグデータが解決策となり、世論調査がクラウド化するかもしれない。

ビッグデータは、ビジネスに革新的な変化をもたらす力を持っている。もしもトランプがテクノロジーについてひとつだけ理解する必要があるとすれば、それはビッグデータの力なのだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

BenevolentBioの人工知能はALSのもっと良い治療法を見つけるかもしれない、新薬開発よりもデータの発掘で

jackie-hunter-benevolentbio

あの、バケツ一杯の氷水を頭から浴びるキャンペーンで大きく知名度を上げた麻痺性の神経症状、 筋萎縮性側索硬化症(amyotrophic lateral sclerosis, ALS)の治療に有効な薬が、すでに存在しているとしたら、どうだろう?

それが、BenevolentBioのCEO Jackie Hunterが直面している疑問だ。Hunterは人工知能企業BenevolentAIの生物医学部門を任され、医学研究の膨大なデータベースに機械学習を適用して、データを高速にスキャンし組織化しようとしている。過去の科学研究を掘り返して新たな発見にたどり着くことなど、ありえないように思えるが、しかし生命科学の分野では新しい研究が30秒に一本の割合で公開されており、そのあまりにもの多さのゆえに、価値ある研究が見過ごされることも少なくない。

Hunterは今日(米国時間12/6)の本誌TechCrunch主催Disrupt Londonのステージで、BenevolentBioのAIがすでに成功している、と語った。BenevolentBioのAIは、ALS治療に関する未知の情報があるかもしれない研究を探しだす。“最終的に5種類の化合物をテスト対象として選定した”、とHunterは説明した。BenevolentBioはその5種類の化合物を、ALSの患者の細胞からクローンした細胞に対してテストした。

“ある化合物は、だめだった。二つは効果があり、それらはALS治療の基準としては最高の水準だった。そして他の二つはさらに良好で、これまでの研究の中では最良だった。5つの化合物のうち4つは、これまでの研究者たちがまったく見ようとしなかった化合物だった”、とHunterは語る。

  1. jackie-hunter-benevolentbio5.jpg

  2. jackie-hunter-benevolentbio4.jpg

  3. jackie-hunter-benevolentbio3.jpg

  4. jackie-hunter-benevolentbio2.jpg

  5. jackie-hunter-benevolentbio1.jpg

  6. jackie-hunter-benevolentbio.jpg

BenevolentBioがテストした薬はすでに開発が始まっているので、実際に患者に対して使えるようになるのは一般の新薬より相当早いと期待される。

“私も前は製薬業界にいたが、そのR&Dのやり方は数十年前からまったく変わっていない。ひとつの新薬の開発に、20億ドルの費用を要している”、とHunterは述べる。薬の開発者たちがAIを利用すると、既存の薬の別の用途を見つけることができるので、新薬に膨大な投資をするよりも効率的である。またAIは、研究者たちにより早く、もっとも有望な発見の方向性を示すことができる。

しかしながらAIは、それ自身で新しい科学的突破口に到達することはできない。Hunterは、そう主張する。データをチェックするためには依然として、経験豊富な人間科学者が必要である。“しかしAIは科学者たちの〔発想の方向性の〕健康診断ができる。AIは科学者を補助しその能力を拡張するが、科学者をリプレースすることはない”、と彼女は語る。

BenevolentBioはそのAIをさらに拡張して、親会社を介して他の分野にも応用したい、と期待している。Hunterによると同社の技術は、コンピューティングのパワーとデータ分析と、インサイトと、そして需要の理想的な組み合わせであり、“イノベーションのパーフェクトな波を作り出して、本当にこの業界を変えてしまう、と私は思っている”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

慌てるな、AIは職を奪わない―しかし今後ますます定着していく

Human and robots to work together in the near future. This combination will accelerate developing technology. Businessman and cyborg organizes social media.

ディストピアSFを通じて昔から広められてきた奇妙な信念に「人工知能やロボットが人類を破滅させる」というものがある。この世間知にはイーロン・マスクやスティーブン・ホーキングのような有名人も参加しているので驚いてしまうが、人工知能が発達すると、最後には有機体生命より賢くなり地球を乗っ取るという恐るべ結果をもたらすらしい。

しかし「AIがわれわれを滅ぼす」などということはSFの世界を離れればまずありそうにない。それどころか職を奪うことさえないだろう。

実際には、われわれが何かをするのを助けてくれるだろう。なるほどAIが仕事を助けてくれるという考えはロボットの大君主が地球を征服するという夢想ほど魅惑的ではない。しかし2016年現在、人工知能を考えるうえではるかに現実的な評価だ。これは工場の組立ラインの作業員にも得意先を回るセールスパーソンにも、オフィスの知識労働者にも等しく当てはまる。

シリコンバレーのソフトウェア・デベロッパーは人々の職を奪うための完璧なアルゴリズムを開発しようとしているという考えは正しくない。実のところ、コンピューターのアルゴリズムと人間の創造的な知能を組み合わせてより良い仕事ができるようにする方法を見つけようとしているだけだ。

AIは人間を補完する

AccentureのCTO、Paul Daughertyの説明によれば、同社は「人工知能は人間の能力を強化するもので代替するものではない」と考えている。その過程で人工知能は巨大な経済成長をもたらすという。同社の努力は恐怖を撒き散らすSF的ストーリーとは無縁だ。

「AI開発におけるわれわれの目的は人類以上のスーパー知能を作ることではなく人類の知能をスーパーにすることだ」とDaughertyは言う。SF風のお話はメディアが取り上げやすいかもしれない。しかしAccentureが目指しているのは「複雑な問題を簡単にする」という地味だが実際的な目標だ。

ロボットの大君主が地球を征服するというのと比べて、AIはわれわれを助けて仕事をスマート化するというのはセクシーな話題には聞こえないかもしれない。しかしはるかに現実的な考え方だ。

Accentureではこの目標に向けて具体的に3つの課題を追求している。一つはビジネス・プロセスを知的、効率的なものにすることだ。 次に、これを実現するために、人間がコンピューターのデータ処理能力を最大限に活かせるような新しいインターフェイスを開発している(おそらくスマート・グラスのような新しいデバイスの利用が含まれるだろう)。最後に、何十年も前からビジネスにおける大きな課題であった構造を持たないデータを利用できるようにする方法を探っている。

ただしこうした努力はいわゆる知識労働者だけに関係するのではないとDaughertyは言う。AIは工場にも直接影響を与える。Accentureでは製造業のクライアントのためにAIと拡張現実ヘッドセットを組み合わせ、熟練労働者に新しい作業を学習させる方法を開発中だ。作業員はヘッドセットを通じて作業の細かい部分について適切な指示を受け取る。これによって新しい作業を学ぶスピードが非常に速くなる。作業員もこの方法を快適だとして好むことがわかった。同時に会社側も作業員に多様な業務を実施させつつ訓練教育のコストを大幅に削減できるとが判明している。

セールス業務が改善される

セールス業務は今年に入ってAIの大規模な適用が始まった分野だ。Salesforceのセールス・ツールを始め、Oracle、SugarCRM、Base等々がその例だ。セールス・チームは個々のセールス要員の業務に影響を与える可能性のある要素をすべて把握することは不可能だ。そこでこの部分を助けるためにコンピューターの出番となる。

優秀なセールスパーソンはコミュニケーションの才能に恵まれており、成約に結びつけるためにどういう駆け引きが必要かもよく知っている。しかし、SugarCRMSugarの最高プロダクト責任者、Rich Greenによれば「.いかに優秀なセールス要員であっても、成約を妨害する可能性のある無数のネガティブな要素については知識を欠いていることが多い」という。

そこでAIが現在のセールスの進行状況と他のセールスの進行状況の関連、契約の成否に関係する可能性がある外部のニュース、客先からメールの調子その他を報告してくれる。コンピューターと優秀なCRM〔顧客管理〕ソフトウェアとはこうした情報を処理してセールス・チームに伝えることができる。現場のセールス担当者は客先の人間とのコミュニケーションに集中できるわけだ。

この点はSalesforceも今年早くから力を注いでおり、APプラットフォームのEinsteinのリリースもその一例だ。来年以降この種のソフトウェアはますますポピュラーになるだろう。

AIは定着し、拡大する

AIについて個人的にどういう印象を持っているにせよ、AIはほとんどあらゆるソフトウェアの進歩の原動力となるだろう。それがソフトウェアの進展の自然な道筋だ。ソフトウェアを賢くする方法があれば誰もが利用する。Daughertyは「この特性がAIの採用をクラウド・コンピューティングの採用より急速なものにする」と考えている。

クラウド・コンピューティングの場合、企業はオンプレミスのコンピューティング資源をクラウド・ベースに置き換えるという大きな決定をする必要がある。その分だけ意思決定に時間がかかる可能性がある。AIの場合、全体としては現状のままで、ソフトウェアの一部を将来に向けて置き換えていくことができる。AIはテクノロジーとしてははるか以前から開発され、実用化の機会を待っていた。今やコンピューターの処理能力の向上とビッグデータの蓄積が企業にAI化のシナリオを選択する絶好のチャンスを与えている。【略】

Featured Image: Devrimb/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

クラウドとデータ分析でスポーツの世界が変わる

Futuristic silver soccer ball exploding into pixels

【編集部注】執筆者のDavid Bolokerは、IBMのディスティングイッシュドエンジニア兼Emerging TechnologiesのCTO。

スマートテクノロジーは引き続き、生活のほぼ全ての側面を効率化しながら変化させている。その結果、睡眠パターンをモニタリングしたり、場所に縛られずに仕事をしたり、さらにはジカ熱のような病気の治療法をみつけたりといったことが可能になってきている。

しかし、冗長なワークフローを最適化したり、日常的な活動をゲーム化する以外にも、スマートテクノロジーは、私たちがより良いイノベーターになったり、世界に変化を起こしたりする上で必要な技術を底上げするのに貢献している。スマートテクノロジーは、これまでのパフォーマンスの限界を超越するきっかけを生むばかりか、物事の体験の仕方を変えるまでになったのだ。

プロスポーツの世界における、テクノロジーの利用例について考えてみてほしい。クラウドに接続されたセンサーやウェアラブルデバイスによって、瞬時にデータの解析が行われ、パフォーマンス向上につながるような洞察を得ることができる。今や非構造化データは、無比の成功の原動力になることさえできるのだ。

例えば、アメリカ自転車競技連盟(USA Cycling)は、これまでの手法を独自のハードウェアとソフトウェアに置き換えることで、選手のトレーニングの様子をより正確に計測できるようになり、これは今年の夏季オリンピックの結果に大きな影響を与えた。特に、IBMとの協業を通し、アメリカチームはパフォーマンス分析上の問題を解決するために、最新のテクノロジーを採用することした。彼らはもう、トレーニングごとにいちいちパワーメーターやセンサーから手動でデータを抽出したりはしていない。その代わりに、データはリアルタイムで複数のソースから収集されているのだ。使用される機器には、パワーメーターや心拍数モニターの他にも、筋肉中の酸素量をモニタリングするBSX Insight製のウェアラブルデバイスなどがある。BSX Insightのデバイスは、LEDライトと独自のアルゴリズムを使って、選手ひとりひとりのプロフィールを生成し、パフォーマンスモニタリング精度や、トレーニングの質を向上させるのに一役買っている。

その後、収集されたデータはクラウド経由でコーチのiPadに送信され、ダッシュボード上ではWプライムの減少量やエネルギー消費量といった数値が直感的な図で表示されるようになっている。さらにSolosのスマートグラスを利用することで、選手は実際の練習中にも、ヘッドアップディスプレイに表示された重要な数値を確認することができる。

クラウドやデータ分析技術は、スポーツ観戦をさらに面白くする力を持っている

前述の通り、これまでは複数のソースから集められたデータを、手作業で解析していたため、トレーニングセッションに関するフィードバックを準備するまでに、数時間または数日もかかっていた。今では、クラウドに繋がったモバイルアプリのおかげで、自転車や選手に装備されたセンサーとフィードバックの内容がリアルタイムで同期するようになっている。そのため、例えば選手がある地点で無駄にエネルギーを使ってしまっているとわかれば、少し力をゆるめることで、すぐにレース全体でのパフォーマンスを向上させることができる。また、コーチもデータを使って、選手の弱点を適時に発見し、対策を講じることができる。これは特に大きなレースに向けて練習を行っているときには重要なことだ。

自転車競技だけが、クラウドを活用したデータ分析の恩恵を受けているわけではない。NFLも2016年のシーズンを通して、センサーを利用し、ゲーム中のデータを収集・解析すると最近発表した。彼らは特別なチップをフィールドゴール時に使われるボールに埋め込むことで、キックに関するデータを集めるつもりなのだ。この研究が進めば、ゴール判定の変化、具体的にはゴールポストの幅が将来的に狭まる可能性がある。なお、NFLでは既にセンサーを活用して、選手のポジションやスピード、距離感などが計測されている。

トレーニングが効率化し、細かな改善が積み重なることで、選手のパフォーマンスが大幅に向上するという効果以外にも、データ収集によって、ファンの楽しみ方に良い影響が及ぶ可能性がある。リアルタイムでのデータストリーミングなど、クラウドやデータ分析技術は、スポーツ観戦をさらに面白くする力を持っているのだ。同様に、VR技術のスポーツへの応用例も増えてきている。

実際に、NASCAR(全米自動車競争協会および同団体が主催するレース)に参加しているドライバーやファンは、デジタルダッシュボードを利用し始めている。ラップタイムやタイヤ圧、ピットの範囲といったドライバー向けの情報をダッシュボードに表示させるだけでなく、NASCARは、同じ情報をファンにも提供したいと考えているのだ。将来的には、観客もモバイルデバイスを通じて、ドライバーと同じダッシュボードにアクセスできるようになる。そうなれば、ファンはお気に入りのドライバーと同じものを見ることができるばかりか、ドライバーがさまざまな状況にどう反応するかを含めて観戦できるようになる。

またNBCは、2016年のリオデジャネイロオリンピック期間中、VRを使って視聴者のエクスペリエンスを高めようとしていた。Samsung Gear VRのユーザーは、NBC Sportsアプリを介して、開会式や閉会、男子バスケットボール決勝といった特別コンテンツを視聴することができたのだ。この新しい視聴方法によって、会場から何百万マイルも離れた場所に住むファンも、世界最高峰のスポーツイベントを、まるでリオの会場にいるかのように体験することができた。

上記の例は、これから起きる巨大なテクノロジーの変化の序章でしかなく、今後はスポーツやそれ以外の分野でも、物事の体験の仕方が変わっていくことになるだろう。野球ファンは、一塁に滑り込む選手をさまざまなアングルから見ることができるようになるだろうし、ホッケー選手はデータを分析することで、スラップショットの精度を限りなく完璧に近づけられるようになるだろう。選手、コーチ、ファンの全員がもっと試合内容を深く理解できるようになることで、新たな戦術が生まれたり、新しい観戦のかたちが生まれる可能性もある。

スポーツ以外だと、スマートシティが各地で誕生し、エネルギー消費量からゴミ処理までさまざまなプロセスの効率化を図っている。ビジネスの世界でいえば、業界を問わず、各企業がデータを有効活用して、人員の最適化や生産性の向上など、社内の状況を改善しようとしている。このように、業界を超えた影響力を持つ、新しいテクノロジーの可能性について考えるのはとてもワクワクする。あなたは、クラウド・データ主導の未来に突入する準備がもうできているだろうか?

原文へ

(翻訳:Atsushi Yukutake/ Twitter

ソーシャルメディアの情報が世論調査よりも正確にアメリカ大統領選の結果を予測していた

twitter-facebook-chart

110916_election_longtimeline_draft5-02数々の世論調査の結果、民主党候補のヒラリー・クリントンがアメリカ大統領選で楽勝すると思われていたが、今となっては世論調査の予測モデルに問題があるのは明らかだ。現在データサイエンティストが大慌てでその原因を探っている一方、ソーシャルメディア分析サービスを提供する企業の多くは、彼らの方が上手く現実を把握できていたと共に、彼らはドナルド・トランプが選挙で勝つ可能性があるとずっと前からわかっていたと謳っている。

「主要ソーシャルメディア上での、両候補者の選挙活動をモニタリングしていたアナリストは、数ヶ月前から今回の選挙の結果を予測できていました。さらに彼らは、しきりに膨大な数の浮動層がトランプを支持しはじめていると話していました」とSocialbakersでソーシャルメディアアナリストを務めるPhil Rossは話す。

さらに彼は「ソーシャルメディアアナリストたちは、どの世論調査も投票前の実情を反映できていないと主張し続けてきました」と付け加える。

クリントン陣営は、トランプ陣営よりも多くのテレビ広告を打ち、各地で地方事務局を立ち上げたほか、意見が割れている州にはトランプ陣営よりも早くスタッフを送り込んでいた。一方トランプ陣営は、支持者にメッセージを届け、さらには支持層を拡大するにあたり、ソーシャルメディアを上手く活用していた。

また、トランプは”any press is good press(どんな評判であっても話題になるのは良いこと)”という古いことわざの通り、露出増加による恩恵も受けていたようだ。

10月7日にトランプの女性蔑視発言が明らかになり、投票結果への影響が心配されていたが、Socialbakersによれば、選挙日までの間に、この事件が他のどんな戦略よりもトランプの名前をソーシャルメディア上で広めるのに貢献していたことがわかっている。

socialbakers

また、調査会社の多くは、選挙期間中に、ソーシャルメディア上のトランプのメッセージに反応する浮動層の数が増加していることに気付いていた。

もちろん当時は、ソーシャルメディア上でのエンゲージメントが実際の投票に影響を与え、トランプが大統領になる可能性が出てくるなどということはわかっていなかった。結局、ソーシャルメディアユーザーの多くは、重要な問題に関して自ら声を挙げることは少なく、それがソーシャルメディアの批判の原因にもなっているのだ。

専門家は長い間、ソーシャルメディア上でのエンゲージメントは、せいぜい人々の関心を高めるくらいで、具体的な変化を生み出す力までは持っていないと考えていた。

最近の例で言えば、Facebook上で起きたダコダ・パイプラインに関するアームチェアー・アクティビズム(ソーシャルメディアなどインターネット上だけで行われる社会的・政治的活動)を専門家はバカにしていた。これは、Facebook上でStanding Rockにチェックインすれば、ノースダコタ州で抗議活動に参加している人を警察の捜査から守ることができる(本当は何の効果もない)と書かれたポストからはじまり、そのポストが急速に広まった結果、Standing Rockにチェックインした人の数は100万人を超えた。

つまり、選挙結果が出るまで、ソーシャルメディア上のライクやシェアがトランプ票につながるとは誰もわかっていなかったのだ。特に、世論調査の結果がその逆を示しているとすれば、なおさらだ。

simply-measured-social-data-election2016_positivetrends

エンゲージメント以外にも、SimplyMeasuredらによれば、投票日当日のトランプに対するソーシャルメディアユーザーの感情は、クリントンに対するものよりも肯定的だった。

選挙期間を通して見ても、トランプはクリントンと比べ、肯定的な感情を表す表現と共にソーシャルメディア上でメンションされることが多かった。一方クリントンは、10月後半から11月初めかけてその差を縮めたものの、投票日直前には再度トランプに対する肯定的な感情が高まりを見せた。

否定的な感情については、最終討論会までトランプがクリントンを上回っていたが、その後投票日が近づくにつれ両候補者の差は縮まっていった。

simply-measured-social-dataelection2016_negativetrends

調査会社の4C Insightsも似たような動向に気付いていた。本日のThe Wall Street Journalにも引用された同社のレポートによれば、10月初めから11月7日までの間、FacebookとTwitter上ではクリントンよりもトランプの方が支持されていたのだ。また、トランプに対する意見のうち、肯定的なものが58%を占めていた一方で、クリントンに関する肯定的な意見の割合は48%だったと4C Insightsは話す。

最後に、Brandwatchの分析によれば、選挙日を含む選挙期間のほぼ全体を通して、Twitter上のメンション数でもトランプがクリントンを上回っていたことがわかっている。11月8日の投票開始から9日の深夜1:30(東海岸標準時)までに、トランプは490万回以上もTwitter上でメンションされていた一方、クリントンのメンション数は270万回程度だった。

election-day-trump-pres

しかし、ソーシャルメディア分析会社の中には、データを見たところでトランプの勝利は予測できなかったと考える企業も存在する。ソーシャルメディアの力に関して反対の意見を示しているCNETの記事の中で、調査会社のSpredfastは、投票日当日のソーシャルメディア上には対立する情報が多すぎて、選挙の結果を予測するのは不可能だったと語っている。

さらに、ソーシャルメディアでさえ、トランプ支持者の多くを把握できていなかった可能性がある。今回の選挙では、密かにトランプを支持していた人や、徐々にトランプ側に意見が傾いていった人が多く存在し、彼らはソーシャルメディア上でトランプ支持を明言していなかったかもしれないのだ。

少なくとも彼らの中には、トランプの勝利が見えてきた段階で、ソーシャルメディアに自分の意見を投稿しはじめた人がいたようだ。その証拠に、接戦州であるフロリダ州とオハイオ州でトランプが勝利をおさめた後に、トランプを支持する内容のツイートの数が急増したとSpredfastはCNETに伝えている。

この結果を受け、将来の選挙ではソーシャルメディアがもっと注目を集めるようになるかもしれないが、同時にソーシャルメディアも全てを予測できるわけではない。だからこそ私たちには世論調査が必要なのだ。次回はもっと正確な調査が行われることを願っている。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

自動運転車に関するアメリカ運輸省のガイドラインが不十分な理由

car-cyber-security

【編集部注】執筆者のCarl Herbergerは、Radwareのセキュリティソリューション担当ヴァイスプレジデント。

FordやGM、トヨタ、VWは、今後5年間で自動運転車を実用化しようとしている自動車メーカーのほんの一部でしかない。さらにUberやTeslaに話を聞けば、既にドライバーレスの車は誕生していると答えるかもしれない。つまり、ハッカーにとって格好の標的となる自動運転車を守るためのルール作りの時間は限られているのだ。

TeslaJeep三菱の例に見られるとおり、自動車をハッキングするのは簡単なことだ。自動運転車が一般に普及すれば、サイバーセキュリティリスクは急激に増大することになる。コンピュターがハッキングされても、ほとんどはお金で解決できるが、自動車のハッキングは命に関わる。

アメリカ合衆国運輸省(Department of Transportation=DoT)が最近発行した自動運転車に関するガイダンスは、サイバーセキュリティに関する問題への取り組みとしては良い出発点だが、まだまだ改善の余地がある。その証拠に、DoT自身も技術的な専門知識が欠けていることを認め、自動運転車周りのセキュリティ専門家を雇うための特別な採用ツールを探している。

一方で、今よりも厳しい規制が導入されるまで待っている余裕もない。「ベストプラクティス」や「指導」、「〜すべき」といった言い回しでは、解釈に幅が生まれてしまい、自動運転車を守ることができないのだ。この記事では、他の業界での例をもとに、ドライバーの安全を守りながらも自動運転テクノロジーの進歩をとめないために、DoTができることについてまとめている。

なぜ自動運転車には厳しいサイバーセキュリティのルールが必要なのか

セキュリティ関連法案が急速に進化するテクノロジーについていけないことはよくある。さらにテクノロジーの多くは、標準的なプログラミング言語で記述され、オープンシステムや広く知られたシステムの上に構築されているため、ハッカーが侵入しやすいつくりになっている。自動運転車もこのカテゴリーに含まれており、普通の犯罪者からテロリストまで、悪意を持った人であれば誰でも簡単に侵入して、車をコントロールできるようなソフトが自動運転車には導入されている。

NSA(アメリカ国家安全保障局)の情報漏えいや、DNC(民主党全国委員会)のハッキング被害など、これまで政府は国家ぐるみのサイバーアタックには太刀打ちできないというイメージを国民に与えてしまっていることから、今こそサイバーセキュリティへの取り組みをアピールするには絶好のタイミングだといえる。さらに、これまで完璧とは言えない行いが明るみに出ている自動車業界にとっても、厳しいルールが導入されれば、消費者の信頼を少しは回復できるかもしれない。利用者の安全よりも経済的な利益を優先した企業のせいで、これまでイグニッションスイッチやエアバッグなどで、とんでもない品質問題が起きている。

自動運転車に関するこのような難しい問いには、できるだけ早く答えを出していかなければならない。

自動運転車がテロリストやハックティビスト、はたまたその他の犯罪者の手に渡ったときのことを考えてみてほしい。自動運転車を乗っ取った瞬間に、彼らは2トンの自走ミサイルを手に入れたようなもので、何百人もの命が脅かされることになる。また、ランサムウェアがさらに進化すれば、身代金を支払うまでハッカーが車を乗っ取っるといった事件が発生するかもしれない。車内の会話や行動範囲などが遠隔でモニタリングされる、プライバシー侵害の可能性については言うまでもない。

DoTのルールに記載されるべき事項

「ベストプラクティス」では大衆の安全を守ることはできない。私たちに必要なのは、現代の強力なハッキングを防ぐことのできる、安全で頑丈なシステムやソフトが自動運転車に搭載されていることを保障する法規制や検査なのだ。

まず、自動運転車には航空機と同じくらい厳しい検査基準が課されるべきだ。アメリカ連邦航空局が実施する新しい機体の検査の様子を見たことがある人であれば、彼らは翼を壊れるまで伸ばしたり、窓に向かって大きなものを発射したりすることで、機体の限界点を調べているのを知っているだろう。政府はこれと同じくらい厳しい検査を、自動運転車のサイバーセキュリティに関しても行わなければならない。例えば、新しい車を全てDDoS攻撃やAPT攻撃にさらして、どこまで耐えられるか検査するというのは一案だろう。ハッカーに依頼して、彼らがシステムに侵入できるかや、どこに虚弱性があるのかを確認するというのも手だ。厳しい検査が導入されれば、私たちは自動運転車が一般に普及する前に安全を確保することができる。

自動運転車の実用化がはじまったら、次は更新型の認証システムが必要になる。普通の車に対して、排ガス検査や機械的な安全性に関する検査を行うように、自動運転車にもサイバーセキュリティに関する検査を行うべきだ。一旦検査に合格したとしても、サイバーセキュリティの世界はすぐに変化するため、継続的な更新が必要になる。定期的な検査や再認証がシステム化されれば、最新のパッチをインストールしていない車から、乗客や歩行者、路上を走る他の車の安全を守ることができる。また、認証システムにベンダーを巻き込むことで、自動運転テクノロジーやサービスを提供する企業にも、自動車メーカーと同じレベルのセキュリティ水準を求めることができる。

そして基準を満たしていないメーカーに対して、政府は厳しいペナルティを課さなければいけない。金融業界では、倫理綱領やその他の規制措置への違反は、罰金や民事・刑事訴訟などの厳しい懲罰を意味する。「ベストプラクティス」には何の効力もない。もしも政府が自動運転車を規制したいと考えるならば、安全を侵すような違反には厳しい罰を与える必要があり、特に1番の心配事項であるサイバーセキュリティについてはそのような取り組みが必須だ。

同時に、DoTが規制しなければいけない事項にはグレーエリアも多く含まれている。ガイダンスでは自動車メーカーの倫理が問われている一方で、それだけでは乗客や周りの人の安全は守ることができない。もしも自動運転車がハッキングにあって歩行者をひいてしまったら、その責任は誰にあるのだろうか?車の持ち主なのか、メーカーなのか、それとも自動運転車に乗っていた人なのか。駐車場やトンネルなど、電波の届かないところでは何がおきるのか?自動運転車に関するこのような難しい問いには、できるだけ早く答えを出していかなければならない。

自動運転車にとっての規制強化のメリット

自動運転車の進歩のために、この段階ではあまり規制を強めないほうが良いと言う人も中にはいる。イノベーションを制限したり、テクノロジーの進歩にブレーキをかけたりしたくないという主張だ。そのような主張に対しては、ブレーキをかけるのは良いことだと反論したい。もしも車にブレーキがなければ、時速90マイル(時速145キロ)で運転しようとは思わないだろう。つまりブレーキがあるからこそ早く動くことができ、必要に応じて速度を緩めることもできるのだ。

自動運転車に伴うリスクは、これまでのテクノロジーとは比較にならない。ほとんどの人にとって、Yahooの情報漏えいはそこまで大きな問題ではなく、パスワードを変更してクレジットレポートを注意して見ておけばいいくらいだった。個人情報の盗難にあった人や、ランサムウェアに感染してしまった人は、もっと破滅的で甚大なダメージを受けたかもしれない。しかし自動車に関して言えば、ハッキングは生死を分ける問題なのだ。

自動運転車は、より安全で便利で効率的な交通手段となる可能性が高いが、それを実現するために、私たちは安全性の確保に向けて、できることを全てやっていかなければならない。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Otonomoが1200万ドルを調達、コネクテッドカーのデータ標準化サービスを展開

connected-car

自動運転車が私たちの日常生活に浸透しているとはまだ言えないものの、インターネットに接続された車の数は急速に増えている。

路上を走る車の5分の1、そして世界中で新たに製造される車のほとんどが、2020年までにワイヤレスネットワークに接続されるようになるとGartnerは予測する。一方で、現在世に出ているコネクテッドカーのデータを有効活躍できている組織はほとんど存在しない。

イスラエルのヘルツリーヤ(Herzliya)に拠点を置くOtonomoが、その状況を変えようとしている。

同社のシステムは、数々の自動車・自動車部品メーカーから集めた、車両やドライバーに関するデータを収集し標準化している。そのため、さまざまな企業がそのデータを利用してドライバーについて学んだり、新しい製品やサービスをドライバーに提案したりできるのだ。

Otonomoはこの度1200万ドルを調達し、この資金は同社のテクノロジーや事業の拡大に利用される予定だ。Bessemer Venture Partnersがリードインベスターとなった今回のラウンドには、StageOne VenturesManiv MobilityLocalGlobeが参加した。

資金調達のほかにもOtonomoは、元GM副会長のSteve Girksyと元OnStarジェネラル・マネージャーのMary Chanを顧問として迎えたと発表した。さらに、元AT&T Business Solutions CEOのAndy Geisseも同社の取締に就任した。

Bessemer Venture Partnersでヴァイスプレジデントを務めるAmit Karpは、車メーカーのほかにも保険、スマートシティ、交通・輸送、ファイナンスといった自動車の周辺業界は、Otonomoのサービスを新しい製品やサービスの開発に利用することができると話す。

OtonomoのCEO兼共同ファウンダーであるBen Volkowは、ディベロッパーや企業が扱いやすいデータを提供することで、コネクテッドカーから収集したデータがさまざまな場面で有効活用されるようになると話す。

例えば市役所であれば、大都市のドライバーの行動を研究することで、電子標識や信号の利用法を最適化し、より安全な道路環境を築くことができる。また、スターバックスやダンキンドーナツ、マクドナルドといった企業であれば、長時間運転を続けていて、どこかの店舗の近くにいるドライバーに対してクーポンを届けることができる。また、保険査定員であれば、ドライバーのセルフレポートを待つのではなく、車から直接データを入手することで、事故が起きた時の請求処理がスピード化する。

「ある企業やディベロッパーが、コネクテッドカー向けのサービスを開発したいと考えているとしましょう。通常彼らは、直接自動車部品メーカーを訪れて、入手したデータを標準化してから車メーカーと契約を結ばなければいけません。しかし、Otonomoがその間に立つことで、彼らの手間を省くことができるんです」とKarpは語る。

さらに彼は、Otonomoの存在をオンラインペイメントのStripeや、通信のTwilioに例えていた。

Otonomo CEOのVolkowによれば、今回の調達資金は、増員や研究開発、主要自動車・自動車部品メーカーとの関係強化に使われる予定だ。

コネクテッドカーから入手したデータを第三者に提供する上で重要なのが、地方自治体や州、国家レベルの法律・規制、さらにはさまざまな企業のポリシーに沿った形で情報を公開するということだ。

「Otonomoのポリシーエンジンには何百種類ものルールが設定されているほか、弁護士との協業を通して私たちは関連規制・法律も心得ています。外部へ積極的に情報公開を行っている自動車メーカーであれば、私たちは全てのパラメーターをチェックし、詳細をぼやかして匿名性を高めますし、限定的な情報公開しか行っていない場合でも、誰のプライバシーも侵さず、法規制に則った形で情報提供を行います」とVolkowは話す。

さらに、自動車メーカーがユーザーデータのテコ入れを行う中、Otonomoはそれを補助するような役割を担っているため、各メーカーが同社と仕事をしたがっていると彼は語る。またVolkowによれば、GoogleやAppleといった大手テック企業が自動運転車や関連システムの開発に力を入れている一方、Otonomoが提供するサービスは自動車メーカーの中核事業とは競合しない。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

メモリ中心型の分散ストレージでビッグデータのワークロードを超高速化するAlluxioが本番稼働を開始

BIERE, GERMANY - JULY 01: Close-up of cables and LED lights in the new data center of T-Systems, a subsidiary of Deutsche Telekom AG on July 01, 2014, in Biere, Germany. T-Systems is the largest German and one of the largest European IT services companies. (Photo by Thomas Trutschel/Photothek via Getty Images)

大規模なストレージサービスをハードディスクではなく主にメモリで提供するAlluxio(元Tachyon)が、Andreessen HorowitzらによるシリーズAのラウンドで750万ドルを調達した。そして今日(米国時間10/26)同社は、その、オープンソースでメモリ中心型分散ストレージプラットホームのベータを終えて、初めての商用製品ローンチした

Alluxioが企業に提供するソリューションは、大量データの統一化によるアクセスの高速化、データストアの安定性、そして堅牢・安全性の実現だ。今、多くの企業が抱える膨大な量のデータは、社内のさまざまなストレージシステムや、ときには外部クラウドにも、ばらばらに保存されている。有意なデータ分析ができるためには、それらのすべてにアクセスしなければならないが、その無計画な、分散というより散乱散在状態では、高速なアクセスと分析はほとんど不可能である。

Haoyuan Liが創業したAlluxioは、SparkやMapReduceなど既存の優れたコンピュートフレームワークを活用して(下図)、それらすべてのデータを単一のネームスペース(名前空間)のもとに一本化し、データの散乱を単一の分散ストレージシステムに変貌させる。そのストレージのアーキテクチャは層状(三層構造)であり、とくに、利用頻度の高いデータはコンピューターのメモリに収める。それらに次ぐ利用頻度のデータはSSD、そしてその他は従来的なハードディスクに収容する。いわばAlluxioは、ビッグデータワークロードのための、きわめて高度なキャッシュシステムだ、と考えられる。

このソフトウェアは最初、UC BerkeleyのAMPlabで開発され、ファイルシステムはHadoopと互換性がある。多くの(ときには何千台もの)マシンに分散している大量のデータを保存するための、今や標準的な方法が、Hadoopのファイルだからだ。

screenshot-2016-10-26-at-14-07-14

今日Alluxioがベータを終了してローンチするソフトウェアには、Enterprise EditionとCommunity Editionのニ種類がある。オープンソースのプロジェクトの多くがそうであるように、Alluxioも有料サポートや高度な特殊機能が収益源だ。Alluxioのエンタープライズプロダクトの場合は、高可用性が得られるセットアップ、セキュリティ、データのレプリケーションなどがそれだ。

Community Editionは無料で利用できるが、このバージョンも証明されテストされ、さまざまなファイルシステムに対応している(Amazon S3, Google Cloud Storage, OpenStack Swift, Red Hat Ceph, Huawei FusionStorageなどなど)。またコンピュテーションフレームワークとしては、Apache Spark, Apache Hadoop, Apache MapReduceなどが使える。AlluxioのWebインタフェイスからサービスを管理できる点も、Enterprise Editionと変わらない。Community Editionにないものは、有料サポートのほかに、レプリケーションとケルベロス認証だ。

ユーザーには、Alibaba, Baidu, Barclay’s Bank, CERN, Huawei, Intelなどが顔を連ねる。たとえばBaiduの場合は、あちこちのデータセンターに散在していた数ペタバイトのデータに対する対話的なアドホッククエリのパフォーマンスが、Alluxioの技術により、従来の15分から30秒に改善された。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cardiogramが200万ドルを調達、ウェアラブルデバイスを使って心血管疾患を予測

cardiogram_apple_watch

ヘルステックスタートアップのCardiogramは、a16z Bio Fundがリードインベスターとなったシードラウンドで200万ドルを調達した。同社は、心血管疾患のスクリーニングや、心血管に関連した健康状態の改善・維持に関するアドバイスを発信するアプリを開発している。

Cardiogramのアプリは当初、Apple Watch用としてスタートした。しかし、同社は当アプリを最終的に”デバイスに依存しない”ビジネスへ発展させようと計画しており、Android Wearを搭載したスマートウォッチや、Fitbit、Garminなどのフィットネスバンド兼アクティビティトラッカーへも今後対応させていきたいと考えている。

シードラウンドでの資金調達に加えて、Cardiogramは”生活習慣用アプリストア”についても本日発表を行った。このアプリストアでは、ガイド付きの瞑想や、肉体・心理的なエクササイズのアプリをダウンロードすることができ、ユーザーの心血管の状態を維持もしくは向上させるのに役立つと同社は考えている。

共同ファウンダーのBrandon BallingerとJohnson Hsiehによれば、これまでにCardiogramは、約10万人のApple Watchユーザーから100億もの計測結果を集めている。

「この量のデータがあれば、C統計量(正誤判別をするときに用いられる指標)を算出することができ、不整脈の典型例である心房細動を90%以上の確率で発見することができます」とBallingerは言う。「私たちは、設立間もないデジタルヘルス企業であっても査読を申請するのが重要だと考えています。その証拠に、これから数年の間に私たちは、医療雑誌やAIカンファレンスで研究結果を発表していく予定です」

Cardiogram's founding team.Cardiogramの創業チーム

これまでにCardiogramは、高齢者だけではなく、その逆と言えるフィットネス好きの若者にも人気を博している。ファウンダーのふたりによれば、ユーザーの年齢層は18〜94歳とのこと。

シードラウンドには、Homebrewや、Color Genomicsの共同ファウンダーであるElad GilやOthman Laraki、Rock HealthファウンダーのHalle Teccoといったエンジェル投資家らも参加していた。

a16zで2億ドルのヘルスケア業界に特化したファンドを立ち上げた、同社ジェネラル・パートナーのVijay Pandeは、Cardiogramへ投資した理由のひとつは、収集したデータをアクションに直結した情報に変換し、人の命を救うことができる同社のサービスの力だと話す。

「Cardiogramは、ウェアラブルというチャンネルを通して、新しい情報源から大量のデータを収集し、最新の機械学習技術を利用することで、ユーザーが自分たちでアクションを取れるようなサービスを提供しています。これは私が個人的にとても興味をもっているサービスの種類でもあります」と彼は言う。

Pandeは、Cardiogramが今後も情報共有や自社の研究結果を精査するために、研究者のコミュニティと密接に協力し、今回の調達資金を人員の増強や製品開発にあてることを期待している。

現在Cardiogramのアプリは、心血管疾患の代表例である心房細動の発見・予測に向けて改良が進められているが、その他の心血管疾患や血圧と関係のある肥満などの病気を予測するのにも役立つ可能性がある。

さらに現在Cardiogramは、サンフランシスコにあるUniversity of CaliforniaのHealth eHeart研究の一環として、同大学の研究者や心臓専門医と協業を進めている。

彼らは、主要なウェアラブルデバイスやスマートフォンから収集したデータを基に、アルゴリズムを使って心房細動を正確に予測・発見すると共に、正常な心臓とはどのような状態のものなのかを定義づけることを目標にしている。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

次にフィンテックの舞台となる保険業界で成功をおさめるための秘訣

insurance

【編集部注】執筆者のRichie Heckerは、投資家でTraction & ScaleのCEOを務めるほか、Bloomberg Nationのコミュニティリーダーでもある。

結局のところ、保険とはリスクのビジネスだ。契約者に何も起きなければ保険金の請求額は低くなり、みんな幸せになれる。しかし、保険テクノロジー(もしくはインステック/保険テック)の分野が多くの起業家や投資家の間で人気を博している中、その実情はあまり理解されていない。

数ある業種の中でも、保険業は始めるのがとてつもなく難しい。というのも、規制機関が保険市場に新たなプレイヤーを参入させたがらないのだ。その理由はリスクで、保険業にはリスクを管理するための強固なシステムとバランスシートが欠かせない。しかし、新規参入の難しさゆえに、テクノロジーの観点から言うと保険業界は他の業界に遅れをとっている。これこそ、保険業界でディスラプションが起きようとしている背景だ。

「2016年の上半期だけで保険テクノロジー界に10億ドル以上もの投資が集まっていることや、1000人もの企業幹部の参加を予定しているInsureTech Connectのような業界イベントの盛り上がりから、保険業界にテクノロジーの波がきていることが分かります」とQED Investorsのパートナー兼InsureTech Connectの共同ファウンダーであるCaribou Honigは話す(実はInsureTechのもうひとりの共同ファウンダーは、以前私のポートフォリオ企業に投資している)。

冒頭の通り保険はリスクのビジネスであり、自分たちがケガをしないよう各企業の動きは遅い。保険商品の開発に3〜5年かかることもよくある。3年から5年もだ。スタートアップの世界で言えば、これは永遠に感じられるほど長い。一方で保険のプレミアムは毎年1兆2000億ドルに達している(アメリカでは”プレミアム”とは保険業界の売上を指す)。この数字は大したものだ。一般的にはどんなテクノロジーの開発にも一年以上かかり、さらにその後収集したデータを利用しながら3〜5年かけてアンダーライティングのモデルに磨きをかけなければいけない。しかし、現在収集できるデータの量や種類は昔に比べて豊富で、かつリアルタイムで入手することができる。つまり長い商品開発の期間は、スタートアップにとってのチャンスとなるのだ。

保険とは確率のゲームで、統計モデルに基づいた賭け事だ。

保険業界への参入の鍵は、行動経済学を理解することにある。行動経済学とは、人間の行動そのものや、それが購買活動にどのような影響を与えているかを研究する学問だ。まず、保険は負の支出だと考えられている。契約者が保険料の対価を得るということは、何か悪いことが起きたことを意味する一方、保険料を支払いっぱなしだと損をした気分になり、負けっぱなしな気がする。しかし実はそうではない。

市場規模を考えると、Win-Winな状況を作りだせることは明らかだ。自動車保険を例にとれば、さまざまな保険会社を比較している人たちの中でも、71%以上の人が2015年中に保険会社を変更することはなかった。

「保険業界の現状を表す例としては、Blockbuster(米レンタルビデオチェーン)とNetflixの対決が最適だと思います。既存の保険会社が商品の効率化に没頭しているかたわら、スタートアップは顧客の声に耳をかたむけて、保険業の基本的な構造から変えようとしています。彼らは過去100年間で誰も見たことがないようなやり方で、商品や流通、テクノロジーを根本的に変えつつあります」とBumbleBeeの共同ファウンダー兼CEOのJerry Guptaは話す。なお、Jerryは以前Liberty Mutualのイノベーション・ディレクターを務めており、ライドシェア向け自動車保険の世界を変えようとBumbleBeeを設立した(私はBumbleBeeに投資しており、同社の会長でもある)。

同時に、保険業界にディスラプションを起こし得る要素はいたるところにあり、シェアリングエコノミーやオンデマンドサービス、ビッグデータ、IoTやテクノロジー全般がそれにあたる。では保険テクノロジー企業が成功するにはどうすればいいのだろうか?この問いに対する答えは、自分たちで保険会社を立ち上げるか、サービスプロバイダーに徹するかの大きくふたつに別れる。この記事の中では、前者について議論していきたい。

保険とは確率のゲームで、統計モデルに基づいた賭け事だ。それでは、テクノロジーをどのように使えば勝率を上げて市場で稼ぐことができるのだろうか?

角を丸くする

保険テクノロジーの分野で大きな成功をおさめるには、既存商品の角をとっていくのが1番の方法だ。言い換えれば、いちから新しい商品を開発するのではなく、うまくいっている部分はそのままにして、既存の商品を今の時代にあった形に変化させていくということだ。具体的には、分かりやすい契約書を準備し、ユーザーエクスペリエンスを向上させ、インセンティブ(顧客にある行動を促す要因)を現在私たちが住む世界に合わせていくことなどが考えられる。

契約書の内容の多くは100年以上前に考え出されたもので、その頃には現代のテクノロジーもなければ、デジタルに繋がったシェアの世界に潜む複雑さも存在しなかった。そのため契約書を作る際には、補償内容をシンプルにして例外を省き、その保険商品を購入することで、加入者にはどんな利点があるのかをハッキリさせなければいけない。それはちょうど鋭い角を丸めるように、やるのは簡単な上、人がケガをするのを防ぐことができる。

契約書を作る際には、補償内容をシンプルにして例外を省き、その保険商品を購入することで、加入者にはどんな利点があるのかをハッキリさせなければいけない。

「保険業界には、わかりやすさを求める消費者のニーズに合わせてサービス内容を変更する責任があります」と大手生命保険会社RGAxでヴァイスプレジデント兼イノベーションスタジオリードを務めるFarron Blancは話す。「アンダーライターが加入希望者の情報を審査する際の基準や、保険相談にかかる費用や支払タイミングについての情報を明らかにするなど、保険業界は消費者の声に応えていかなければならない。その高潔な目的のもとで人々の生活を良くするため、保険業界には変化が求められているんです」

分かりやすい契約書:「保険は複雑で分かりにくい」というイメージを持つ人は多い。そもそも、弁護士の作った契約書に普通の消費者がサインをするというのは、不公平に感じないだろうか。分かりやすく補償内容がハッキリと書いてある契約書をつくるだけでも、保険業界にディスラプションを起こすことができるのだ。

そのためには、簡潔な言葉で何がカバーされていて何がカバーされていないのかを明記し、例外をなくしつつ、現状に合わせた微調整を行わなければいけない。住宅保険であれば、Airbnbの利用も一定の範囲でカバーすべきだし、自動車保険であれば、Uber車としての利用も許されるべきだ。もしもフルタイムでUberドライバーの仕事をする、ということであれば事情は変わってくるが、保険会社は保険内容に余裕をつくって、加入者が何か新しいことに手をだすのを許容しなければいけない。さらに契約書の内容はわかりやすく書いてあるか、そして実際に顧客に起こり得るような出来事をカバーしているかどうかも重要だ。このようなポイントを抑えれば、消費者の間でその保険会社の評判が高まることになるだろう。

ユーザーエクスペリエンスデザイン:ユーザーエクスペリエンスについても、分かりやすさを追求しなければいけない。ほとんどの保険会社は、未だに代理店を通して商品を販売しているが、代理店を利用するにも費用がかかり、結果的には消費者にそのしわ寄せがきている。そこで、保険テクノロジースタートアップは、ユーザーが彼らと直接契約できるようにしなければいけない。モバイルアプリをつくって、契約や保険金請求のプロセスをアプリ上で行えるようにすればいいのだ。そして、もし請求があればビデオチャットを通して、状況を把握することができる。さらに顧客とのコミュニケーションチャンネルは、モバイル、SMS、チャットボットなど、彼らの要望に合わせて用意しておいた方が良い。そして請求の処理が終わったら、顧客が請求時に使ったものと同じチャンネルを通じて、処理完了に関する連絡をする。そうすれば顧客満足度が高まっていくだろう。

同時に、できる限り多くのデータを集めるられるように、ユーザーにインセンティブを与えることも重要だ。モバイルデバイスやIoTデバイスを使うことで、データの収集経路を増やすことができる。さらに集めたデータを利用することで、リアルタイムで顧客の行動を解析でき、インセンティブの調整も可能だ。早い時点からデータ収集のために顧客の教育に注力すれば、最終的には顧客の行動に基いたセグメンテーションという形でその労力が報われることになる。

インセンティブの調整:必要なときに保険を請求できるかどうかというのが、保険商品の品質の要だ。しかし保険は、自動車のこすり傷や、ただ咳が出ているだけのときなど、全ての状況をカバーするためには設計さていない。もともと保険は大災害(=大きな出費)が起きたときのためのものだ。例えば船が海賊に盗まれたら、Lloyd’s of Londonはそれをカバーしてくれる。

保険金の請求プロセスは、請求額の大小に関わらず全ての案件で同じだ。だからこそ、少額の問題については加入者が自分で手数料をかけずに処理し、被害額が大きいときには保険を利用するように仕向けることで、保険会社は出費をかなり抑えることができる。そして減らした出費を顧客に還元すれば良いのだ。

保険業界は今ディスラプションを起こすには最適な市場だ。そして上述のように、保険業界で成功するためには、分かりやすい契約書や簡素化された契約プロセス、使いやすいサービスを準備し、加入者が出費を抑えつつ、本当に必要なときにだけ保険を請求するようにインセンティブを調整することが重要になってくる。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

シンガポールのNugitが520万ドルを調達 AIを利用したビッグデータ分析サービスを提供

Colorful data graphs on glowing panel of computer screens

ビッグデータの時代が訪れ、データの組織化と処理の効率化が求められるようになった。それこそがマーケティングに特化したシンガポールのスタートアップであるNugitが得意とする分野だ。今週、同社はSequoia CapitalがもつIndia Fundから520万ドルを調達したことを発表した。Nugitは昨年、500社のスタートアップとThe Hub Singaporeから金額非公開のシード資金を調達している。

オーストラリア出身のマーケッターであるDavid Sandersonが創立したNugitは、顧客企業と顧客が持つデータ・プラットフォームの仲介役となり、そのデータが持つ意味を浮き彫りにする機能をもつ。現在はFacebook Ad Manager、Google AdWords、DoubleClickなど15個のデータ・プラットフォームをサポートしている。Nugitのアイデアとは、データに存在するノイズを排除するだけでなく、Nugit自体がPowerPointなどの「即座に意思決定につながる資料」を作りだすことで、デジタル・マーケッターの負担を軽減するというものだ。

マーケッターがデータを扱う際には、データのクリーニングやアラインメントなど数多くのプロセスを手作業でこなす必要がある。しかし、GroupMや他の広告代理店で勤務していたSandersonは、コンピューターを利用すればそのプロセスをただ完了させるだけでなく、データが持つ意味を浮き彫りにすることができると気づいたのだ。こうして、人間には相当の労力が必要なプロセスのオートメーション化を目的にNugitが設立されることとなった。

Nugit CEOのSandersonはTechCrunchとのインタビューの中で「そのようなプロセスは特にデジタル分野のマーケッターにとってエキサイティング時間でもあります。しかし、データの量が多すぎると質の高い分析を行うことが難しくなってしまいます。人間が処理できるデータの量は限られており、そのために置き去りにされるデータがあるのです。それに加え、人々はデータを集めることにうんざりしていて、代わりに即座に意思決定につながる情報を欲しがっています」と語る。

シンガポールを拠点とする25人のチームからなるNugitの顧客企業には、FacebookやJohnson & Johnson、Publicisなどがある。同社の料金体系はデータの量やソースによって利用料金が変わる会員料金型だ。会員料金は最低で500ドル、最高で2000ドルだ。また、特別なインテグレーションやホワイトラベル化された製品を必要とする顧客向けには、それぞれにカスタマイズしたオプションも提供している。

Sandersonによれば、元々は彼がよく知る広告代理店業界向けのビジネスとして始まったNugitではあるが、大量のデータを抱える他分野の業種にもビジネスの範囲を広げつつあるという。その最近の例として、金融業界の会計データの処理にNugitのテクノロジーを利用したいとのアプローチがあったとSandersonは話してくれた。

「多くの組織が大量のデータを保有してはいますが、社内に分析チームを抱えていてもデータを大規模に分析することができていません。そのような分析チームのほとんどが、多種多様なツールを使って人間の手でデータの分析を行っています」とSandersonは語る。「あと1年か2年もすれば、企業のコアとしてNugitが提供するようなデータマネジメント能力が必要だと気づくようになるでしょう。それはデジタルメディア向けのキャンペーンに関してのデータであっても、企業の財政データであっても、もしくは消費者の新製品購入に関するデータであっても同じことです」。

Nugitは今回調達した資金によって、R&Dを強化して同社のテクノロジーのさらなる開発に努めるとともに、新しい業種にもビジネスの範囲を広げていく予定だ。Sandersonによれば、来年の終わりまでに従業員の数を2倍に増やすことも考えているという。しかし、拠点はシンガポールのまま変わらず、今後もアジア地域の企業やグローバル企業にフォーカスしていくと話している。同社は顧客が利用できるSDKの開発にも取り組んでおり、これが実現すればNugitをベースにカスタマイズされたソフトウェアを顧客自身が構築することが可能になる。

Sequoia CapitalがアジアのAI系スタートアップに投資したのはNugitで2社目だ。今年の8月、Sequoiaはインドとアメリカを拠点にEコマース向けのサービスを開発するMad Street Denに対して金額非公開の出資を行っている。また、9月にはNugitと同じくシンガポールのAI系スタートアップであるViSenzeが楽天から1050万ドルを調達している。

[原文]

(翻訳: 木村 拓哉 /Websie /Facebook /Twitter

IBMのDataWorksはApache Sparkによるビッグデータ分析に人工知能Watsonが企業向け利用インタフェイスをまとわせる

screen-shot-2016-09-27-at-10-53-02-am

マシンインテリジェンスの分野は、研究開発が盛んであるだけでなく、より影響力の強い応用現場でも新しいトレンドが生まれつつある。それを好機としてApache Sparkのようなオープンソースのフレームワークは、データサイエンティストのニーズに応えるだけでなく、企業の事業開発にもデータ分析を持ち込もうとしている。

IBMがこのほど立ち上げたProject DataWorksは、SparkとIBM Watsonを組み合わせて、分析の堅実性を維持しつつそのスピードと使い勝手を向上しようとする。わかりやすく言えばDataWorksは、データ分析のためのGoogle Docsだ。今多くの企業は大量のデータを、いろんなところにばらばらに保存している。IBMのこの新製品は企業のすべてのデータを食べて、それを一箇所のアクセスしやすい場所に置く。

management-console

データに、それを必要とする者が迅速簡単にアクセスできるために、IBMはダッシュボードを提供し、そこにデータのアクセス状態や、利用しているユーザー、カテゴリー関連の各種測度などを収めて表示する。IBMはその技術を、データをカタログに仕分け分類すること、と呼ぶ。検索は自然言語で行い、ユーザーはカタログに整理された情報を、これまでよりもずっと素早く取り出すことができる。また、データの取り入れ速度は、IBMによると、50〜100Gbpsである。

データの視覚化は、PixiedustやBrunelなどのコードを使って、わずか1行のコードで作り出される。視覚化によりもちろん、データ間の関連性や分類がよりわかりやすくなり、ふつうの社員でも、ひと目でインサイトを得ることができる。

大企業も中小企業も、IBMのクラウドプラットホームBluemixからDataWorksツールにアクセスできる。近く料金体系が確立すれば、ユーザー企業はこのシステムを数時間〜数日〜数か月と、長期間(または常時的に)稼働させられる。またIBMの構想では、データ分析を携帯キャリアのデータプランからも提供し、それを定額の月額制にすることもできる。

IBMのデータ分析担当VP Rob Thomasによると、企業はこのツールを活用することによって、人件費を大幅に節約できる。またデータ分析に関して、企業の特定部門の人間を教育訓練する苦労もなくなる。さしあたり、リテールや金融、通信などの分野が主な顧客層になるが、しかしThomasによると、中小企業のうち‘中’の方の企業も今すでにこのシステムに関心を示している。

DataWorksの動力となっているIBM Watsonは、これまでも同社の成長と売上を支えてきた。このたび新しいユースケースが増えることによって、Watsonはますます自分を改良していくだろう。そしてDataWorksの主要部分は、IBMが今年初めに買収したThe Weather Companyの技術を利用している。その買収の目的は不定形データの分析にあったが、今ではお天気情報ばかりでなく、Watsonの助力も得て、企業のデータ分析方面に新たな市場を開拓しつつある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Appleがまたまた機械学習企業を買収、今度はオープンソースプロジェクトFiloDBのTuplejump

apple-hq

Appleはこのところ、マシンラーニング(機械学習)の企業を買いまくっている。昨年末にはPerceptioを買い、わずか数か月前にはTuri、そして今度はインドとアメリカにまたがる機械学習企業Tuplejumpを買収した。

Appleがまた買うらしい、という噂は前からあった。AppleにTuplejumpの買収について確認を求めたら、例によって、イエスでもないノーでもない、という答えが返ってきた。それは、買った、というサインなのだ:

Appleは小さなテクノロジー企業をときどき買収するが、一般的にその目的や計画については議論しない。

Tuplejumpを知ってる人いる? 知らなくて当然。機械学習の企業に、いわゆる有名企業はほとんどいない。データサイエンティストなら知ってるかもしれないけど。TuplejumpのWebサイトは買収後に撤去されたが、Wayback Machineがとらえたそのaboutページには、こう書かれている:

数年前に人びとは、企業が生成するデータの量が手に負えないほどの大きさになりつつあることに気づいた。この大量のデータを扱う新しいタイプの企業集団が登場してきた。弊社は、そういう、いわゆる‘ビッグデータ’技術の初期的採用者のひとつである。弊社はFortune 500社の企業によるこれらの技術の採用を支援してきたが、そこでたちまち理解したのは、それがきわめて複雑であることと、その複雑な技術を単純化することの重要性だった。

かくして弊社の、データ管理技術を単純化し、それらを極限まで使いやすくするための探求が始まった。弊社は、使いやすくて、スケーラブルで、人びとが巨大なデータ集合に対して難しい問を投ずることのできる技術を、構築している。

買収の条件(価額など)は、わからない。

聞くところによると、Appleがとくに関心を寄せているのは、オープンソースの“FiloDB”プロジェクトで、Tuplejumpはそれを開発しつつ、機械学習と、大量の複雑なデータの、リアルタイム・ストリーミングのレベルでの分析に応用しようとしていた。FiloDBのGitHubページによると、プロジェクトの最初のリーダーはEvan Chan、そしてChanのLinkedInページには、彼が2015年の8月以降Tuplejumpにいた、とある。

FiloDBは今後もオープンソースのプロジェクトとして存続するのか? そのリポジトリはこれまでTuplejumpのアカウントに置かれていたが、最近独自のリポジトリを持ち、最近の数週間でも新しいコードがこのプロジェクトへコミットされている(開発は生きている)。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Tableauが作るデータ視覚化図表に自然言語の説明文を自動的につけるNarrative ScienceのChromeエクステンション

narrativescience2

(ビッグ)データ分析のTableau Softwareが、シカゴの自然言語生成(natural language generation NLG)ツールのデベロッパーNarrative Scienceとのパートナーシップを発表した。その直後にTableauの株価は13%跳ね上がった。このパートナーシップの結果として生まれる無料のChromeエクステンションNarratives for Tableauにより、Tableauが作るデータ視覚化図表に、自動的に説明文がつけられる。

たとえば一定期間の売上と利益を表す、Tableauが作ったチャートがあるとすると、Tableau Server 10.0や無料のTableau Publicサービスのユーザーなら、このエクステンションにより、たとえばこんな説明文が生成される: “Sales and profit ratio moved in opposite directions from January 2011 to December 2014(2011年1月から2014年12月まで、売上と利益率は互いに逆方向に推移している)”。その例が、ここにある

Narrative ScienceのCEO Stuart Frankelはこう語る: “このエクステンションは、TableauとNarrative Scienceのきわめて密接なコラボレーションの成果だ。このエクステンションがない環境では、通常のTableau体験とほぼ同じ体験が得られる”。

Narrative Scienceのプロダクトの中では、Quillが特に有名だ。これは、データ、たとえばスポーツのスコア、を見せると、それの記事を作る。Narratives for TableauはQuillの応用のようなプロダクトだ、とFrankelは述べる。

Tableauのチーフプロダクトオフィサー(CPO)Francois Ajenstatによると、同社はこのプロジェクトに出資していない。今後はNarrative Science以外のところからも、類似のエクステンションをリリースする計画だ、という。

NarrativeScience1

Narratives for Tableauが生成したテキストは、ユーザーが適当に編集できる。たとえば、特定のパラグラフだけを残したり、データの主な特徴を箇条書きにする、など。もちろんテキストを好みの文体に書き換えてもよい。

Frankelの説明によると、“ユーザーの設定次第で、そのデータに関するコンテキストを書き加えたり、パッケージの取捨選択によって説明文を変えたりできる。もちろんエクステンションが生成するテキストはふつうのドキュメントにコピペしたり、変更を加えることができる”、という。説明文とTableauの対話的な視覚化を、Webページに載せてもよい。

そのChromeエクステンションは現状ではまだ公開プレビューで、今後はもっと高度なNLGをもっと深くTableauに統合することを目指している。また、現在はChromeのみだが、次の段階ではそのほかのいろんなプラットホームでデプロイできるようにしたい、とFrankelは語る。

このパートナーシップの発表の24時間前にTableauは、Adam Selipskyを社長兼CEOに任命した(正式就任は9月16日)。Tableauの協同ファウンダーで現CEOのChristian Chabotは、取締役会の会長になる。

tableau-stock

8月の初めに発表された本年第二四半期のTableauの決算報告は、経費の増嵩のため予想を下回った。今日(米国時間8/23)のニューヨーク証券取引所では、7ドル35セント(13.4%)上昇の62ドル22セントの終値となった。

Narratives for TableauはChrome Web Storeのここで入手できる。入門的ドキュメントはここにある

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))