データサイエンスを用いてアートへの最適投資を行うArthena

私たちは皆アートについて何らかの意見がある(例えその意見がただ、理解できない、というものであるとしても)。しかし投資対象としてのアートについてはどうだろうか?

YCombinatorに、現在在籍しているスタートアップの1つであるArthenaは、投資家がアートから確かな収益を挙げることを助けることができると言う。創業者兼CEOの Madelaine D’Angeloによれば、Arthenaは当初アートを買い付ける、投資型クラウドファンディング(equity crowdfunding)として立ち上げられた。そして最近「アート市場に対する量的戦略に対応する」ファイナンスツール群を追加した。

特に、Arthenaは、作品の作家自身、作家のキャリアと活動年数などの要素に着目して、アートオークションの結果と組み合わせ、ある作品に対するリスクと投資利回りを予測する。この分析により、投資家たちは自身のリスク許容度に基いて、異なるArthenaのファンドに投資することが可能になる。

D’Angeloによれば、Arthenaはこれらのツールを必要に迫られて作ったのだという。ウェルスマネージャーたちや、有力な投資家たちが興味を持ってくれたものの、何より先に「ヘッジファンド相当の分析結果」を提供する必要があったのだ。

D’Angeloは、美術界がArthenaの数字を基にしたアプローチに懐疑的だろうと認めた。しかし彼女は、同社はいつでも「その最終決定を助けるループの中に人間を介在させる」と語った。また彼女は、彼女自身の目標は、アートバイヤーやアーティストの価値を貶めようとするものではなく、「市場の規模を大きくしたい」というものだと語った。

「収集と投資は完全に別々の2つの活動ですが」と彼女は語る。「その情緒的側面を切り離すことはとても難しいことです。もしそれを、数字に基かない視点から眺めていたら、市場の本当に素晴らしい機会を見落とすかもしれません。あるいは、自分が引き付けられるものに対して、過剰に払いすぎてしまうかもしれません」。

結局、なぜアートに投資するのだろうか?D’Angeloは、アート市場の魅力は、株式市場の上下動にあまり縛られずに、印象的なリターンを提供してくれるところだと語った。

Arthenaは、アート市場の標準的な年間利回りである10%を、倍にすることが可能だと言う。そして投資家たちの興味を確かに引いているようだ。同社は数ヶ月前に現在のアプローチに切り替えてから、既に2000万ドルのコミットメントを受け取っている。

D’Angeloはまた、他のアートスタートアップは通常「アートの世界世界のみ、あるいはテクノロジーの世界のみ」の出身者で占められているが、Arthenaは両者を兼ね備えていると語る。アートの世界におけるD’Angeloの経験と、彼女の兄弟でありデータサイエンスのバックグラウンドを持つCTOのMichael D’Angeloが、彼らを「この問題に取り組むためのユニークな資質」を提供しているのだ。

原文へ
(翻訳:sako)

Googleがデータサイエンスと機械学習のコンペ主催プラットホームKaggleを買収

情報筋によるとGoogleは、データサイエンスや機械学習のアイデアのコンペ(懸賞)を主催しているKaggleを買収する*。〔*: このニュースの翌日(米国時間3/8)、Googleはサンフランシスコで行われたCloudNextカンファレンスで、この買収を確認した。〕

Kaggleの協同ファウンダーでCEOのAnthony Goldbloomは電話取材に対して、買収を否定した。Google自身は、“噂に関してコメントはしない”、と述べた。〔3月7日時点〕

Kaggleは2010年にGoldbloomとBen Hamnerが創業し、今ではここを自己表出のためのプラットホームとして利用しているデータサイエンティストが約50万人いる。同社は早くスタートした方だが、今ではDrivenData, TopCoder, HackerRankなど競合他社も少なくない。しかしKaggleはあえて特定の専門分野にフォーカスすることによって、今もトップの座を維持している。今では同社のサービスが、データサイエンスと機械学習のコンペの定番のように見なされている。

Googleが買収しようとしているのは、データサイエンスに関する最大でもっとも活発なコミュニティだ。買収によってこのコミュニティにおけるGoogleのマインドシェアも伸びるだろう(Tensorflowなどのプロジェクトを抱えるGoogleは今すでにかなり高いマインドシェアではあるが)。

KaggleとGoogleは、最近になって付き合いの履歴がある。今月の初めにはGoogleとKaggleが共同で、YouTubeのビデオを分類する賞金10万ドルのコンペを開始した。このコンペは、Google Cloud Platformとの深い統合が前提になっている。

GoogleはKaggleのサービスを、その名前を残したまま継続するようだ。

買収のねらいはKaggleの技術よりもコミュニティにあると思われるが、Kaggleはコンペを主催するためのおもしろいツールの数々や“カーネル”〔応募コードを実際に動かす環境やライブラリ〕も開発している。カーネルは、そのソースコードも(主に応募者のために)公開されている。以前それは、(コードを動かすための)“スクリプト”と呼ばれていた。

コンペ・サイトの通例として、Kaggleにも求人求職ボードがある。Googleがそれをどう利用するのかは、不明だ。

Crunchbaseのデータによると、Kaggleは2010年の立ち上げ以来1250万ドルを調達している(PitchBookによると1275万ドル)。投資家はIndex Ventures, SV Angel, Max Levchin, Naval Ravikant, GoogleのチーフエコノミストHal Varian, Khosla Ventures, そしてYuri Milnerだ。

Kaggle関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、データサイエンス、機械学習のKaggle買収を確認

今日(米国時間3/8)、Googleはデータサイエンスと機械学習をオンラインでホスティングするKaggleを買収したことを発表した。TechCrunchでは昨日、GoogleがKaggleを買収するという情報があることを伝えたが、これは事実であると確認された。

この発表は現在サンフランシスコで開催中のGoogle Cloud Nextカンファレンスで行われた。ただし買収金額などの詳細は明かされていない。そうではあってもGoogleがKaggleを傘下に収めたこと自体は驚きではない。Kaggleのプラットフォームを利用するデータサイエンティストが10万人単位で存在するため、同社の買収はGoogleのAIコミュティーでの地位を大きく高めるだろう。Googleはクラウド事業でAmazonと正面から競争を挑む展開になってきたため、可能な限り有利な条件を整備する必要があるはずだ。

Kaggleの買収によってデータサイエンティストの間でもGoogleブランドはいっそう権威を高めそうだ。もちろん同社はTensorFlowプロジェクトなどで機械学習のコミュティーの有力なメンバーだが、自動運転やディープ・ラーニングなどで人工知能が現実に応用される例が増えるにつれて競争は激化している。こうした新分野では大小を問わず多くの企業にチャンスがある。人間の最強棋士を破ったアルファ碁が劇的に示したような進歩が他社に起きれば、少なくとも可能性としては、AI分野におけるトップクラスの地位からGoogleが押しのけられることになる。

Kaggleの買収は、同社のAIコミュニティーにおける影響力を考えるなら、人材獲得の面でもGoogleにメリットをもたらすだろう。GoogleはPinterest(画像検索テクノロジーに力を入れている)などと競争していくために、今後ますますディープ・ラーニング分野でトップクラスの人材を必要とする。Kaggle買収は同社の高度なテクノロジーを取得できたことはもちろんだが、GoogleがAI分野全般での地位を高めるという目的もあったに違いない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AP通信社が自社の記者たちのためのデータサービスをData.worldの協力で一層充実

ap-data

The Associated Press(AP通信社)は2013年から、自社の記者たちへのデータ提供サービスを始めている。たとえば情報の自由法(Freedom of Information Act)に基づくデータリクエストを手伝ったり、4名のエンジニアを起用してデータの視覚化や、大量のスプレッドシートからのインサイトの取り出し、などをやってきた。そして今日(米国時間3/3)から同社はData.worldとの共同パイロット事業により、記者たちにこれまでよりも詳細なデータを提供していくことになった。

データ分析企業Data.worldB corpの認定企業でもあるので、自分たちの事業の社会性をつねに意識している。今回のAPとのパートナーシップでもそれは変わらず、データの提供者が個々のデータ集合のパーミッションを自分で設定できるようにした。たとえばAPは、インポートしたデータとその分析結果をとりあえずプライベートにしておき、その真実性に確信を持てた段階で一般公開することができる。

APのデータジャーナリズムチームの編集長Troy Thibodeauxはこう語る: “データにフォーカスしたプラットホームが欲しかった。ほかのものは今ますますヴィジュアル性が重視されるようになってきたが、ユーザーがデータにアクセスしてそれらを深く正しく理解することも重要、と考えている”。

Thibodeauxたちは最初、そんなデータプラットホームを内製するつもりでいたが、最終的にはData.worldを起用することに決めた。過去にAPは、データ配布のためのいろんなWebサイトを作っていた。でも今では、その新しいプラットホームが、データへのアクセス性の向上以上のことを、やってくれる。たとえば一つの調査課題に対して一般公開データとプライベートなデータの両方を取り出して、状況がより詳しく分かるようにする。それにより、一つのことに関して、複数の異なった考え方があることも、分かるのだ。

複数の報道機関の共同体でもあるAP通信は、データを配布するためのハブとしても理想的だ。たとえばAPのメンバーである各地の地方紙はそれらのデータを利用してインサイト(とくにニュースに対する解釈や意味)を、読者が求める方向へ調整できる。

“最近は、アメリカに来た難民たちの現状に関するデータを公開した。7つの国からの10年におよぶ移民データだ。そのデータの要約のような短い記事も付けたが、データの利用者であるうちの記者たちの方が、もっとずっと良い記事を書いてくれた”、とThibodeauxは語る。

今後は、データの読み方や使い方に関する記者たちへの教育も行っていく予定だ。そしてシステムが効果的に稼働するようになったら、その結果として実現するデータドリブン(data-driven, データ駆動型)なジャーナリズムが、ニュースの信頼性と透明性と妥当性(適切性)を向上させるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習を利用して肺がんの兆候を早期発見する技術でKaggleが賞金100万ドルのコンペを主催

lungs-money

データサイエンスのコンペを毎年主催してほぼ10年になるスタートアップKaggleが、今度の賞金総額100万ドルのコンペでは、肺の中の癌になりそうな病変組織を見分ける今よりも良い方法を募る。この2017 Data Science Bowlと名付けられたコンペの資金提供者はLaura and John Arnold FoundationとBooz Allen Hamiltonだ。

目標を限定したコンペで高額賞金、というケースは、今回が初めてではない。昨年の同コンペでは心臓病の兆候を見つけるデータ分析技術に20万ドルの賞金が提供された。さらにその前年は、海の健康診断、という課題だった。

でもこれまでで最高額の賞金は、今年の100万ドルだ。優勝者が50万ドル、2位、3位、4位がそれぞれ20万、10万、2万5000ドルとなる。〔4位は複数か?〕

Kaggleは2010年にAnthony GoldbloomとBen Hamnerが創設した。これまですでにKhosla Ventures, Index VenturesなどからシリーズAで1100万ドルを調達している。

Goldbloomは本誌に、“うちは、データサイエンスのホームのような企業でありたい”、と語った。

同社の収益源は、このサイトでコンペを行う企業や財団などからの出資金の一部だ。また80万名近い会員のための求職求人掲示板からの収益もある。

2017 Data Science Bowlがローンチしたのは今朝(米国時間1/12)だが、すでに300のチームからの提出物がある。Goldbloomによるとこれらの提出物の多くは、提出の早さを競って自慢するためだ、という。しかし2017年4月12日の締め切りまでに、一日平均5件の提出がある、という予想だ。

参加チームは、国立癌研究所(National Cancer Institute)が提供する肺のスキャン画像を使って自分たちのモデルを作る。目標は、今のソリューションが不適切である最大の理由、すなわち高い偽陽性率を、大幅に減らすことだ。

GoogleのDeepMindMicrosoftには、どちらにも、目のスキャン画像を分析して今後失明になりそうな兆候を見つける機械学習モデルとそのためのリソースがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

医薬品のメルクとデータ解析のPalantirが提携―新薬開発で数十億ドル規模の効果を目指す

2017-01-13-palantir-drug-shutterstock_401216536

ドイツを本拠とする医薬・化学品の世界的巨大企業、メルクは、今朝(米国時間1/12),、シリコンバレーの著名なデータ解析ソフトウェア企業、Palantirと提携したことを発表した。メルクはこれにより新薬開発を加速し、患者に対する薬効も改善されることを期待している。

この提携はまずヘルスケア、生命科学、パフォーマンス改善物質というメルクの3つの重要な事業分野で実施される。

TechCrunchはPalantirのサイトでの提携発表にリアルタイムで参加することはできなかったが、同社の共同ファウンダー、CEOのアレックス・カープは声明で 「世界で毎年ガンで820万人もの人々が亡くなっている。Palantirは発足当初から適切なパートナーを助けてガンとの戦いにわれわれのテクノロジーとノウハウを活かしたいと考えていた」と述べている。

Palantirは財務面も含めて提携の詳細について明かしていないが、同社を動かしているのはもちろん人類愛だけではない。この提携によって新たな薬品の開発が加速し、あるいは投薬の効果的なノウハウが得られるなら両社にとって巨大な利益をもたらすはずだ。

TechCrunchでは今日の午後、PalantirのカープあるいはメルクのCEO、Stefan Oschmannからもっと詳しい話を聞けるものと期待している。特に確認したいのはPalantirがメルクと提携が排他的なものであるかどうかだ。われわれはPalantirのソフトウェアをBristol-Myers Squibbなど他の製薬会社が利用できないことになるのではないかと予測している。

Palantirにとっては大きなビジネス上の達成といっていいだろう。比較的小規模な非公開企業にしては評価額がきわめて高いことで知られているPalantirだが、顧客がアメリカ政府だけに限られないことが証明されただけでなく、この提携が成功すれば医薬品という巨大なマーケットに影響を与えることになる。Bloombergによれば、肺がんだけで毎年100億ドルの市場だという。

〔日本版〕 Palantir CEOのアレックス・カープは昨年トランプ次期大統領とテクノロジー企業のリーダーとの会談に参加している。またトランプ政権移行チームの重要メンバー、ピーター・ティールはPalantirの共同ファウンダーでもある。この会談については今日のTechCrunchのAmazonの記事に詳しい。

Featured Image: panda3800/Shutterstock

[原文へ]

(翻訳:滑川海彦@Facebook Google+

つねに一歩先を見ながらやっていける農業経営をデータ分析で支えるFarmLogsが早くもシリーズCで$22Mを調達

jesse-vollmar-farmlogs-06

収穫量の計算、利益予測、天候被害や害虫/疫病対策など、農家の経営のさまざまな側面を支えるミシガン州アンアーバーのFarmLogsが、立ち上げから4年で早くもシリーズCの資金調達ラウンドを迎え、2200万ドルを獲得した。ラウンドをリードしたのはNaspers Venturesで、同社の初期の投資家Drive Capital, Huron River Ventures, Hyde Park Venture Partners, SV Angel, それにY Combinatorの社長Sam Altmanのような個人も参加した。

FarmLogsのCEOで協同ファウンダーのJesse Vollmarによると、Y Combinatorのアクセラレータ事業を2012年に卒業した同社はその後、衛星画像およびデータの分析利用に重点投資をしてきた。それらの原始データをもとに予測モデルを開発し、農家の“計画的な”農業経営を助ける。

“今では全国各地の農地を年間を通して分析している。そして問題の兆候が見えたらそこを強調して農家に警報している。彼らは、地上にいるだけでは分からない初期的問題をチェックでき、対策を講じる。それができるのは、衛星画像を複数年にわたって分析している、われわれの積み重ね努力のおかげだ”、とVollmarは説明する。

最近の例では、近隣の農家がどこもバッタの被害に遭っているから、うちでもすでにどこかで発生しているかもしれない、被害がわずかながら始まっている場所を特定してくれ、という依頼が大規模農家からあった。これなどは、衛星画像が得意とする分野だ。もうひとつの例では、やはり大規模農家から、灌漑設備に故障が起きて過灌水や乾燥が生じている箇所を見つけてくれ、という依頼があった。そんな農地では、高価な肥料や農薬が無駄になってしまうのだ。

Vollmarは農家の子どもとして農村で育った。実家は、コーンを有機栽培していた。FarmLogsはこれまで主に、コーンや大豆のような条植作物の生産農家を対象にしてきた。それらはアメリカの農業生産の大きな部分を占める。Vollmarによると、農家が同社のモバイルアプリやWebサイトを好むのは、データサイエンスに基づくデータ駆動の農業経営のために、自分で大量のハイテク機器を導入せずにすむからだ。しかし今ではトラクターなど主な農業機械には必ずデータ収集機能があるから、それらJohn Deere, Holland, Case Corporationなどの農業機械メーカーが作った機器からFarmLogsは原始データを集め、それらのデータをあらゆる角度から分析する。

FarmLogsの正社員は今や約70名いるが、今度の資金でさらなる増員を図り、もっと多くの条植作物農家に同社の技術を知ってもらいたい。この投資の一環としてNaspers Venturesのアメリカにおける投資のトップMike Katzが、FarmLogsの取締役会に加わる。

同社の主な競合相手は、Monsanto傘下のClimate Corp.と、そのClimate FieldViewアプリケーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

データサイエンスで癌に打ち勝つ


【編集部注】著者のNancy BrinkerはSusan G. Komenの創業者であり、癌の啓蒙に関する国際的コンサルタントである。この記事で示された意見は彼女個人による見解である。また共著者のElad Gil博士はColor Genomicsの会長兼共同創業者である。

癌治療の探求の複雑さは、何十年にもわたって研究者たちを困らせてきた。治療法は目覚ましい進歩を遂げてきたものの、癌は世界の主要な死因の1つとして残っているため、まだまだ厳しい闘いは続いている。

しかし、科学者たちはまもなく、その複雑さを別の方法で攻撃できる重要な新しい味方 — インテリジェント・マシン — を手に入れるかもしれない。

ゲームの世界の例を考えてみよう:昨年Googleの人工知能プラットフォームであるAlphaGoは、この宇宙にある星の数よりも多い動きを擁する囲碁という壮大で複雑なゲームの中で、韓国のグランドマスター李世乭(Lee Sedol)をディープラーニングという技術を用いて打ち負かした

機械学習とAIに用いられたものと同じ技術を、癌の治療が必要とする大規模な科学的パズルに適用することができる。

1つのことは確かである。より多くのデータを扱うことができなければ、これらの新しい方法で癌を克服することはできない。しかし例えば医療記録や、遺伝子検査、そしてマンモグラムなどを含む多くのデータセットが、私たちの最高の科学する心と私たちの最高の学習アルゴリズムからは手の届かないところに隔離されている。

良いニュースは、がん研究におけるビッグデータの役割が中心に置かれるようになり、大規模で政府が主導する数々の新政策が次々に進んでいることだ。例えばそうしたものの例には、米国退役軍人省のMillion Veteran Program、英国の100,000 Genomes Project、1万1000人以上の患者のデータを保持していて、あらゆる場所の研究者がクラウドを介して分析することができるNIHのThe Cancer Genome Atlasなどが挙げられる。最近の研究によれば、2025年までに20億ものヒトゲノムが配列決定される可能性がある。

遺伝子検査を含んだ新鮮なデータの需要を促進する他の傾向もある。2007年には、1人のゲノムの配列決定には1000万ドルのコストがかかった。現在はこれを1000ドル以下で行うことができる。言い換えれば、10年前は1人に対して配列決定を行ったものと同じ費用で、今は1万人をまかなうことができるのだ。その意味合いは大きい:特定の種類の癌のリスクが高いという突然変異があることを発見することは、ときに命を救う情報にもなり得る。コストが大衆にも手の届くようになるにつれ、研究もより大規模なものになる。

研究者たち(および社会)の主な課題は、現在のデータセットには、量と民族の多様性が欠けていることだ。さらに、研究者はしばしば制限的な法的条項や、共有パートナーシップを嫌う態度に直面する。組織がゲノムデータセットを共有している場合でも、契約は一般的に個々のデータセット毎に個々の機関の間で行われる。今日では偉大な作業を行ってきた大規模な情報センターとデータベースがあるが、アクセスを加速するためには標準化された規約やプラットフォームに関するより多くの作業が必要だ。

これらの新技術の潜在的な利点は、リスクの特定とスクリーニングを超えて行く。機械学習の進歩は、癌薬剤の開発と治療の選択を促進するのに役立つ。医師が患者と臨床試験を組合わせることが可能になり、癌患者のためのカスタム治療計画を提供するための能力を向上させるのだ(最も初期の成功例の1つがハーセプチンだ)。

私たちは、癌研究やAIプログラムにデータを利用しやすくするためには、3つのことが必要だと考えている。第1に、患者がデータを簡単に提供できるようになるべきだ。これは、医療記録、放射線画像、そして遺伝子検査などが含まれる。検査会社と医療センターは、データ共有が容易かつ合法的に行われるように、共通の同意書を採用する必要がある。第2に、AI、データサイエンス、そして癌の交差点で働く研究者には、より多くの資金が必要だ。チャン・ザッカーバーグ財団が医薬品の新しいツール開発に資金を提供しているように、医療アプリケーションのために新しいAI技術へ資金を提供する必要がある。第3に、すべての民族の人びとに焦点を当てて、新しいデータセットが生成されるべきだ。私たちは、癌研究の進歩にすべての人がアクセスできるようにする必要がある。

[ 原文へ ]
(翻訳:Sako)

BenevolentBioの人工知能はALSのもっと良い治療法を見つけるかもしれない、新薬開発よりもデータの発掘で

jackie-hunter-benevolentbio

あの、バケツ一杯の氷水を頭から浴びるキャンペーンで大きく知名度を上げた麻痺性の神経症状、 筋萎縮性側索硬化症(amyotrophic lateral sclerosis, ALS)の治療に有効な薬が、すでに存在しているとしたら、どうだろう?

それが、BenevolentBioのCEO Jackie Hunterが直面している疑問だ。Hunterは人工知能企業BenevolentAIの生物医学部門を任され、医学研究の膨大なデータベースに機械学習を適用して、データを高速にスキャンし組織化しようとしている。過去の科学研究を掘り返して新たな発見にたどり着くことなど、ありえないように思えるが、しかし生命科学の分野では新しい研究が30秒に一本の割合で公開されており、そのあまりにもの多さのゆえに、価値ある研究が見過ごされることも少なくない。

Hunterは今日(米国時間12/6)の本誌TechCrunch主催Disrupt Londonのステージで、BenevolentBioのAIがすでに成功している、と語った。BenevolentBioのAIは、ALS治療に関する未知の情報があるかもしれない研究を探しだす。“最終的に5種類の化合物をテスト対象として選定した”、とHunterは説明した。BenevolentBioはその5種類の化合物を、ALSの患者の細胞からクローンした細胞に対してテストした。

“ある化合物は、だめだった。二つは効果があり、それらはALS治療の基準としては最高の水準だった。そして他の二つはさらに良好で、これまでの研究の中では最良だった。5つの化合物のうち4つは、これまでの研究者たちがまったく見ようとしなかった化合物だった”、とHunterは語る。

  1. jackie-hunter-benevolentbio5.jpg

  2. jackie-hunter-benevolentbio4.jpg

  3. jackie-hunter-benevolentbio3.jpg

  4. jackie-hunter-benevolentbio2.jpg

  5. jackie-hunter-benevolentbio1.jpg

  6. jackie-hunter-benevolentbio.jpg

BenevolentBioがテストした薬はすでに開発が始まっているので、実際に患者に対して使えるようになるのは一般の新薬より相当早いと期待される。

“私も前は製薬業界にいたが、そのR&Dのやり方は数十年前からまったく変わっていない。ひとつの新薬の開発に、20億ドルの費用を要している”、とHunterは述べる。薬の開発者たちがAIを利用すると、既存の薬の別の用途を見つけることができるので、新薬に膨大な投資をするよりも効率的である。またAIは、研究者たちにより早く、もっとも有望な発見の方向性を示すことができる。

しかしながらAIは、それ自身で新しい科学的突破口に到達することはできない。Hunterは、そう主張する。データをチェックするためには依然として、経験豊富な人間科学者が必要である。“しかしAIは科学者たちの〔発想の方向性の〕健康診断ができる。AIは科学者を補助しその能力を拡張するが、科学者をリプレースすることはない”、と彼女は語る。

BenevolentBioはそのAIをさらに拡張して、親会社を介して他の分野にも応用したい、と期待している。Hunterによると同社の技術は、コンピューティングのパワーとデータ分析と、インサイトと、そして需要の理想的な組み合わせであり、“イノベーションのパーフェクトな波を作り出して、本当にこの業界を変えてしまう、と私は思っている”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

オバマの選挙戦で分析を担当したDan Wagnerのデータ活用コンサルCivis Analyticsが$22Mを調達…‘なぜデータの専門家がTrump勝利を当てられなかったのか’

26612988351_128dadff7a_k

Barack Obamaの2012年の選挙戦で主席分析官を務めた人物が創業したCivis Analyticsが、このほどシリーズAで2200万ドルの資金を調達した。

ファウンダーでCEOのDan Wagnerが選挙後に語ったところによると、彼が選挙戦の期間中に直面したさまざまな問題は、今多くの組織(企業だけでなく政党や政府機関なども含む)が対応に腐心している問題でもある。

今Civisの顧客たちが悩んでいる問題も、まさにそれで、それは、データから得られた情報の現実的な活用(“operationalize data intelligence”)、という目の前の生きた課題だ。たとえば、企業が抱える問題の典型が、“データからどうやって真実と予測を確立するのか、そして、その真実をどうやって行動指針に結びつけるのか”、だ。そこでCivisが作ったのは、顧客の企業等がデータを理解し、そのデータを利用して予測を作り出し、次に取るべき推奨ステップを得るための、“ワンストップショップ”だ。

そしてWagnerによれば、“今世の中には十分な数のデータサイエンティストが存在しない”。そこでCivisは本来のコンサルティングビジネスをより充実させるとともに、今では、“100名のデータサイエンティストの知識を集めてそれをワンセットの技術へとラップする”、ということをやっている。そういう、知識と技術をパッケージ化したツールによって、少人数のデータサイエンティストのチームがこれまでよりも効率的に、より多くのクライアントに対し、仕事ができるようになっている。

Civis Analyticsの顧客は公共部門と民間部門の両方にいて、その中にはAirbnb, 2020年国勢調査(Young & Rubicamとパートナー)、Verizon(本誌TechCrunchのオーナー)などもいる。

Wagnerによると、同社はありとあらゆるデータサイエンスの問題を解こうとしているわけではない。むしろ同社が望むのは、顧客を支援して“人間を本当に理解することによって、これから行うべき正しい態度や行動を予測できるように”していくことだ。企業の場合は、顧客や潜在的な顧客を理解しなければならないし、政府機関なら住民や国民を、そして選挙戦なら投票者を理解しなければならない。

Civis media optimizer

Civis Analyticsは以前、シード資金をAlphabetの執行会長Eric Schmidtから調達したが、それまでの3年半はほとんど自己資金のみでやってきた。Wagnerが語る思い出話によれば、資金を提供する時Schmidtは彼に、“きみはこれで苦しむ必要がある”、と言った。〔投資家への責任という重荷を負うべき、の意。〕

ではなぜ、今また資金を調達するのか? Wagner曰く、今の同社の収益で社員を135名に増員することは可能だが、でも今は、もっと積極的に会社を大きくすべきタイミングだ、と。

今回の新たな投資ラウンドはDrive Capitalがリードし、Schmidt, Verizon Ventures, そして世界最大の広告持ち株企業WPPが参加した*。DriveのChris Olsenが、Civisの取締役会に加わる。〔*: 複数の有力広告代理企業を傘下に抱える。〕

同社は今年の大統領選には関与しなかったが、Wagnerの経歴を知る者としては、選挙について聞かないわけにはいかない。彼は、結果には“大いに落胆した”と認め、しかし、Donald Trumpの、選挙人団(Electoral College)制度*による意外な勝利で、選挙戦におけるデータサイエンスが無意味になるわけではない、と主張する。〔*: 選挙人団制度にはアメリカ国内でも批判がある。問題の性格が、日本の“一票の格差問題”とやや似ている。〕

“Trumpはテクノロジーで一風変わった予想外のことをした”、とWagnerは言う。“それによって選挙戦とデータ分析の関係が変わることはないが、選挙戦のあるべきやり方がたぶん変わるだろう”。

彼によれば、“壊れていたのは”、分析の方ではなく測定の方だ、それは“変わらなければならない”、という。

“電話による世論調査を政治的測定の手段にすることは、たぶん、もうだめだろう。それは今や死に体だし、誰もがそのことを知っている。国内では、商業的にも公共的にも、電話だけに限定されないマルチモード、そしてオンラインのパネル〔討論場, Twitterなど〕に移行が進んでいる。そういう新しい状況に適応する必要があり、しかも非常に迅速に適応しなければならない”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

詳細迅速なデータ視覚化で人気のPeriscopeがシリーズBで$25Mを調達

periscopedata

データの詳細な視覚化を短時間で作ってくれるPeriscope Dataが、2500万ドルの資金調達を行った。

情報筋によると、投資前の評価額は1億ドルで、ラウンドをリードしたのはPeriscope Dataのこれまでの投資家DFJだ。DFJはPeriscope Dataの950万ドルのシリーズAのラウンドもリードした。

Periscope Dataは、さまざまなソースからデータを取り出す。主なソースは、MySQL, PostgreSQL, Amazon Redshift, Salesforce, Microsoft SQL Serverなどだ。AmazonはPeriscope Dataとパートナーしているが、投資はしていない。同社のユーザーは、いくつかの短いコマンド書くだけで、数字の意味がよく分かるグラフィクスを作ることができる。

同社の魅力は、視覚化処理の速さにもある。同社によると、今市場に出回っているそのほかのデータ視覚化ツールに比べて、Periscope Dataは150倍速いそうだ。

その理由の一部は、視覚化機能が偶然の産物だったことにもある。同社は元々、クラウド上のデータに対するクェリをユーザーのために行うサービスだったが、そのサービスの一環として視覚化もあった。ところが、ユーザーのデータサイエンティストたちはその視覚化機能を大いに気に入り、そこで同社は、視覚化を独立のサービスにすることにした。

2012年にPeriscope Dataを創ったのはGoogle出身のHarry Glaser(同社CEO)と、MicrosoftのプログラムマネージャーだったTom O’Neillだ。

今Periscope Dataに、この記事に関するコメントを求めているので、得られ次第記事を更新しよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

データをAPIに加工するOpenDataSoftが$5.4Mを調達、コードだけでなくデータもオープンソースにする社会的メリットとは

stocksnap_c6ygdz1dsw

フランスのビッグデータ分析サービスOpenDataSoftがこのほど、シリーズAで500万ドルを調達した。Aster CapitalSalesforce Venturesがこのラウンドをリードし、既存の投資家AurinvestAder Financeが参加した。

OpenDataSoftは企業や団体などがデータをより有益に利用するためのサービスを提供するSaaSだ。今、多くの企業や自治体などは大量のデータを抱えているが、その有効利用はほとんどやっていない。OpenDataSoftは、それらの団体や組織がデータの分析と処理と視覚化に取り組むとき、その第一歩を助ける。

社名に‘OpenData’とあるように、同社がとくにねらうのは、データをオープンにして外部者や第三者が、独自の用途やサービスに利用できるようにすることだ。たとえば鉄道企業がすべての時刻表データをAPIとして公開したら、デベロッパーは乗り換え案内のアプリを作れるだろう。

ぼく個人的には、自治体がOpenDataSoftのようなものを利用して、もっとデータドリブンになってほしい。いろんなサービスや自治体、公共団体等のあいだに、デジタルのコミュニケーションがない。なさすぎる。ひとつの都市と、その周辺(関連団体等)の可動部品がすべて統合されたら、あらゆることをもっと効率化できるだろう。ぼく自身は、“スマートシティ”という、もっともらしくて空疎な言葉が大嫌いだ

同社は、これまでのヨーロッパに加えて、今度ボストンにオフィスを構え、アメリカ進出をねらう。ヨーロッパも今後は、フランスだけでなくドイツ、イタリア、スペイン、イギリスなどにも顧客を開拓していく。

これらの国にオフィスを置く、という意味では必ずしもないが、これらの国々からの人材起用は十分にありうるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

成功しているデータ駆動型企業はここが違う…データの運用化能力を高めるには

tomasz-tunguz1

[筆者: Harry Stebbings](ベンチャーキャピタルに関するインディーのポッドキャストThe Twenty Minute VCのファウンダーでホスト。)

これからの10年は、データを運用化*できる能力が、スタートアップの成功の鍵を握る。

それでは、データ駆動型企業(data driven companies, データが駆動する企業)の多くは今日、データを運用化するために何をしているのか。RedpointのパートナーTom Tunguzへの先日のインタビューで私たちは、輸送業と宿泊業の最大の大手であるUberやAirBnbについて議論した。彼らはなぜ、インフラを持たずにあれだけ成功できたのか。

Tunguzによると、答えは単純だ、“要するに彼らは、データをもっとも効率的に運用化しているからだ”。では、これらの企業はデータをもっとも効果的に運用化するために何をしているのか?

〔*: 運用化, operationalize, データが実際に(情勢判断や意思決定のために)運用されていること。〕

機構改革

データをもっとも効果的に運用化している企業は、社内の機構を変えて、組織をデータ駆動型の企業文化に適応させている。

Tunguzはこう述べる: “Social CapitalやFacebookは‘データ駆動専門チーム’を作っている。しかし機構改革は、それほどフォーマルな形でなくてもよい。要するに、コラボレーションの仕方や意思決定の仕方、そして会議のやり方が、大きく変わればよいのだ。決定的に重要な要素は、企業が、データを過去の記録として利用する企業から、データを使って未来の意思決定を行う企業へと、変わることだ。

サプライがすべて

データの機能的なサプライチェーンを作ることが、ビジネスを運用化するためにもっとも重要だ。それがあれば、正しいインサイトを正しい人たちに正しいタイミングで送ることができる。スプレッドシート上に整理されたデータが一見単純に見えても、その背後には元データの大きな複雑性が横たわっているのだ。

したがって重要なのは、データを一元的に総合化して、現在の状況の統一的で正確なビューを作り出すことだ。そして状況を正しく正確に把握できるようになれば、正しいデータに正しいタイミングで即座にアクセスできるためのインフラストラクチャ(データ・インフラストラクチャ)を作れる。

共通言語

データ駆動型企業の多くが、社員のための社内的データ辞書を作っている。データ辞書は、その企業で使う測度の共通言語のためのガイドラインだ。‘ナントカ率’という言葉があったとき、その言葉の意味の理解が全社員的に共通していなければならない。現状は、たとえば、‘見込み客(lead)’という言葉の解釈が、営業とマーケティングではまったく違っていたりするだろう。それにより、混乱と間違いと、目標達成の遅延が生じる。

そのため、Tunguzが強調するのは、“堅固なデータパイプラインの構築”だ。それにより、全社共通の言語の普及が可能になる。

結局のところ、1)データリテラシーのボトムアップの全社的積み上げ、2)データの堅固なサプライチェーン、3)社内機構の抜本的な改革、以上が、データ駆動型企業が成功している主な理由だ。全社のデータを総合化し、そして前進しよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Analyticsは無味乾燥なデータだけでなく、有意義なインサイトも自動生成する

DUBLIN, IRELAND - APRIL 19:  (FRANCE OUT) A general view outside the Google European headquarters, on April 19, 2016 in Dublin, Ireland.  (Photo by Vincent Isore/IP3/Getty Images)

GoogleはGoogle Analyticsをアップデートして、そのデータの中にユーザーが、重要なトレンドを見つけやすいようにした。

この変化はiOSとAndroid用のGoogle Analyticsアプリではすでに実装されていて、ユーザーはAssistant画面で、自動的に生成されたインサイトを見ることができる。

たとえばあなたのWebサイトやアプリのユーザー数が急に増えたら、Google Analyticsはそれを高輝度表示し、その新しいユーザーの特性(どこから来たかなど)を教える。ユーザーがeコマースの企業なら、売上がいちばん増えた製品を教える。

Google Analyticsはこれらの情報を前から調べていたが、今度初めて、読みやすいカード形式でユーザーに提供することになった。これからは、いろんなページへ言ったり来たりして情報を探さなくてもよいから、重要な変化を見落とすことも少ないだろう。

担当ディレクターのBabak Pahlavanによると、専門のアナリストがいる大企業では、これらのインサイトが“スケールアップ”の参考になるだろう。アナリストを雇えない小企業でも、この分かりやすいユーザーインタフェイスなら、重要なインサイトを見逃すことなく十分に理解できるだろう、と。

プロマネのAjay Nainaniによると、今回のアップデートのねらいは、“データ分析のエキスパートがやっていることを一般ユーザーにも提供すること。異状の検出もあるし、トレンドを浮き彫りにするためのテクニックの組み合わせもある”、ということだ。

google analytics automated insights

今後このシステムは徐々に、いろんな企業のニーズに対応してよりスマートになっていくそうだ。個々のインサイトのカードの下部には、“親指上げ下げ”のボタンがあるので、そのデータが役に立ったか否かをGoogleに教えてやれる。またインサイトのカードをユーザーが他と共有したかどうかもGoogleはチェックして、その有用性の判断の参考にしている。

Pahlavanによると、Google Analyticsは今後、“インサイトが多くてデータは少ない”という方向へ進化していくので、これはその第一歩だそうだ。このツールを重要な部品として擁する総合マーケティングツールAnalytics 360も、今はある。

そしてインサイトは今後、モバイルだけでなく、デスクトップにも登場する。Nainaniによると、Googleは今すでに、それを開発中だ。もっと詳しいことは、Googleのブログ記事に載っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Tableauが作るデータ視覚化図表に自然言語の説明文を自動的につけるNarrative ScienceのChromeエクステンション

narrativescience2

(ビッグ)データ分析のTableau Softwareが、シカゴの自然言語生成(natural language generation NLG)ツールのデベロッパーNarrative Scienceとのパートナーシップを発表した。その直後にTableauの株価は13%跳ね上がった。このパートナーシップの結果として生まれる無料のChromeエクステンションNarratives for Tableauにより、Tableauが作るデータ視覚化図表に、自動的に説明文がつけられる。

たとえば一定期間の売上と利益を表す、Tableauが作ったチャートがあるとすると、Tableau Server 10.0や無料のTableau Publicサービスのユーザーなら、このエクステンションにより、たとえばこんな説明文が生成される: “Sales and profit ratio moved in opposite directions from January 2011 to December 2014(2011年1月から2014年12月まで、売上と利益率は互いに逆方向に推移している)”。その例が、ここにある

Narrative ScienceのCEO Stuart Frankelはこう語る: “このエクステンションは、TableauとNarrative Scienceのきわめて密接なコラボレーションの成果だ。このエクステンションがない環境では、通常のTableau体験とほぼ同じ体験が得られる”。

Narrative Scienceのプロダクトの中では、Quillが特に有名だ。これは、データ、たとえばスポーツのスコア、を見せると、それの記事を作る。Narratives for TableauはQuillの応用のようなプロダクトだ、とFrankelは述べる。

Tableauのチーフプロダクトオフィサー(CPO)Francois Ajenstatによると、同社はこのプロジェクトに出資していない。今後はNarrative Science以外のところからも、類似のエクステンションをリリースする計画だ、という。

NarrativeScience1

Narratives for Tableauが生成したテキストは、ユーザーが適当に編集できる。たとえば、特定のパラグラフだけを残したり、データの主な特徴を箇条書きにする、など。もちろんテキストを好みの文体に書き換えてもよい。

Frankelの説明によると、“ユーザーの設定次第で、そのデータに関するコンテキストを書き加えたり、パッケージの取捨選択によって説明文を変えたりできる。もちろんエクステンションが生成するテキストはふつうのドキュメントにコピペしたり、変更を加えることができる”、という。説明文とTableauの対話的な視覚化を、Webページに載せてもよい。

そのChromeエクステンションは現状ではまだ公開プレビューで、今後はもっと高度なNLGをもっと深くTableauに統合することを目指している。また、現在はChromeのみだが、次の段階ではそのほかのいろんなプラットホームでデプロイできるようにしたい、とFrankelは語る。

このパートナーシップの発表の24時間前にTableauは、Adam Selipskyを社長兼CEOに任命した(正式就任は9月16日)。Tableauの協同ファウンダーで現CEOのChristian Chabotは、取締役会の会長になる。

tableau-stock

8月の初めに発表された本年第二四半期のTableauの決算報告は、経費の増嵩のため予想を下回った。今日(米国時間8/23)のニューヨーク証券取引所では、7ドル35セント(13.4%)上昇の62ドル22セントの終値となった。

Narratives for TableauはChrome Web Storeのここで入手できる。入門的ドキュメントはここにある

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビッグデータはビッグトラブルか?、…その正しい方向性を見定めるべき時

Abstract 3D network in future

[筆者: Dave Mariani](AtScaleのCEOで協同ファウンダー。)

ビッグデータとビッグデータ分析の世界に最近、二つの重要な展開があった。まず、Tableau(DATA)が決算報告を出したが、EPSはアナリストたちの予想を$0.05下回り、同社の株価は5%下がった。そしてHortonworks(HDP)は売上の低迷を発表し、それにより株価は大幅に下落した。

ビジネスインテリジェンス(BI)やHadoopの世界に、今何が起きているのか? BIやビッグデータの世界が内部崩壊する前に、われわれは遠くの高台に避難すべきか?

何をどう考えていたのか?

市場記事のセンセーショナルな見出しを見て、怖がる必要もないが、しかし、彼らの予想を裏切る業績の背後には、投資家たちやテクノロジー企業を買収しようと考えている人たちが留意すべき重要なトレンドがある。

まず、純粋にパフォーマンスだけを見るとどうか。Tableauはビジネスインテリジェンスのリーダーだ、と多くの人が見ている。売上は前年比で35%も増加した。上場しているデータ分析企業で、昨年こんなペースで成長したところが、ほかにあっただろうか?

これを、業界全体と対比してみよう。Gartnerの予想では、2016年の全世界のIT支出額の成長率は0.0%、すなわち横ばいだ。そんな中で35%の成長は、きわめて異例である。Hortonworksの前四半期はどうか。売上は前年同期比で46%増加している。

一体どういう意味か?

投資家の期待や予想は、頑固だ。テクノロジーバイヤー*や業界のオブザーバーは、(一見成績の良い)両社のパフォーマンスを、業界全体の傾向や見通しと照合したうえで、評価する。〔*: technology buyer, テクノロジー系の企業やその株を買おうとしている人たち、≒テクノロジー指向の投資家。〕

たとえばTeradataも最近、売上を報告したが、同社のビジネスは前年比で約4%縮小した。だからほかの条件が変わらなければ、Hortonworksの売上は2020年までにTeradataを上回るだろう。

ここからどこへ行くのか?

あなたがテクノロジーバイヤーなら、これらの短期的な業績にはとらわれないだろう。あなたが気にするのは、この業界にこの夏、何が起きたかだ。Workdayは7月にPlatforaを買収し、Qlik Techは6月に投資企業Thoma Bravoに吸収された。噂ではAmazonは来月、ビジネスインテリジェンスの視覚化ソリューションをリリースするらしい。もちろんMicrosoftとGoogleには、すでにこの市場向けの製品がある。

視覚化やビジネスインテリジェンスを一社に絞ることは、最近ますます難しい。だから業界のいろんな選手たちの業績を気にするよりは、全体としての彼らの技術の方向性やビジョンに着目すべきなのだ。

たとえばこの市場では、一枚岩的でクローズドなやり方は、きわめて受けが悪い。Platforaのアーキテクチャを見て気づくのは、そのエンドツーエンドの統合に最大のメリットがあることだ。データプラットホームという一方のエンドから、視覚化レイヤという片方のエンドまで、全体が統合化されている。しかしこのアプローチが有効なのは、ユースケースがきわめて特殊で、ユーザーが少数の高度な専門家であるときだ。何十万ものユーザーを対象とする幅広いユースケースのためにデータサービスを提供したい、と考えている一般企業には、向いていない。

しかしTableauは、セルフサービス型ビジネスインテリジェンスというものを開拓し、業界全体をその方向へ向かわせようとしている。MicrosoftやGoogleやAmazonが視覚化市場への参入に熱心なのは、Tableauの成功によって、データをビジネスユーザーの手中に置くことの威力を、思い知らされたからだ。

プラットホームのベンダーは今明らかに、今後成長し栄える市場がこれであることに、気づいている。Tableauが見つけたのは、本当にビジネスインテリジェンスを必要としているのは、日々十分なサービスにも恵まれず日陰に放置されている、9億人を超える情報労働者であることだ。それだけでも、今もっともらしく“ビジネスインテリジェンス”と呼ばれている市場の、約10倍はある。MicrosoftやAmazonがビジネスインテリジェンスの低価格化をトライしていることからもうかがわれるように、明日の業界が必ず目にするのは、BIが、これまで、そんなものとは無縁だと思われていたところで増殖し拡大していく光景だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Appleが機械学習とデータサイエンスの企業Turiを買収

turi

噂では、AppleがTuriを買収したらしい。Turiは、同社自身の言葉によると、“デベロッパーとデータサイエンティストのための機械学習プラットホーム”だ。

Appleに問い合わせたら、同社が買収を確認するときの、昔からワンパターンの、あまり内容のない答が返ってきた:

“Appleは小さなテクノロジー企業をときどき買収するが、一般的に、その目的や計画については議論しない”。

Appleは買収の財務的条件についてもコメントしなかったが、Geekwireは2億ドル以上、と言っている。

AppleがAIや機械学習の分野で買収をするのは、これが初めてではない。2015年には、機械学習と画像認識のPerceptioを買収している。

Turiは、機械学習関連のプロダクトを作っているだけでなく、Data Science Summitというカンファレンスも主催している。その名のとおり、データサイエンスのカンファレンスだ。

Turiは、前の社名が“Dato”、さらにその前は“GraphLab”だったが、商標争いが原因で今年の7月に今の名前になった。

Turiは顧客たちに、同社のプロダクトが可利用なのは7月末まで、と通知していた。それが、買収のサインだったのだ。またTuriのブログは、今やロードしない

しかしTuriのチームは、クパチーノのAppleの本社へ移るのではなく、シアトルにとどまるらしい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

オープンソースのインメモリNoSQLデータベースとして好評のRedis Labsが、シリーズC $14Mの調達へと成長

shutterstock_141093727

インメモリキー-ヴァリューストア(KVS)データ構造(NoSQL)Redisをオープンソースで提供しているRedis Labsが今日(米国時間7/21)、Bain Capital VenturesCarmel Ventures率いるシリーズCのラウンドで1400万ドルを調達したと発表した。同社の前からの投資家Silicon Valley BankとTamar VenturesのマネージングパートナーZohar Gilonも、このラウンドに参加した。

これはこの前の1500万ドルのシリーズBに次ぐもので、Redis Labsの調達総額はこれで総額4200万ドルに達した。

同社によると、新たな資金は営業とマーケティング努力の拡大、およびエンタープライズユーザーベースの一層の強化に投じられる。

2011年に創業された同社は今日さらに、今年の前半で新たなエンタープライズ顧客600社を獲得したことを発表した。今や顧客は多様な業種業態に広がり、著名な企業としてはGroupon, TD Bank, Verizon, HipChat, DBS, Ring Central, Menards, Twitch, flydubaiなどの名が挙げられる。

Redis Labsは現在の成長市場であるインメモリデータストアで、その成長に乗じて業績を上げている典型的な企業のひとつだ。同社は最近、高価なRAMではなくSSDを利用するRedisデータストアとしてRedis on Flashをローンチした。IoTに注目する企業が増え、リアルタイムのデータ分析の高効率化が求められるようになると、Redisのような高速なデータストアへのアクセスがますます重要になる。

今日の発表声明でRedis LabsのCEOで協同ファウンダーのOfer Bengalは語る: “今は、過去のどんな時期にも増して、企業は大量のデータ集合を高速に処理できるソリューションを必要としている。われわれがRedis Labsを創業したのは、Redisの力をエンタープライズ向けに拡大し、複雑巨大なデータの管理を単純化したいという彼らのニーズに応えることを、使命とするためだ。Redisの真価を理解するエンタープライズとデベロッパーがこのところ増えているので、今回のシリーズCの投資により、ハイパフォーマンスなRedisソリューションの、さらなるイノベーションとそのデリバリ能力を、拡大強化していきたい”。

オープンソースをベースとするエンタープライズ企業の通例として、Redis Labsもその中核的データベース技術は無料で提供している。しかしクラウドからの完全な管理サービスプロダクトRedis Cloudや、そのRedis Labs Enterprise Clusterのサポートなどは、同社のメインの収益源である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftがプロ養成講座を提供、データ・サイエンティストのスキルギャップを埋める

microsoft

Microsoftは求人市場にもっとデータ・サイエンティストが欲しいと考えている。若い人は真新しい知識を獲得するところから始める必要があるだろうし、キャリアを進めているプロはこれまでの経験を軸に技術を身につけられるようにする必要がある。

どちらの場合でもスキルギャップを埋めるため、Microsoftはデータサイエンスの一連の講座を edX.orgを介してローンチした。ハーバード大学とMITが立ち上げたedX.orgは、非営利で運営するオンライン学習の場だ。

データサイエンスのカリキュラムは、Microsoft Professional Degreeのプログラムが初めて提供する講座だ。Microsoftが主導するこのプログラムは、社会人が重要な分野でのスキル獲得を促すことが目的だ。本日ローンチしたプログラムについてMicrosoftは「雇用主が認められる大学レベルのカリキュラムです。キャリアのどの段階にいる人も受講できます」とプレスリリースで伝えた。

データ・サイエンティストは、求人数が候補者数を上回る、現在最も求められている職種の一つだ。

Microsoftのコースは9つのクラスと最終プロジェクトで構成される。全てのクラスは無料で聴講することができる。しかし、Microsoft Professional Degreeの認定を得るには、生徒はカリキュラムの10ステップ毎に証明書を購入しなければならない。

オリエンテーションのクラスは25ドルだ。「データサイエンスとアナリティクスのための統計的思考」の認定は99ドルで、他のクラスの認定はそれぞれ49ドルだ(データサイエンスコースを全て完了するには516ドルかかる)。

生徒は特定コースのセッションに登録する必要がある。各クラスのスケジュールはこのカレンダーを参照してほしい。受講を検討する生徒は詳細なシラバスを読み、各授業の選択科目を検討し、クラスのedXページから入学できる。各ステップは最低4時間から最大8時間で完了する。

ITオンライン教育の分野に進出する大手テクノロジー企業はMicrosoftが初めてではない。GoogleはUdacityと提携して、Androidのナノ学位や他のクラスを提供している。Amazonは、ビッグデータのクラスを始め、高度な技術スキルが取得できるAWSトレーニングの提供と認定を行っている。

[原文へ]

(翻訳:Nozomi Okuma /Website

地理的データの視覚化をデータサイエンスの知識技能のない人でも簡単にできるCARTO

carto-featureimage

マドリッドで2012年に創業されたデータ視覚化企業CartoDBが、分析ツールCARTO Builderの発売を機に、社名をCARTOに変え、これまでもっぱらデベロッパーだけだったユーザー層を、企業の一般社員やノンプログラマーにも拡大しようとしている。

CartoLogo

元々CartoDBは、SQLができるデータのスペシャリストを助けて、彼らが位置データの分析をできるようにするのが、本業だった。また、データの視覚化は大好きだがコーディングはできない人びと、たとえば一部のジャーナリストなどは、同社を利用して対話的なマップをスクラッチから(はじめから、ゼロから)作ることができた。そしてこれからの同社は大企業にデータ分析ツールをCARTO Builder提供して、彼らのビジネスの意思決定や、消費者トレンドの予測などを助けていく。

CARTOのCEO Javier de la Torreはこう語る: “CARTO Builderはどんな業種でも利用できるが、当面は金融と通信方面に営業を注力して、彼らのいろんな分野に対する投資のリスクを、予測するサービスを提供していきたい”。

CARTO BuilderはWeb上(ブラウザー上)で使うドラッグ&ドロップ方式の分析ツールで、いろんな公開プラットホームから集めたさまざまなデータシートもある。今のバージョンには新たに、ウィジェットと予測ファンクションという二つの機能が加わった。どちらも、コーディングの知識がなくても使える。

Carto-USmap

ウィジェットは、データセット中のとくに関心のある項目を指定すると、それらに関する分析をインスタントにやってくれる。ウィジェットには4つのタイプがあり、それらは、(1)カテゴリー、(2)ヒストグラム、(3)フォーミュラ、(4)時系列、だ。マップの色を、使用するウィジェットごとに指定できる。

たとえば、アメリカのすべての列車事故の平均被害額を知りたい、としよう。すべての事故と、それら個々の被害額を羅列したデータが、手元にある。そうするとユーザーは、“フォーミュラ”ウィジェットで正しいパラメータを指定するだけだ。マップが即座に、列車事故の平均被害額を表示してくれる。

“こんなのは昔は、JavaScriptをたくさん書かないとできなかった”、ニューヨーク市の事業開発マネージャーJeff Ferzocoが、CARTOでそう言った。

Carto-styling

CARTO Builderはコーディングの知識を必要とせず、データ中にパターンを外挿するスキルも要らない。CARTO Builderのエキスパートユーザーは前と同じくSQLを使ってデータベースの操作ができるが、専門家でない一般ユーザーはこのツールの“Analyze and predict”へ行ってパラメータを指定するだけだ。そこでユーザーにできるのは、(1)点のクラスターを計算する、(2)アウトライアーとクラスターを検出する、(3)トレンドとボラティリティを予測する、のどれかだ。

“CARTO Builderのおかげで、それまではデータサイエンティストがやっていたたくさんの仕事を、今ではデータアナリストでない人でも容易にできる”、とFerzocoは語る。

1万行のデータベースをCARTO Builderに分析させると1分30秒かかる。5000万行だったら、たぶん40分だろう、とFerzocoは言う。“実際にやってみたことはないけどね”。

De la Torreによると、CARTO Builderのベーシックバージョンの料金は月額149ドルからだ。“エンタープライズバージョンを使う企業が多いけど、それなら年額1万ドルからだ”、と彼は言う。

同社によると、CARTO Builderの展開は7月7日から始めて、その後段階的に進めていく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))