スタートアップにおける「プラットフォーム・パラドックス」

diving


編集部記Eric Paleyは、Crunch Networkのコントリビューターである。Eric Paleyは、Founder Collectiveのマネージングパートナーだ。EricはBrontesのCEOで共同ファウンダーを務めた。Brontesは2006年、3Mに買収された。

VCはプロダクトではなく、プラットフォームに投資しているという話を良く聞く。個人的にはその理屈は逆であり、ファウンダーがそのように考えることはとても危険であると思う。プラットフォームは長期に渡る競争有利性をもたらすだろうし、スタートアップがプラットフォームを構築したいと考えるのも分かる。しかし群を抜くプラットフォームのほとんどは、最初は狭い対象に向けた重要なユースケースのために製作した素晴らしいプロダクトから生まれているのだ。

ファウンダーはこのアドバイスを受け入れるのに苦労する。VCはユニコーンになる可能性を秘めたビジネスにしか投資しないと聞いているからだ。彼らは、ニッチなソリューションが投資に見合う金額を生み出すところを想像するのに苦戦する。ファウンダーは自分のスタートアップがプラットフォームになるストーリーを夢想し、解決しなければならない課題から遠ざかるのだ。

プラットフォームとプロダクトの違い

プラットフォーム、ネットワーク、マーケットプレイスと横断的な戦略の議論は多くあるが、これらを用語を定義し、線引きする記事が少ないことに驚かされる。起業家がプラットフォームの理屈を無視すべき理由を説明する前に、これらの異なるコンセプトをできる限り丁寧に定義したいと思う。ただ、この定義で全てを網羅できるとは考えていないし、これらのコンセプトを違うように捉えている人がいるのなら、それについてオープンに検討したいと思う。

プロダクト

プロダクトとはユーザーが排他的に所有する、あるいはアクセスのあるツールやサービスのことを指す。iPhoneやGoProはプロダクトである。Microsoft OfficeやAdobe Photoshopもプロダクトだ。Candy CrushやThe New York Timesのモバイルアプリもプロダクトだ。

ユーザーは一律価格やSaaSの使用料を支払ったり、使用するのと引き換えに広告が表示されたり、最初はいくらか無料で使えたり、アプリ内でサービスを購入したりすることができるが、コンセプトは全て同じだ。ユーザーは購入したり、サインアップしたりすることでそれらを使用することができる。良いプロダクトというものはユーザーにとって実用的なもの、あるいは些細な用途のためでも特定のニーズを埋めることができるものだ。

プラットフォーム

Amazon Web Services、iOS、Androidはプラットフォームだ。プラットフォームの違いは、他のユーザーがそこでプロダクトを構築し、収益が得られることにある。プラットフォームの製作者が想像だにしなかったプロダクトがそこから生まれるだろう。プラットフォームはそれらの売上の一部を得る。プラットフォームが利用されるほどコストも比例して増える。

ネットワーク

多くの人は「プラットフォーム」とネットワーク効果を持つプロダクトとを混同している。しかし、これらは全く別のものだ。LinkedInはネットワークであり、後に人材採用のプラットフォームになった。Pinterestは美しい画像のインタレストグラフであり、開発プラットフォームではなかったが、グロースに伴い広告のプラットフォームに変容しつつある。両サービス共にAPIを提供しているが、APIがあるからといってプラットフォームであるとは限らない。

eBay、Airbnb、Etsyのようなマーケットプレイスは、一見プラットフォームのように見えるが、プロダクトのネットワークだ。そこで利益を上げることはできるが、サービスの利用方法は限られているからだ。Airbnbで車を販売したり、eBayで宿泊のために城を借りることはできない。マーケットプレイスの価値はその流動性から生まれるのだ。マーケットプレイスではユーザーはネットワークの上に価値を構築しているのではなく、ネットワークの中で価値を交換していると言える。

これらのサービスに関連するところで価値を構築することはできる。例えば、eBayの有力な販売者に掲載商品の管理ツールを提供したり、Airbnbのホストに清掃サービスを提供したりということだ。しかし、マーケットプレイスはネットワークを構成している者から最も重要な価値を得ている。Airbnbは家の所有者にとっても高層オフィスビルの管理人にとってもプラットフォームではないのだ。

この定義に同意しない人もいることだろう。ここに上げた全ての企業は種類は違えど「プロダクト」を作る企業であるとも言えるからだ。しかし、少なくてもそれぞれの重要な違いを明確にできたと思う。

プラットフォームの話をするVCを真に受けないこと

多くのVCは会社を作った経験もないし、中には起業に挑戦することの意義を完全に理解していない人たちもいる。ファウンダーは重要な課題を解決するスタートアップのアイディアを持っているかもしれない。明確な収益モデルもあるかもしれないが、それでは規模が小さすぎるのではないかと恐れている。ファウンダーはプロダクトを強く打ち出すのではなく、テクノロジーを曖昧な方法でも活用でき、抽象的な要素を組み合わせて数十億ドル規模となる最大市場規模(TAM)に訴求する方法を考える。

VCは何十億ドル規模に成長できるプラットフォームのアイディアを見て、ファウンダーが会社を立ち上げたその日からそれがプラットフォームとして成立することを望む。大きな目標を描くことや将来の会社の姿を思い描くことに何ら問題はないが、VCにはファウンダーの会社はカスタマーが抱えている重要な課題を解決することから始めること、そして時間を追ってプラットフォームに成長する可能性のあるプロダクトを構築するということを理解してもらわなければならない。最も重要なことは、現時点で誰も欲しがらない大げさなプラットフォームを作るという目標に惑わされないことだ。

プラットフォームのロジックが危険なのはそこだ。多くの違うカスタマーに対応できるような広範な機能というのは、誰の役にも立たないということになりかねない。プロダクトマネージャーは小さなカスタマイズで試したとしても、全ての要素において幅を広げることに注意した方が良い。横断的なプラットフォームを作るスタートアップはマーケットが彼らの元にやってくるのを待っている。それが実現するには長い時間がかかる。大抵の場合、そのようなことは起きないのだ。

垂直的で狭いユースケースしかないプロダクトは、プラットフォームが約束するものとかけ離れているように見える。事実、残念ながらアーリーステージのスタートアップにとってプロダクトとプラットフォームは全く異なるものだ。プラットフォームでありながら、特定のユースケースで高い価値を提供することはほぼ不可能に近い。

ファウンダーが「プラットフォーム戦略」のようなデモトークをしている時、多くのファウンダーはカスタマーのニーズを明確に把握していないように感じる。抽象的な話は壮大に聞こえるが、一般的な話になりがちで実行に移せるかかどうかは分からない。

この時点で、私はどのようにしてクリティカルマスを獲得するかについて尋ねる。その答えには決まって、身振り手振りでの説明が続く。マーケティングプランには、何人かのキーインフルエンサーと、数値化出来ないようなマーケティングプログラムを混ぜ合わるというような話が多い。そのスタートアップが解決する特定の課題を誰も理解できない間は、クリティカルマスを獲得することは難しいだろう。

大きなビジョンを持つことは良いことだが、それに惑わされてはならない。プラットフォームになるには、まず価値あるユースケースのためのプロダクトを構築することが必要なのだ。

「シングル・プレーヤー・モード」を製作する

プラットフォームを作るという概念から抜け出せないのなら、使える「シングル・プレーヤー・モード」を開発することに時間を割いてほしいと思う。何を作るにしても、サインアップしたユーザーが1人でも価値を得られるようなプロダクトにすべきだろう。Instagramはユーザーが綺麗な写真を撮影できるように助ける。ネットワークはその次に来る。Pinterestはアーティストのイメージボードの役割を果たす。Pinterestでのつながりは裁縫の趣味サークルを世界規模で展開することを可能とした。Minecraftは世界最大のLEGOセットと言えるだろう。インターネット接続によって、Minecraftは世界最大の遊びのグループになったのだ。

私の言うことは信じなくても良い。Bezos、Zuckerberg、Jobsから学ぼう

プラットフォームは長期的なビジネスになるだろうが、スタートアップがゼロからプラットフォームを作るのは不可能に近い。GoogleがGlass Collective (イミテーションと言えば多少は聞こえは良いだろうか)を作ろうとしたことを覚えているだろうか。彼らはA16ZやKleiner Perkinsの支援を受けたが、それでもプロジェクトは終了することになった。突き詰めれば、Googleは誰も欲しがらないプロダクトのプラットフォームを作るのではなく、魅力的なプロダクトを作ることに注力することを優先すべきだったと言える。

スタートアップの世界から誕生したプラットフォームのほとんどが素晴らしいプロダクト・ソリューションの副産物であるというのが真実だろう。AmazonのAWS、FacebookやiOSは今日のテクノロジー業界で最も重要な3大プラットフォームと言って良いだろう。しかし、どの会社もどこか無意識的にプラットフォームビジネスに参入したと言える。

Amazon

Amazon Web  Service(AWS)は、スタートアップのインフラストラクチャの中核になった。AWSはHTTP規格が確立されて以降、スタートアップの爆発的な急増の最も重要なイノベーションをもたらしたサービスであると言える。

しかし、Amazonは最初から共通のコンピューティング・インフラストラクチャのプラットフォームを構築しようとしていたのではない。彼らは、ハーレクイーンのロマンス小説、LostのDVDボックスセット、テニスラケットなど何百万点の商品を取り扱うサービスだ。

彼らがコンピュティングサービスに注目したのは、煩雑な配送と受け取りの仕組みを掌握してからのことだ。AWSのプラットフォームは、特定の課題に対して信頼できて愛されるソリューションを構築したことによる副産物として誕生したものであって、Amazonが最初から注力していたものではなかった。

プラットフォームを構築しようと動き出してからも、スタートアップのファウンダーという特定のカスタマーを対象にしていた。医療や金融のプライバシー規制、法人のセキュリティーの懸念点を考慮すると、そこから始めるのは相応しくないと判断し、それらの市場は最初から視野に入っていなかった。そのような多種多様な企業向けのサービスであるとは約束していない。AWSは、急成長するスタートアップにとって本当に必要なものを構築したのだ。

Amazonは1994年創業したが、AWSの提供を開始したのは2006年からだ。そして、AWSで収益が上がるようになったのは2015年からだ。きみのビジネスがもっと短い時間でプラットフォームを作れない理由にはならないが、歴史上最も成功しているウェブ企業に名を挙げられるAmazonでも、プラットフォームになるまで10年以上の歳月が必要だったのだ。ペース配分に気を配ることも必要かもしれない。

Facebook

Thefacebook

Facebookはプラットフォームではなかった。

Mark Zuckerbergの当初の目標はプラットフォームを構築することではなかった。TheFacebook.comの最初のバージョンには写真共有の機能すらなかった。

Farmvilleが普及するようなプラットフォームになるまで、Facebookは大学生が友人の友人を探すためのシンプルなプロダクトだった。現在では、ウェブ上のログイン機能を提供し、史上最も急成長する広告プラットフォームになった。

Facebookは2004年に創業した。何百万人のユーザーベースを抱えるFacebookが初めてプラットフォームに向けた取り組みを行うと発表したのは2007年のことだった。つまり、3年間は素晴らしいプロダクトを作ること、ユーザーの声に耳を傾けること、そしてFacebookのプロダクトとネットワークを構築することに集中してきたのだ。今では15億人が使用するプラットフォームでさえ、10年前までは.eduのメールアドレスがなければアクセスすることはできなかったということを覚えておいてほしい。

iPhone

original-iphone-2g-2007

Appleはホーム画面を埋めるだけの数のアプリを持っていなかった。アプリストアもローンチ時にはなかった。

思い出すのが難しいが、iPhoneが2007年にローンチした時、それは世界が初めてみる最高のスマートフォンというだけのものだった。コピーペーストすることもできず、「それ用のアプリがあるよ」の広告キャンペーンの展開や開発者が何十億ドルの収益を生むようになるのはそれからまだ数年先のことだ。

ソフトウェアのエンジニアはAppleにアプリの開発をすると連日提案した。Appleはローンチ初日からプラットフォームになることができたということだ。しかし、Appleはその提案を断り、代わりに開発者にはウェブアプリの構築を促した。

それについて考えてみてほしい。AppleはiPodでこれ以上にない成功を収めていたし、何十億ドルも銀行に入っていて、大量の熱狂的なファンに支えられ、プレスの反応も友好的だった。Appleはローンチ初日からプラットフォームを構築することができたが、そうはしなかった。彼らは、大勢のオーディエンスに解放する前に、プロダクトの中核となるユースケースを磨き上げる必要があると気がついたのだ。現在、iOSはコンピューティングの歴史上最も重要なプラットフォームの一つになったが、これも最初は魅力的なプロダクトとして始まった。

スティーブ・ジョブズより賢いのなら問題はないが、そうでないと思うならカスタマーの課題を解決することに注力し、サービスやプロダクトがその課題解決において市場のスタンダードになってからプラットフォームになることを考えるべきかもしれない。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

仕事で使えるコンピューターサイエンスを身につけるには大学教育では足りない

expert-e1446229165630

編集部記Mark EngelbergはCrunch Networkのコントリビューターである。Mark Engelbergは数学、コンピューターサイエンスの教師で発明家だ。ThinkFunの元プログラマーでもある。彼は6歳以上の子供たちがロジカルシンキングのスキルを習得するためのCodeMasterを開発した。NASAで仮想現実のプログラマーを務め、Hubble Space Telescopeの修繕ミッションにも携わった。

何かの専門家になるためには10年ほど熱心に勉強することが必要だと広く言われている。研究によると必要な年数は分野ごと、そして個人ごとに異なる。いずれにしろ、一つだけ明確なことがある。専門家になるためには時間がかかるということだ。

そこに問題がある。大学に入学し、コンピューターサイエンスを学ぶことを選択したほとんどの学生は、コンピューターサイエンスに関する予備知識が全くない、あるいはほんの少ししかない。また多くの大学では1年の時に一般的な内容の中核となる必修科目を受講することを求める。そのため、学生がコンピューターサイエンスに触れることになるのは1年目の後半か2年目以降となる。

つまり、学生は大学で3年から4年程度しか価値あるレベルの専門的な内容を吸収する時間がない。それでは時間が足りない。その問題に加え、多くの学生は最初の1年を終えた後は社会経験を求めインターンシップを行いたいと考えている。これはどこかで何かを犠牲にしなければならないような不都合な事態を引き起こす。

コンピューターサイエンスの学部は選択を迫られている。コンピューターサイエンスが何かという大枠が理解できるように基本的なスキルを教えることに注力するか、あるいは企業にとって即戦力となるようなスキルがつくように技術的なトレーニングに注力するかだ。どのコンピューターサイエンスの教授に話を聞いても、学部の中、さらにはコンピューターサイエンスを教える者たちのコミュニティーの中でこの問題に関する幅広く苦しい議論が多くなされていることが分かるだろう。

他の学部はどのようにこの問題を解決しているのだろうか?多くの学問は、学生が小学校から学んできた英語、数学、科学の知識を活用することができる。例えば、機械工学を専攻する学生は、微積分学を通じて数学を習得する機会があり、物理学も学んでいるだろう。大学に入るまで事前にそのような数学や科学の教養がない場合、機械工学者になるためには何年必要となるかを想像してみてほしい。コンピューターサイエンスの学部が直面している問題を身近に感じることができるだろう。

また、多くの学問は大学院や仕事をしながらもさらにそれを追究することが求められるが、コンピューターサイエンスにはそれがない。コンピューターサイエンスの分野は、市場が求める専門性と学生が企業に就職するまでに身につける専門性のレベルの乖離が大きいと言えるだろう。

大学は市場が大学に求めるレベルにまで学生を持っていくために必要なコンピューターサイエンス教育のための時間もリソースも足りないということだ。

でも、ちょっと待てよ。コンピューターサイエンスもエンジニアリングの領域なのだから、コンピューターサイエンスも他の科学やテクノロジーに関する学問のように、大学前までに学ぶ数学や科学の教育が役立つのではないのか、と疑問に思う人もいるだろう。残念ながら、そうはならない。 学校で学ぶ数学教育の最高峰と位置付けられる微積分学は、コンピューターサイエンティストが必要とする数学の分野とは最も関連が薄い分野なのだ。コンピューターサイエンティストに必要なのは豊富な離散数学の教養であり、この領域を学校で学ぶことは多少あるかないかだ。

また、大学はコンピューターサイエンスを専攻する学生に十分な教育を施すのに苦戦する中、さらにコンピューターサイエンスの入門編だけでも学びたいと思う学生数の増加にも対応しなければならない。コンピューターサイエンスの講義に強い大学は、この需要に追いつくことに苦戦している。コンピューターサイエンスの基本を教える講義はすぐに埋まってしまい、多くの学生は受講することができない。大学は全ての学生に対応しようとしても、どこかで折り合いを付けざるを負えないのだ。

例えばスタンフォード大学では、入門コースにペアプログラミングのアプローチを採用することを発表した。学生が二人組で学ぶことが素晴らしいアイディアだからということではなく、単純に大量のプログラムを採点する仕事量を削減できる方法を探していたからだ。二人組のプログラミング授業なら仕事量は半減する。

私の地元の大学におけるコンピューターサイエンスの講義の大半は、コンピューターサイエンスを専攻している学生しか受講することができない。コンピューターサイエンスを専攻するための競争は激しくなっていて、学生が1年目からコンピューターサイエンスの講義を受けられる機会は多くない。このようなことが続けば、専門的に学ぶ学生しかコンピューターサイエンスの知識を習得できず、他の学問を専攻する学生がコンピューターサイエンスを学ぶ機会はほとんどなくなる。

つまり、大学は市場が大学に求めるレベルにまで学生を持っていくために必要なコンピューターサイエンス教育のための時間もリソースも足りないということだ。この問題を明示することで、本質的な解決方法は一つしかないことが分かるだろう。コンピューターサイエンスをより早い段階から学べるようにすることだ。大学で学ぶ多くのコンピューターサイエンスと離散数学の内容は高校で学べるようにする。少数の高校で受講できるプログラミングの入門コースは中学校で学べるようにする。さらには中学校で触れるようなカジュアルで遊びの要素のあるプログラミングやコンピューター処理の考え方は、小学校で触れられるようにするということだ。

そうすれば学生がコンピューターサイエンスを学べる唯一の場所が大学に限定されず、大学がボトルネックではなくなるだろう。そして、大学のコンピューターサイエンスのカリキュラムは事前教養があることを前提に、学生が大学卒業までに真に専門的な教養を身につけられるようカリキュラムを見直すことができるだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

自分より自分のことをFacebookが知るようになる未来

facebook_shirt

Facebookにログインして、ニュースフィードの投稿をクリックしたり、写真を「いいね!」したり、Messengerで誰かにメッセージを送ったりする度に、銀河のように広大なデータ群にユーザーは自身と自身の行動に関する小粒なデータを加えている。それぞれのデータは、何億人といるユーザーの宇宙規模の情報の中ではとても小さく、意味をさほど持たないものだ。

人々の情報、興味関心、活動に関して最も包括的に広範で深いデータセットを保持しているのはFacebookだろう。(本当のところはNSAしか知らないが。)GoogleはAndroidと検索において、より多くの生データを収集しているだろうが、そのほとんどは個人と紐付くものではないだろう。Stacksと呼ばれる主要サービスの中でも、Facebookが最もユーザーのことを知っていると言える。

Facebookはこれらのデータを広告に使用することができる。これは議論の余地がある用途ではあるが、それ以上に非常につまらない用途だとは思わないだろうか。以前から私にとって広告より魅力的だと思える活用方法は、データでユーザーの内面を推論することだ。つまり、Facebookに公表していないことでもオンラインの行動からユーザーの内面を推論し、そのユーザーが新しい情報や状況に触れた時にはどのような反応するかを表出するかを推論することだ。最も興味深いことは、Facebookはデータという点描を用いて、ユーザーのずば抜けて正確な人物像を描くことができることだ。データポイント一つ一つが絵の点になる。

これは抽象的な概念だ。いくつか実例を考えてみよう。Facebookがユーザーのアプリやサイトの利用方法や投稿するリンクや写真の情報、使用するアプリ、「いいね!」したものから高い確度で、そのユーザーが仕事熱心か怠惰な人かを推論したり、クレジットの信用度を割り出したり、被保険者としてのリスクがあるかどうかが分かる状況を想像してみてほしい。将来的に雇用主や保険会社になるかもしれない組織が興味を持つ情報だとは思わないだろうか?

それに比べると未来感のある話ではないかもしれないが、すでにユーザーの電話はユーザーがうつ病であるかを検知することができる。ユーザーの性格を判断し、収集したソーシャルグラフの情報から人間関係に問題があるかどうかをアルゴリズムで検知することが可能だ。

さらにFacebookは集めるデータを増やせるようにした。先週、何兆もの投稿を検索できるように機能を拡張したのだ。これで、ユーザーの検索したデータをすでに保有しているデータに加えることができるし、実際にそうするだろう。

ユーザーならFacebookがそれらのデータを本当に利用するのか、もしそうならどの程度利用するかを知りたいと思うだろう。ユーザーが秘密にしておきたいことを無意識的な行動からFacebookに知られてしまうことに気がつけば、そのユーザーはFacebookをプライベートの場面で使用しなくなるかもしれない。つまり、素直な行動は減り、シェアも減り、用心して慎重に利用することになるだろう。結果的にFacebookを利用する時間は減ることになる。

一方、Facebookがユーザーについて何を知っているかを明確にせず、Facebookはリーチと利益を増大させるために、それらの情報をユーザーから見えづらい方法で使用することになるかもしれない。

訳:TinderやOK Cupidでマッチした人をFacebookが友達として提案をする理由とその方法に関する良い調査内容

訳:Facebookのアルゴリズムの気味が悪いことは、結局ユーザーは知ることができないことにある。曖昧な悪意がある組織かもしれないと推測することしかできない。

そうなれば、Facebookは一方通行にしか見えない鏡のような存在になるだろう。それも投影した先の方が本人よりも本人のことを知っていることになるかもしれない。これは、フィリップ・K・ディック(あるいはカフカ)の小説に登場するような、面白い部分もある一方で恐ろしい倫理的な問題を持ち上がる。もし、Facebookのディープニューラルネットワークが、ユーザーの行動に基いて、ユーザーが自殺をしようとしていることを予測できるようになったら?ユーザーが誰かを殺害しようとしていることが分かったら?それも90%の確度で知っているなら?それが間違いだとしたら?

私は答えを持っているわけではない。しかし、人類のデータがこの規模で収集され続けるほど、その可能性について検討する余地はあると考えている。そう遠くない未来、そのデータは私たちが秘密にしておきたい内面を見透かすレントゲンのようにも、次の行動を明るみに出す懐中電灯にもなるだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

人工知能に「憎悪」をプログラミングする正当性と倫理的な問題

killerrobot

編集部記Zoltan IstvanはCrunch Networkのコントリビューターである。Zoltan Istvanはフューチャリストで、2016年アメリカ合衆国大統領選挙のトランスヒューマニスト党の候補者である。

ここ数年で多くの人が人工知能(AI)の話をするようになった。SF好きやオタクやGoogleのエンジニアたちだけが口にする話題ではなくなり、私はパーティーやコーヒーショップ、さらには食卓でも人々がAIの話をしているのを聞いた。5歳になる私の娘もタコスラザニアを食べながらAIについて話をしていた。学校で何か面白いことはあった?と聞いたところ、彼女は先生が話したスマートロボットの話と答えたのだ。

知能の探求、それが人間の知能であろうと、人工的な知能であろうと、それは最終的に知識の研究である認識論へと行き着く。初めてAI製作の構想がなされていたその昔、どのように実現するかという議論に認識論が挙がった。この分野で多くの人が疑問に思うことは「人間は自身の意識する知能でさえ理解していないのに、別の意識のある知能を作れるのだろうか?」ということだろう。

慎重に考えるべき問題だ。人間の脳は重量でいうと3ポンド(約1.3kg)程度しかないが、人体の中で最も理解が進んでいない臓器だ。脳では何十億のニューロンが、何百京のつながりを形成している。脳という臓器を完全に理解するのに、まだまだ多くの時間がかかることは間違いないだろう。

科学者は一般的な理解として、人間の意識とは脳内の多くの化学物質が協奏し、プリズムに投影することで認知的な気づきが生まれ、その存在が自分自身だけなく自身の周りの世界にも気づくことができることだとしている。

「人間は自身の意識する知能でさえ理解していないのに、別の意識のある知能を作れるのだろうか?」

意識の重要な鍵は気づきがあると主張する者もいる。フランスの哲学者で数学者のルネ・デカルトは意識への理解の最初のステップとして「我思う、ゆえに我あり」と説いた。しかし、意識を定義するのに、思考だけでは十分ではない。自身の思考を正当化している状態こそが意識の正確な定義に近いだろう。つまり「我に意識があると確信する、ゆえに我あり」というのが近い。

しかし、意識を説明する大枠の理論を探求する私にとって気付きの理論もしっくりくるものではない。私たちはロボットに気づきがあることを教えこむことはできるだろうが、それが「水槽の脳」でないと証明する術を教えることはできない。人間ですらそれはできないのだ。

アレン脳科学研究所のチーフ神経科学者であるChristof Kochは、よりユニークで包括的な意識の仮説を提示している。Kochは、それが動物だろうと、みみずだろうと、そして可能性としてはインターネットでも、複雑な処理システムには意識が発生しうると考えている。

インタビューで意識とは何かと尋ねられた時、Kochは「ウィスコンシン大学のGiulio Tononiが提案している意識の情報統合理論と呼ばれる仮説があります。これは脳や他の複雑なシステムがどの程度統合されているかを数値で示すものです。つまり、そのシステムがどの程度そのシステムを構成するパーツ以上のものであるかを示します。その数値はギリシャ文字のΦで表します。Φは、 仮説上の意識の情報指数です。どんなシステムでも情報統合の数値がゼロでないのなら、それは意識があると言えます。どんな統合でも何かを感じているのです」と話した。

もしKochやTononiが正しいのなら、ある意識が別のある意識と同じようなものであると考えるのは誤りということになる。りんごやオレンジのようにまるで違うものだ。地表に降る雪片がどれも違うように、それぞれの意識を人の意識のように捉えて偏見を持つことに気をつけなければならないだろう。

人間の脳は人体の中で最も理解が進んでいない臓器だ。

このように考えると、人類が機械で製作する最初の独立した超知能は、私たちと全く異なる思考を持ち、行動を取ることが考えられる。あまりに違い過ぎて、人類が超知能を理解したり、超知能が人類を理解することはできないかもしれない。だが、私たちが今後製作するどのAIも、人類の手の届かないデジタル世界の領域を身近なものにするのかもしれない。 映画Her はこのエゴに満ちたコンセプトを見事に視覚化している。もちろん、AIは自分が生きていることを知り、好奇の目で見る人間に囲まれていることに気が付けば、自分自身を停止させしまうこともあるだろう。

何が起きるにしろ、人類学の文化相対主義のコンセプトと同じように、意識も相対主義的に扱う準備を整える必要がある。この理論は、数学、理論、コードといった互いにコミュニケーションが取れる明確な手段が利用できたとしても、それぞれの意識は全く異なるものであると考えるということだ。

人間の考えと意識は実際には狭いものだと考えた時、さらにそれは重要な意味を持つ。人間の知覚のほとんどは、5つの感覚器官から構成されるものであり、それを介して脳が世界を理解している。そして、世界を認識する能力という意味での各感覚器官の精度はそれほど良くないと言える。例えば、私たちの目は世界に降り注ぐ光スペクトラムのわずか 1%程度しか認識することができない。

この理由で、ある意識が別の意識と似通うと考えることに私はあまり賛同できない。どちらかというとKochとTononiが主張するように、意識というものはスペクトラム上に様々な形で存在するのではないかと考えている。

同じ理由でAIが基本的に私たち人類に似通うと信じることに私は気が進まないのだ。AIは私たちの行動を学習し模倣すると推測できる。それも完璧に行うことができるかもしれないが、それでもそれは全く異なる意識だ。模倣は操り人形とそう変わらない。多くの人はそれ以上のことを自分自身と自分自身の意識に望むだろう。もちろんAIのエンジニアも、彼らが意識を与えて目覚めさせようとしている機械とその意識にもそれ以上のことを望んでいる。

しかし私たちは、人類と同様の価値観や考えを持ち、人類と同じ特徴を持つAIを構築しようともしている。全ての人間が共通して持つ意識の特性で、AIにも教えこむべきだと思うものを挙げるとしたら、それは「共感」だ。世界が必要として求めるAIの意識は「共感」の要素を持つだろう。人類はそれを理解し、許容することができる。

しかし一方で、製作した意識が「共感」できるということは、それは好き嫌いも認識できるという意味だ。さらには何かを愛したり、憎んだりすることにもなるだろう。

意識が価値観に基いて判断をするのなら、好き嫌い(あるいは友愛と憎悪)の感覚もシステムの中に組み込むことが必要だ。

それは議論を必要とする。意識が価値観に基いて判断をするのなら、好き嫌い(あるいは友愛と憎悪)の感覚もシステムの中に組み込むことが必要だ。AIが友愛の感情を持つことに特に異論を持つ者はいないだろう。しかし、超知能が憎悪するとなればどうだろうか?あるいは悲しんだり、罪悪感を感じたりしたらどうだろうか?それは議論を呼ぶ内容だ。機械が自立して武器を持てるような時代なら尚更だろう。だが共感を組み込んでいない機械は追従するだけの存在、つまり操り人形を作るということだ。

ニューヨーク工科大学のKevin LaGrandeur博士は少し前に「もし実際に多様なレベルの罪悪感を感じることのできる機械が作れたとしたのなら、私たちは苦しんだり、さらには自殺したりする機械と対峙することになる」と記した。真に強力な人工知能を開発した際には、私たちは苦しむ存在を創造したことに対する倫理的な問題に直面しなければならないかもしれない。

これは難しい問題であることに違いない。私が超知能をこの世界に誕生させようとしているプログラマーを羨ましくは思わないのは、彼らが製作するものは、彼らを含め、常に何かに憎悪を抱いているかもしれないからだ。彼らのプログラミングは、現代の人間と同じような問題を抱える機械仕掛けの知能を世界に送り出すだけなのかもしれない。人類が不安を抱えて意固地になったり、うつや孤独や怒りで苦しんだりするのと同じ様に人工知能も苦しむのかもしれない。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

現在、最強のエンタープライズIT企業はAmazon AWSだ

2015-10-13-reinvent15-logo-aws

先日、Amazon AWSは4年目となるデベロッパー向けカンファレンス、re:Inventを終了した。これを見ると、Amazonがもはやデベロッパー向けプラットフォームではなく、スモールビジネスからFortune 500にリストアップされるような大企業まで、あらゆる企業のニーズに応えるフル機能のエンタープライズ・クラウド企業となったことが分かる。

今やAWSはパブリック・クラウド市場を制覇したことが明らかだが、これはパーソナル・コンピュータの登場以来、エンタープライズ・コンピューティングにおける最大のディスラプトだと思われる。

いくつか具体例を挙げよう。

  • AWSはどの顧客企業よりもはるかに巨大だ。したがって顧客企業はAWSの料金とストレージ容量に太刀打ちできない。規模のメリットを活かすことによってAWSは最新、最良のテクノロジーをいち早く導入することが可能となり、もっとも優れたインフラとハードによるシステムを構築できる。いかなる大企業といえども最後にはAWSの規模の経済に太刀打ちすることは不可能となるだろう。この点、Zyngaのエンジニアの証言を聞くのはためになる。彼らは数年前にAWSを飛び出して独自のクラウド・インフラの構築を図った。しかし、結局彼らはその試みが無駄だったことを認め、AWSに戻ってしまった。Amazonほどのスケールになれば、その巨大さがますます多くの顧客を惹きつけることになる。
  • AWSエンタープライズ事業の拡大はこれがすでにメインストリームとなったことをうかがわせる。たとえば、Capital One、Hertz、AOL、John
    Deere、 FINRA等々の大企業がAWSのクラウド・サービスの新規顧客として注目されている。Capital Oneのキーノート・プレゼンがかっこうの例だ。Capital
    Oneのカスタマーは今やAWSで作動するアプリを利用することになっており、Capital Oneはこれがなぜ最良の解決法で他社もいずれこれにならう他ないかをデータで説明している。それだけでも十分興味深いが、 Capital Oneはフィナンシャル・サービスを提供する会社であり、最新のクラウド・テクノロジーにまっ先に飛びつくような企業ではない事を考えると、クラウドの浸透ぶりがうかがえる。
  • すでに事業として成功を収めているにもかかわらず、AWSは驚くべきスピードでイノベーションを進めている。今年に入ってすでに500以上の新機能を追加しているし、re:Inventカンファレンスだけでもさらに大きな機能追加の告知があった。Amazonはクラウド・サービスの本質を深く理解しており、顧客のニーズ、サービスの利用形態も他のどのプレイヤーより深く知っている。他社がやっと事業を軌道に乗せ、収益を上げられそうになったとき、AWSはすでにその先を行っているわけだ。
  • Lambdaは非常に重要なプロダクトだ。というのも、これはAmazonの精神、いわばマインドセットを知る手がかりになるからだ。このイベント・ベースのコンピューティング・サービスは去年秋、メジャー・アップデートを受けた。Python、VPCがサポートされ、関数の生存期間が延長されるなどした。サーバーなしで複雑なアプリを作動させようというこのアプローチは斬新で興味あるものだが、重要なのはAmazonが各種AWSサービスとEC2のカニバライゼーション(共食い)を避けるつもりがないことが分かる点だ。歴史的にみて、AWSのコストには圧倒的な競争力がある。Amazonはこの点、いわゆる「イノベーターのジレンマ」を避けようとせず、AWSの利点を最大限に利用するつもりのようだ。これは競合他社にとって脅威となるだろう。.
  • 最後に、AWSはもはや IaaSサービスにとどまらないことを注意しておきたい。AWSはスタックを拡充し、顧客との関係を密接化し、クラウド・サービスをますますユーザー・フレンドリーなもにしている。たとえば、 Amazonは今週、ビジネス・インテリジェンス・プロダクトとしてQuickSightを発表した。これはエンド・ユーザー向けで必ずしもデベロッパー向け製品ではない。驚くべき進展ではないかもしれないが、AWSサービスの上にさまざまなシステムを構築して収益を上げている他社に恐怖を与えるには十分だっただろう。Amazonがビジネス・インテリジェンスなどの分他で洗練されたサービスを提供できるまでにはかなりの時間がかかるだろう。当初は機能不足で荒削りなものにとどまる可能性が高い。それでも他社はAWSがいつまでも infrastructure-as-a-serviceの段階で満足はしていないことを知るだろう。

AWS事業は通年換算で100億ドルの事業に成長した。対前年比で81%の成長だ。これはエンタープライズ・コンピューティングの分野として驚くべき高成長だ。Bairdによれば、AWSの今年の売上はデータセンター事業全体の 5%、全エンタープライズ市場の 1%以下にしかならないという。逆にみれば、AWSにはまだ大きな成長の余地が残されていることんなる。AWSのスケール・メリットとこれまでの実績は次の10年で飛躍するための理想的な土台となるだろう。

AWSのカンファレンスが終了した頃、DellがEMCを買収するという情報が流れた。 EMCの最大の資産はもちろんVMwareだ。EMCは言うまでもなくオンプレミスのエンタープライズ・ストレージの頑強な支持者であり、そのVMwareはサーバーのバーチャル化のチャンピオンだ。両者はオンプレミスのエンタープライズ・データセンターの基盤としてこの10年以上。大きな成功を収めてきた。しかし今はおそらく、彼らの最良に時期はAWSによって過去のもにされかかっているのではないかという不安に捕らわれている頃だろう。

これに引き換え、AWSは上り坂であり、大規模な企業コンピューティングのあらゆる局面をリードする立場にある。もちろんMicrosoft、IBMなどはエンタープライズ市場の攻略に向けて巨大な資産を蓄えている。そうであっても現在この分野を主導するのはAmazonであり、世界でもっとも重要なIT企業であるという点は揺るがないだろうというのが私の考えだ。.

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleの考える採用、マネジメント、組織文化の維持について

14089974005_ee9ba23dd4_k

編集部記Randy Komisarは、Crunch Networkのコントリビューターである。
Randy Komisarは、ベンチャーキャピタル企業のKleiner Perkins Caufield & Byersでジェネラルパートナーを務め、起業家とパートナーを組み、最先端のテクノロジーでビジネスを創出することに注力している。また、彼は「The Monk and the Riddle」の著者であり、Venturedのポッドキャストのシリーズの司会を務めている。

Laszlo BockがGoogleのPeople Operations(人事部門)のSVPを務めた9年の間にGoogleは採用の取り組みで100以上の賞を受賞した。

Bockは、McKinseyとGEに務めた後、Googleにやってきた。最近、彼は自身のマネジメントと組織文化についての考えを「Work Rules!: Insights from Inside Google That Will Transform How You Live and Lead(邦題:ワーク・ルールズ!)」にまとめ、New York Timesのベストセラーになった。

彼は、人事にまつわる秘訣をKPCBが最近開催したCEOワークショップで私のパートナーであるBeth Seidenbergと話した。ここでその要点をお伝えしたい。

採用はマネージャー個人ではなく、採用組織が決定するのが最適 (1:26)

多くの人は自身の面接官としてのスキルを過信している。その結果、面接は面接官のバイアスを確認するただけのものになりがちだ。つまり、意図していなくても、面接官は面接の最初に直感的に下した判断を裏付けるデータを探しているに過ぎないのだ。Googleの採用組織の唯一の仕事は、採用の精度を高めることだ。彼らの決定は絶対だ。

面接で「ひねった」質問は避ける (4:11)

Googleのデータは、ひねった問題解決を問う質問では、その人のパフォーマンスは分からないと示している。順序だった面接の質問の方がパフォーマンスの指標として適している。候補者の問題解決の能力を知りたい場合は、例えば「これまで解決した難しい質問を教えてください」と質問し、その詳細を聞き出すのが良い。そのような質問の方が、その人のパフォーマンスが推測しやすい。

マネージャーになる前の仕事環境を忘れないこと (5:30)

マネージャーになると、一般社員としてマネージャーに管理されていた頃の嫌な経験を忘れがちだ。マネージャーは、従業員が与えられた仕事をきちんとこなすことを確認したいがために、関連のないことにまで気を取られてしまうことがある。最適な採用が行えているのなら、社員は特別で、賢く、能力がありモチベーションの高い人なので管理は少なくて済むはずだ。

もっと向上したいと考えるマネージャーは小さいことに目を向けるべき (9:13)

人は、最も小さい問題に集中している時、あるいは大きな問題のほんの一部に当たる一つの小さなスキルを実践している時、最も学習することができる。これには2つの利点がある。1つはスキルをすぐに反復して行えること、そして2つ目はすぐにフィードバックが得られ、軌道修正ができることだ。この2つが上手く機能している時、人は最も効率的に学ぶことができる。

小さなことに努力を惜しまない (13:26)

マネージャーは、些細なことが、組織文化に影響を与えることを常に意識しなければんらない。例えば、扉を乱暴に閉めたり、ランチが終わった後、会議室にゴミを置きっぱなしにしたりというような些細なことだ。このようなシグナルは、会社の従業員全員に浸透する。あるテクノロジー企業は、ジムのタオルは無料で貸し出していた。ある日会社はコスト削減のために、ちょっとした額をタオルのために徴収するようになった。月に2ドルとかだ。しかし、そのような小さな判断が、組織文化の転換点となった。従業員は「私が入社したのはこんな会社ではない」と思うきっかけとなったのだ。

給与は不平等に (16:34)

才能は、平均的にあるものではない。給与にも同じことがいえる。一般的な給与制度は誤った公平さに則っていて、最も高い給与の人と最も低い給与の人の差はさほどない。Googleは対照的な考えを持っている。給与制度は、才能の差を反映するようにしている。ある従業員が1万ドルの株式の受け取ったのに対し、別の従業員は100万ドルを受け取ったというようなことも珍しくない。

会社にとってカウンターオファーは有害 (22:00)
Googleはカウンターオファーを提示することはない。それは、間違った従業員にインセンティブを提供することになるからだ。丁寧に設計した給与パッケージは、最良の人材を会社に留めるものだ。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

次の革命をもたらすのはブロックチェーンかもしれない

blockchain-2048

編集部記Florian Graillotは、Crunch Networkのコントリビューターである。Florian GraillotはAXA Strategic VenturesのVC投資家である。

決済取引を行うには、まず送金者が送付しようとしている資金を所有しているかを確認する必要があり、次に取引が重複して行われないように保証しなければならない。

ブロックチェーンでは、ネットワークを介して行われる取引の全ての情報をブロックに保存している。そのため、取引される資産と所有権の両方を確認することができる。

取引を重複して行わないために、このテクノロジーは取引のプロセスの合意を得るために複数のノードをリクエストしている。この確認を人為的に達成するのは困難だ。マイナーはコンピューターでの演算処理を利用し、複雑な暗号課題(Proof of Work)を解いている。課題を解読する度に、ブロックがチェーンに追加され、それによりブロックに含まれる取引が承認される。新しくブロックを追加してアップデートされたチェーンは、他のノードと共有される新しい参照元となる。このプロセスは暗号技術を利用し、取引の重複を防ぐ。

新しく発行したブロックは前のブロックと接続しているため、以前の取引に戻ることはほぼ不可能となる。このテクノロジーは取引を認証する過程の中で発生する全ての問題を解決するため、取引を行うのにサードパーティーに依存する必要がなくなる。ネットワークで既存の中央機関を置き換えることができるのだ。

現在、ブロックチェーンを介した資産の取引はほぼリアルタイムで行われる。台帳に新しいブロックを追加するには、およそ10分かかる。時間の経過とコンピューター処理が増大するほど、解かなければならない数学課題の複雑性も増す。一つの取引を処理するごとにマイナーは0.0001ビットコイン(BTC)を得ていて、取引手数料はこれまでとは比較にならないほど低くなっている。これは市場を塗り替えるだろう。

ビットコインの先へ。他のユースケースの探求

ご存知のようにブロックチェーンを活用した最初の用途はビットコインで、それが最も有名なものだ。ビットコインのファウンダーは決済取引を行うため、そして仮想通貨が抱えていた多くの問題を解決するためにこの技術を開発した。中央銀行が貨幣を発行し、銀行が資産の取引を承認するのではなく、ビットコインはブロックチェーンを活用する。例えばAbraは、このテクノロジーを活用し国際間送金を簡単にする。彼らはビットコインで海外送金市場を刷新しようとしているのだ。

このテクノロジーが広く普及して成功を得るためには、テクノロジーの安定性が重要な課題となる。

決済に関連する分野を超え、ブロックチェーンを活用する他の方法を模索している企業もある。スタートアップ各社はその技術で他の業界も刷新しようと取り組んでいる。取引にサードパーティーが関連する場合、それをブロックチェーンに置き換えることができるからだ。

Overstockは、ブロックチェーンに基づいたプライベートエクイティの取引プラットフォーム「tØ」を開発した。同じ分野で数ヶ月前、NASDAQがChainとパートナーシップを締結したことを発表している。彼らは、ブロックチェーンで株式取引のあり方を刷新しようと取り組んでいる。

さらに統括的な部分で、Goldman SachsやBarclaysといった金融機関はスタートアップであるR3と組み、ブロックチェーンを使用した新しい市場のフレームワークを構築しようとしている。

いくつかのスタートアップはさらに先に進み、ブロックチェーンを物理的な資産の取引に活用しようと取り組んでいる。例えばBitproofやBlocknotaryは、ブロックチェーンに契約内容を記録することで不動産契約のあり方を刷新しようとしている。公証人の前で家の売却を行うのではなく、契約内容を公的な帳簿に保存するだけで済むようになる。

Coluは、ブロックチェーンを活用して資産をデジタルトークンで管理しようとしている。このトークンはオンラインのサービスや物理的な資産を利用する時に使用するものだ。

ブロックチェーンを知的財産にも適応することもできる。例えば、Verisartはこの分権テクノロジーをアート作品の認証に使用している。彼らは、アート作品の著作権を暗号化し、ブロックチェーンに記録する。ProofOfExistenceも同様に、作成したファイルを公的な台帳に記録し、トラックして管理している。

さらに、ブロックチェーンは個人を認証するのにも使用できる。ShoCardは本人確認に関連する個人情報を暗号化して保存する。インターネット上のスマートな契約に利用することが可能となる。契約条件が合意に達した際には、契約は権限が分散したインフラで処理することができる。IBMは現在、このアプリケーションの開発に取り組んでいる。また、Samsung ADEPTともパートナーシップを締結したことを発表し、ブロックチェーンをモノのインターネットの分野にも適応する可能性を示している。

リスクと脅威

しかしそれらを実現するには、ブロックチェーンのテクノロジーで修正しなければならない箇所がある。まず、ネットワークの容量だ。先に説明したように、ブロックは10分毎に台帳に追加される。ブロックのサイズの限度(1MB)により、ネットワークは毎秒7件(tps)の取引しか処理することがてきない。これは、VISAが処理できる56,000tpsに到底及ばない。

数週間前、ブロックサイズに関連する議論が起き、ブロックチェーンのフォークが誕生した。何名かのマイナーがブロックサイズを8MBに拡大したのだ。ブロックのサイズは2年ごとに倍になる予定だ。この議論を解決するために、Bitcoin XTがネットワークの容量の75%に達した場合、ネットワークは新しいブロックサイズへと移行する。さらに包括的な議論では、大量の取引を少ない取引手数料で行うようなブロックチェーンか、あるいは少ない取引数を高い手数料の割合で行うべきかという議論もある。

「1975年のパーソナル・コンピューター、1993年のインターネット、そして2014年のビットコイン」

— Marc Andreessen

セキュリティーも脅威だ。いくつかのビットコインの取引プラットフォームがハックされ、閉鎖したことに伴い、大量のビットコインが消滅した。これは、今後ブロックチェーンで取引される資産にも起きる可能性がある。

これは、分権したネットワークに管理の必要性という課題を突きつける。このテクノロジーが広く普及して成功を得るためには、テクノロジーの安定性が重要な課題となる。

ビットコインが普及し、ずっとあるのなら、それを支えるブロックチェーンという技術は、それの最も興味深く、革新をもたらす部分であると言える。歴史上初めて、このテクノロジーは中央機関を代替することができるかもしれない。分権したネットワークがサードパーティに取って代わることができるのなら、取引を簡単に、かつコストも抑えることができ、今後、多岐にわたる分野で応用することができるだろう。スタートアップはこのテクノロジーを加速させている。また、著名なVCであるMarc Andreessenでさえ、ブロックチェーンを以前のテクノロジー革命と重ねあわせている。「1975年のパーソナル・コンピューター、1993年のインターネット、そして2014年のビットコイン」。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

失敗への恐怖がスタートアップの失敗を招く

shutterstock_110894420


編集部記Ben Narasinは、Crunch Networkのコントリビューターである。Ben Narasinは25年間起業家として活躍し、その後8年間を投資家として活動し、現在はCanvas Venturesのジェネラルー・パートナーを務めるベンチャーキャピタリストだ。

私はウェブが台頭し始めた時代に、最初のEコマースサイトとなる一つのサイトをローンチした。半年間を市場調査とサイトの作り込み作業に費やし、完璧に仕上げようと努力した。しかし、準備に費やした半年間より、ローンチしてからの最初の6時間の方が、人々の行動や反応を得ることができて学ぶことが多かった。そして、半年という時間を無駄に費やしてしまったことを悔やんだのだ。現在、私は投資家として活動する中で、同じような行動を取る人を見かける。そしてその行動を引き起こしている要因の一つをようやく理解することができた。

時折、これまで失敗したことのないファウンダーを見つけて投資することがある。その人が若く、初めてファウンダーとなるのなら、たいていその人はこれまで知力で負けたことが無いような人だ。つまり、クラスで一番の成績だったり、数学大会の地区代表であったり、所属していた団体や地域で何かしら知力に関連した分野で突出していたということだ。しかし、そのようなファウンダーが最も失敗しやすいということが分かってきた。

彼らが失敗しやすいのは、失敗を恐れているからだ。彼らは勝利することに慣れ過ぎている。構造化し、法則に従うような達成可能な目標(数学、コード、チェスなど)という、知力と努力だけで攻略できるものに慣れ過ぎているため、起業という全く異なる混沌とした現実に対してはあまりにも無防備なのだ。
起業家にとって失敗すること(それも素早く頻繁に)は起業の旅路においてとても重要な要素だ。大きな成功を得るための旅路には小さな失敗が付き物だ。それが、起業家が考えた仮説がそうでないと学ぶ方法だからだ。

学ぶためにはローンチしなければならず、早くローンチするほど早く改善できる。私の友人のReid Hoffmanはこれについて「MVPの称号が恥ずかしくないのなら、停滞している時間が長過ぎるのだ」と表現した。

大きな成功を得るための旅路には小さな失敗が付き物だ。

起業というのは、解のある方程式ではない。サイトやアプリは暗く湿った部屋にコーダーが突き詰めて仕事をして完璧に仕上がるものではない。確かに、デジタルの領域で成功を得るには、世界でトップレベルのコードやサービスを分かりやすく伝える比喩表現も必要なものではあるが、製品に磨きをかけて学ぶには、製作した美しく輝く製品を世界中の何百万、何千万という一般の人に公開し、彼らがどのように製品を使うかを知るというプロセスが必要不可欠なのだ。

起業とは、スプリントのような集中的な開発と失敗の混乱の多い循環を繰り返し、障害や中断を乗り越え、成功に続いているかどうか分からない永遠に続くように思われるマラソンの道中を、全力を振り絞って消耗するような耐久レースだ。そして、ローンチして学び続けなければならない。大事な製品を世界と共有し、世界がどう思うかを知らなければならない。

賢いファウンダー、時に賢すぎるファウンダーは、この旅路を方程式に変えることができる信じこみ、その方程式を彼らの知力とコードで「解く」ことができると考える。彼らは製品を外に出した時に十分に輝かないことを恐れ、自社のチームと選抜した友人にだけ大事な製品を見せ、内部で改善を繰り返し行う。

しかし、この行動は彼らがこれまで経験したことがない「失敗」のリスクを高める。彼らは挑戦しないから失敗するのではなく、取り組み過ぎて失敗するのだ。「十分に良い製品」を犠牲にした「さらに良い製品」を追求する冒険は、道中で時間と資金を消耗する。彼らは、成功するのに十分な機会と時間を製品に与えることができず、製品が失敗することを恐れるがあまりに失敗するのだ。

大成功を収めたいのなら、リスクを受け止め、失敗という小さな現実を受け入れることだ。ファウンダーにはローンチから学んでほしいと思う。ローンチして学ぶ、その繰り返しだ。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

インターネットが消滅する時

greenfiber

編集部記Tom Goodwinは、Crunch Networkのコントリビューターである。Tom Goodwinは、Havas Mediaの戦略とイノベーション部門のシニアバイス・プレジデントである。

ウェブが存在しない未来のインターネットの世界が到来しようとしている。

テクノロジーは私たちが意図を持って使うものから意識を向けなければ思い出さないものになった時に初めて、それは社会に完全に統合したと言えるだろう。全てのイノベーションは同じ経過を辿るのであり、インターネットの体験もそうなりつつある。

検索を必要としたディープシステムは、ゆっくりと進化を続け、ユーザー個人にパーソナライズした多様な情報を一目で確認できるよう、一枚の画面に落とし込むことができるようになった。

インターネットはサーフしたり、検索したりするものではなく、眺めるだけのものになる。これが次世代のウェブの体験だ。エンジンとなるAPIとディープリンクが全ての情報を集約するようになる。

現在までにウェブが辿った3つの時代

広義の意味で、ウェブには3つの異なる行動で規定される3つの時代があったと言えるだろう。

最初のコンシューマー向けインターネットは、ポータルの時代だった。インターネットはウェブ版の雑誌だった。それまで紙に印刷していた情報を画面に起こして文書として保存し、キャビネットに保管するようにディレクトリに整理した。

編集者やジャーナリストが支配し、配信の方法以外、情報のあり方はそれまでの古い世界と変わらなかった。コンテンツはディレクトリが束ねるもので、ポータルはインターネットの玄関となった。デジタルはデジタルより前の世界の構造を模倣していた。

次の時代は検索の時代だ。検索ボックスがインターネットの新たな窓口となった。ここで初めて、ユーザーがコントロールを持ち、Microsoftはユーザーに「今日はどこに行きたいだろうか?(Microsoftのキャッチコピー)」と尋ねるようになり、Googleのページランクが私たちの道標となった。

情報は個人に即したものではなく、私たちは情報を探しにいかなければならなかったが、誰もがインターネットに貢献でき、利用できる情報の深さと広さは爆発的に広がった。この時代は、ディープウェブの時代だ。コンテンツは雑多な構造の中に埋もれていて、複雑な検索アルゴリズムをもって深みから引っぱり出さなければならない。この時代のインターネットはサーフするものだった。私たちは情報という海を泳ぎ、次の波に乗るために右へ左へと彷徨うのだ。

現在、私たちは第3の時代にいる。そこには、Web 2.0が約束したコンテンツのスクラップを多様な深いソースから探しだす方法(ホームページの検索も含め)と、Facebook、Twitter、Googleなどのソーシャルとアルゴリズムを駆使して情報をキュレートする2つの方法が同居している。そして、モバイル端末にはアプリが登場した。これは、パーソナライズした情報を引っ張り、クローズドのエコシステムの情報を提示するマイクロポータルと言えるだろう。

4419056823_fceb1f59f3_b

第4の時代は「Thinternet(薄いインターネット)」の時代

テクノロジーは私たちの行動を変えている。モバイル端末は、ウェブにアクセスするための主要な画面となり、アプリは私たちが最も多くインターネットを利用する方法になった。

次のウェブの時代は、この環境に根ざしている。その時代には、ユビキトスの接続が可能になり、世界の全てがデジカル化し、情報の集約も提示も全て並行して行われ、互いに情報をやりとりし、全く新しいウェブの体験を構築するだろう。

世界が接続することでウェブの概念が消滅する

30才の人にオンラインで過ごしている時間を尋ねれば、きっと多くの時間を過ごしていると答えるだろう。18才の人に同じことを聞いても同じように多くの時間を答えるだろう。しかし12才の人に尋ねたら、答えられないかもしれない。何故なら、彼らはオンラインという概念を持っていないのだ。

国際線の飛行機のWifiから、5GやWi-Max、そしてアフリカ大陸もスマートフォンからオンライン接続ができ、更には小さく、安価で、多くのインターネットに接続可能なセンサーが出てきている。世界の全てのモノは、他の全てのモノとつながろうとしている。それは、高速で、常に起動していて、安価で、どこにでもあるようになる。インターネットは私たちの生活の背景に溶け込み、全てをつなげる基盤となるだろう。

デジタル画面に全てが集約する

何年もの間、メディアはそれぞれ個別に配信を行ってきた。物理的な外観を持ち、縦割りの業界と寄り添い、それぞれのメディアチャネルが割り当てられていた。テレビはテレビで見るものであり、テレビ局はテレビ広告から収入を得てきた。多種多様なニュースは新聞で読み、ラジオ広告を流すラジオは、ラジオ受信機から聞くものだった。

そして全てがインターネットに集まってきている。チャネルは意味を失うだろう。テレビは動画という意味に代わる。全てのスクリーンはデジタルになり、その数は急増し、更にスマートになる。 車載スクリーン、ウェアラブル、タブレット、ファブレット、写真立て。どれもがインターネットにつながり、インタラクティブなコンテンツをインターネットから集約して表示することができる。「テレビ」というような名詞の意味は限定的なもので、その内スマートフォンが電話だけを指していないように、適切な言葉ではなくなるだろう。

集約に意味がある

このような画面が急増し、業界別の縦割り主義(インターネットより前の時代のコンテンツの特徴だった)は、過去のものになる。「薄いインターネット」は横軸で物事をつなぎ合わせるのだ。コンテンツのクリエイターは、集めた素材を画面からしか見なくなる。Apple NewsからFacebook Instant、Google Nowでは、コンテンツがユーザーに引き寄せられる。Apple TVのSiriのように、ディープリンク検索を持ってすればテレビのチャンネルは、ひも解かれたバラバラの素材となり、必要なものを選び取れるようになる。「薄い」カスタマーインターフェースを所有することが価値になる時代が到来する。コンテンツ自体がパイプラインに取って代わるだろう。

サービスとしてのインターネット

ガラスのデジタル画面は、ユーザーにパーソナライズした情報を掘り起こして提示するディスプレイとなる。デバイスのブラウザは、補完的なものになるか、あるいは消滅するだろう。アプリがインターネットの主要なナビとなるかもしれない。情報は更に「薄く」提示されるようになり、通知画面はユーザーがインターネットとシンプルに関わるための重要な接点となる。アプリのウェブからパーソナライズしたインターネットがより深いユーザーとのインタラクションを提供するようになるだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

テクノロジーが心身の健康のためにメンタルヘルスと身体面の医療を結びつける

shrink

編集部記Arun Guptaは、Crunch Networkのコントリビューターである。Arun GuptaはQuartet HealthのファウンダーでCEOである。Quartet Healthは、行動習慣上の健康管理テクノロジー企業で、医療提供者と行動習慣における医療従事者のシームレスなコラボレーションを可能にする。

電子医療記録(EMR)は普及してきているが、まだ必要なことがある。EMRは医療の改善やデータのやりとりを前提に設計されているが、各記録をつなげるレイヤーがまだ欠如している。医療提供者は相変わらず電話やFAXでコミュニケーションを取っている。患者も個人の医療履歴を病院の予約の度に持ち歩いたり、記憶を頼りに伝えている。

しかし、私はヘルスケアに起きるだろう次世代のイノベーションの見通しは明るいと考えている。EMRの上を横断するアプリができるだろう。EMRは「閉鎖的」であるべきだと多くの人は考えているが、サードパーティーのソリューションと上手く連携することができると証明した者もいる。Athenahealthはその内の一社だ。彼らは外部のアプリとEMRを連携させた先駆者だ。更には、医療提供者のパートナー向けのサードパーティー・ソリューションのマーケットプレイスを構築している。

アプリがiPhoneをタクシーを呼んだり、心拍のモニタリングをしたり、食料品の配達依頼をしたりするツールに変えたようなことがEMRでも起きる。EMRの上に広がるアプリは、医療提供者が自身のワークフローを管理し、情報共有を円滑にすることで、患者に遅滞なく整った医療を提供することが可能となる。インターネットに接続したヘルスケアのテクノロジーで最も重要な部分は、医療関係者同士のコラボレーションが可能になることだ。

医療提供者のコラボレーションは医療のどの分野においても重要なことだ。しかし、行動習慣の健康管理(メンタルヘルス、そしてアルコール依存などの物質使用障害)の分野においてもそれは揺るぎない事実だ。コラボレーションの欠如がもたらすコストは非常に高くなる。その理由は、多くの場合、人の行動習慣の状態と身体の健康状態が密接に関連しているからだ。

 

いくつかの企業は、スマートフォンで行動の変化を検知する方法を開発した。行動の変化からユーザーの精神状態について多くのことが分かる。

最近の研究で、喘息を持つ人がうつ病を発症する確率は2.5倍になることが分かった¹。別の研究では、タイプ1と2の糖尿病患者は、生涯の内に大うつ病を患う確率が2倍高いことを示唆した²。

他にも多くの証拠が、行動習慣の状態と身体の健康状態が相互に関連することを裏付けている。身体的な疾患はメンタルの不調を引き起こすことがあり、メンタルヘルスの悪化は病を発症するリスクを高めるのだ。

慢性的な病の患者で、更に行動習慣上の疾患を持つ者はヘルスケアシステムに大きな影響を与える。医療費にかかる金額は、行動習慣に問題のない同様の慢性病の患者より平均で50から175%以上増加する。これは患者にとってもヘルスケアシステム全体にとっても負担となる。また、現在アメリカにおけるうつ病と認められるケースの半数近くは治療を受けていない。プライマリーケアの場面で病に気づき、指摘された場合でも、診断が混同される場合もある。

一方、私たちの研究分析では、行動習慣分野の医療提供者から治療を受けた患者の場合、総額の医療費は最終的に低くなることが分かった。またMillimanは、身体面の医療と行動習慣のヘルスケアサービスを統合した商業マーケットには年間で合計1620億ドル規模のビジネス機会 があると予測している。重要なことは、業界がテクノロジーの力を借りて、フィードバックのあるコラボレーションを促す時が来たということだ。

メンタルヘルスの治療を求める患者はこれまで高額で手続きが面倒な上、偏見の目で見られるシステムを利用しなければならなかった。しかし、遠隔医療のイノベーションが市場の力学を変えている。1DocWayは、遠隔の精神医療のプラットフォームをブラウザベースで提供し、イノベーションを促進している。

ウェブカメラとインターネット接続さえあれば、患者はプラットフォームにアクセスしてメンタルヘルスの医療提供者とつながることができる。患者が望む形で、彼らが最も安心できる環境から利用できる。また、医療環境が整備されていない場所や郊外のコミュニティーにいる患者にとって、そもそも治療を受ける術がないということが問題で、それが医療を受ける際の障害になっていた場合が多い。

また、医療提供者の視点からも、テクノロジーを採用するコストはその効果に見合うものだと言える。サウスカロライナ州のメンタルヘルス部門でジェネラル・カウンセルを務めるMark Binkleyは、US Newsに多くの緊急救命の患者は、対面で精神科医とのコンサルティングを行うまで、そこに留まることが許可されることについて詳しく説明した。

どの緊急救命医に尋ねても、これは大きな課題であると答える。この問題を解決するためにサウスカロライナ州は、インターネットで精神科医との面会を行うリアルタイムの診察を導入し、成果を上げてきた。これまで2万2000回の診察が行われ、参加病院の医療費の累計削減額は、患者の一つの病の治療につき1400ドルになった。また多くの場合、実際の面会より、遠隔医療の方が患者の満足度が高いことが分かった。

他にも多くの証拠が、行動習慣の状態と身体の健康状態が相互に関連することを裏付けている。

もう一つ、行動習慣のヘルスケアテクノロジーで進化した部分はツールだ。スマートフォンのアプリ、ウェアラブル端末、オンラインの自助コミュニティーなどが挙げられる。患者はこれらを利用することで、自分の行動習慣の状態と慢性的な疾患の健康状態を管理することができるようになった。認知行動療法(CBT)は、これまで面会する形式のセラピーを行ってきたが、myStrengthのような企業は近年、この治療法をコンピューターからでも利用できるようにした。

CBTは、患者に自身のネガティブな思考や行動を認識して再構築する技術を教えるもので、うつ病、不安や不眠症の改善に高い効果を発揮する。病への偏見や地理的な理由で対面での治療を躊躇していた患者は現在オンラインCBTといった治療に向かっている。多くの保険会社もこれらの治療法に対応し始めている。

いくつかの企業は、スマートフォンで行動の変化を検知する方法を開発した。行動の変化からユーザーの精神状態について多くのことが分かる。Ginger.ioは、動き、テキストや電話のやりとりのパターンといった情報をユーザーのモバイル端末のバックグランドで収集 する。その情報から、特定のメンタルヘルス障害につながる危険性のある行動を検出することができる。

例えば、ユーザーが他の人と連絡せずに孤立するパターンを示したり、何日か続けて仕事を休み自宅から離れなかった場合、会社はその人がうつ病のリスクに晒されていることを検出できる。それを元に、治療のために適切な処置ができるように介入することができる。

特定の市場に向けた電子健康記録(EHR)システムの登場により、行動習慣のヘルスケア提供者はテクノロジーの恩恵を受けている。行動習慣の医療機関は、他のプライマリーケアを提供する医療機関とは異なるワークフローで運営しているため、既存のEHRのベンダーはこの分野の医療従事者のニーズを満すほどには成熟していなかった。Qualifactsといった企業は、行動習慣医療に特化したEHRのソリューションを牽引し、メンタルヘルスケアの対応や医療サービス管理の市場に変化をもたらしている。

簡単に言えば、医療が価値を主軸とした方向に転換することで、ヘルスケアのステークホルダーは、医療機関が協力しないがためにかかるコストを受け入れることができなくなったということだ。遠隔医療のソリューション、モバイルアプリ、EHRといった行動習慣向けのテクノロジーがそれぞれをつなぐことになるだろう。

中核となるシステムを設置し、絶えず進化を促していくことで、テクノロジーは医療システムが患者と向き合う方法を再構築する強大な力となるだろう。行動習慣上の健康と慢性疾患の治療のためのマネジメントは今に統合することになる。患者の生き方、そしてそれぞれの組織は、それを必要としている。

参照:
1 Strine TW, Mokdad AH, Balluz LS, Gonzalez O, Crider R, Berry JT, Kroenke K. “Depression and Anxiety in the United States: Findings from the 2006 Behavioral Risk Factor Surveillance System.” Psychiatric Services, vol. 59, no. 12, 2008.
「アメリカにおけるうつ病と不安障害:2006年の行動習慣リスク要因調査システムからの考察」
2 Gonzalez JS. Depression. In: Peters A, Laffel L, eds. Type 1 Diabetes Sourcebook. 2013:169-179.
「タイプ1糖尿病ソースブック」
3 Quartet Health Analysis, 2015.
2015年、Quartet Healthによる分析結果
4 Quartet Health Analysis, 2015.
2015年、Quartet Healthによる分析結果
5 “Economic Impact of Integrated Medical-Behavioral Healthcare.” American Psychiatric Association and Milliman, Inc. April 2014.
「医療と行動習慣ヘルスケアの統合が与える経済的な影響」アメリカ精神医学会とMilliman, Inc、2014年4月

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

自動運転車がUberを脅かす

johnnycab


編集部記Kyle Samaniは、Crunch Networkのコントリビューターだ。Kyle SamaniはPristineのCEOを務めている。

Bill Gurley(Benchmark Capitalのジェネラル・パートナーでUberの役員を務める)が指摘するように、Uberはタクシー配車ビジネスを独占するプレイヤーになるだろう。何故か?Uberのビジネスモデルは、運転手の需要と供給の局地的なマーケットプレイスを取り込む形を成しているからだ。局地的なマーケットプレイスは、強いネットワーク効果を発揮し、「勝者がマーケットのほとんどの獲得」できる状態を作る。

局地的なネットワーク効果は、局地的な運転手と乗客の需要と共有の流動性に特化することで生まれる。Gurleyが投稿に掲載した下記の図に上手くまとまっている。

Screenshot 2015-09-15 11.42.06

訳:(上から)需要が増える→運転手が増える→サービスの対応範囲・浸透が広がる
→(右の分岐)ピックアップまでの時間短縮→需要が増えるへ
→(左の分岐)運転手のダウンタイムの減少→価格の低減→需要が増えるへ

このモデルはUberの急成長をもたらしたが、テクノロジーに先見の明を持つBenedict EvansBen Thompsonらは、次に頭に浮かぶ質問を投げてかけている。「自動運転車はUberにどのような影響を与えるだろうか?」

どのような影響というと、自動運転車はUberを追いやることになるだろう。

上記のサイクルの「More drivers(運転手が増える)」の部分を「自動運転車を増える」に置き換えてみると分かりやすいだろう。運転手はそもそも短時間しか運転することができない。運転手は人だからだ。食事をしたり、息をしたり、寝る必要がある。彼らは運転したい時にだけ運転し、運転したくない時は運転しないのだ。

自動運転車は、一時的なものではない。ほぼ永久に走行できるのだ。一度路上に出れば97%の時間、乗客に対応することができる。(残りの3%は、ガソリンの供給、点検、整備などの時間だ)。

自動運転者はUberが持つ運転手と乗客をつなぐ「マーケットの根源の要素」を壊すだろう。供給は軽く需要を超えることになる。車は24時間、年中無休で利用でき、限界費用も驚くほど低くなる。

自動運転車は、人が運転する車を利用するより格段に低価格になる。現在、運転手は稼いだ収益の80%を得ている(残りの20%はUberに渡る)。その80%の内の30%はガソリン代と車のメンテナンスにかかると仮定する。このコストは自動運転車にもかかる。つまり、人間の運転手が手にしているのは売上の50%という計算だ。20%はUberで30%は乗客に対応するための原価だ。

運転手はそもそも短時間しか運転することができない。

AmazonのJeff Bezosが言うように「あなたの利益が私たちのビジネスチャンスです」ということだ。さらに、A16ZのBenedict Evansが指摘するように、自動運転車は現在、乗客の交通手段として人が用いている車とは設計が異なり、機能も少ないため、低価格になるという。規模の経済により、Uberが乗車辺りに得る収益を変えない場合でも、自動運転車を人の運転する車より60%ほど安価に提供できても不思議ではない。

もう一度Uberの成長サイクルを見てみよう。Gurleyが指摘するように「運転手が増える」を「自動運転車が増える」に、「低価格」を「もっと低価格」にしてみると、「マーケット」が崩壊するのが分かる。強行手段を取る企業は需要がない場合でも運転手に定額の時給を支払うことで、このサイクルと同じことを達成できると言い張るかもしれない。しかし、運転手はそもそも短時間しか走行できないので、理にかなわない。運転手に常に賃金を支払ったところで、いつでも運転手が乗客に対応できるとは限らない。

一方、車を購入する場合なら、今すぐに使用しなくても、将来使わないとは限らない。さらに、都心から3km先に停めた自動運転車の限界費用は最終的に0ドルになる。

Uberの市場の独占を破ることが可能だとしたら、自動運転車に転換することがUber以外の会社にUberを壊す力をもたらすだろう。最初に適切な自動運転車を市場に投入する企業が業界を支配する。Uberや他のタクシー配車会社によって、ユーザーにこの手のサービスが普及した現在、一年早く事業を始めるだけで、市場の力学を劇的に変えることが可能だろう。

最初に適切な自動運転車を市場に投入する企業が業界を支配する。

Googleは、自動運転車によるタクシー配車サービスを提供するのに最も近い企業だ。GoogleはUberに出資しているため、Googleにとって有益なタクシー配車サービスの機密情報を入手することもできる。さらにGoogleは世界でも有数の地図情報のソリューション、最新鋭の自動運転ソリューション、そして彼らがゼロから取り組む自動運転に特化した自動車も保有している。Uberの市場占有が迫った現在、他にこのチャンスをビジネスに変えることのできそうな企業は他に思い当たらない。

また、Benedict Evansは自動運転テクノロジーはコモディティーになるとも指摘している。Googleは自動運転の研究開発に、長年手掛けるAndroidより多くの資金を投じている。Googleが自動運転車をコモディティーとする計画を立てている可能性もある。どこかの時点で、一つの企業が何百億ドルの資産をこのビジネスに投じる意味がなくなるだろう。銀行や公開市場が彼らの資産を評価した時、大変興味深い結果が得られるかもしれない。

P.S.
Googleは「Google Drive」と名付けるプロダクトを間違えたようだ。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

ビッグデータの誤解

smalldata

編集部記:Slater Victoroffは、Crunch Networkのコントリビューターである。 Slater Victoroffは、Indico Data SolutionsのCEOである。

私のカスタマーはいつも嘘をつく。何を購入できるかについては嘘を付かない。どの程度カスタマーサービスが必要かに関しても嘘を付かないし、どのくらいの期間で料金を支払えるかについても嘘をつかない。

彼らは、持っているデータ量に関して嘘を付くのだ。

最初、妙なクライアントが一人いるだけだと思った。そのクライアントは毎月十億単位のコールを処理し、「大量のデータストリーム」があると話した。そのような大量のデータを分析するには、高額な費用がかかると私が説明すると、本当のことを話し始めた。彼らは、次の数ヶ月で日に100万コールになるようにしたいと言った。そのような前向きの目標を達成できたとしても、最初に主張したデータ量の100分の1にも満たない。

このような主張をするのは、このクライアントだけではなかった。企業が実際に取り扱うデータ量は、彼らが主張するデータ量の100分の1程度であるという法則を私は見出した。

「ビッグデータ」は「ビッグ」ではない

企業は保有するデータセットの量を誇張する。釣り人が釣った魚の大きさを誇張するのと同じようなことだ。彼らは、止めどないテラバイト単位の情報があると主張する。そう主張する理由は明白だ。情報量が多ければ多いほど良いことだと考えているのだ。

マーケティング資料を見て、データ量が会社に千里眼を与えると思うのだ。従業員のパフォーマンスから自社のカスタマーベースの好みまで、ありとあらゆることに関する深い洞察が得られるという。データが多いほど、人がどのように意思決定をし、何を購入し、何に気持ちが動くかが分かるようになる。そうだろう?

しかし、マーケティング資料とは釣り人のように誇張しているのだ。多くの企業は主張するほどデータを保持していない。そして典型的に、彼らが所有するデータのほんの一部からしか深い洞察は得られないものだ。

「ビッグデータ」の大半は大して便利ではない

何故企業はデータ量を偽るのか?自社を大企業のように見せたいからだ。AmazonFacebookGoogleのような企業が大量のデータを収集して所有しているという話を聞いているのだろう。企業はそのような大量のデータを集めるリーチがないにも関わらず、更にはデータを購入する資金がある訳でもないが、そのトレンドに乗りたいと考えているし、他社にもそう思われたい。データアナリストのCathy O’Neilが最近投稿したブログ記事にはこう記されている。多くの人は「普通のテクノロジー企業にデータを振りかければ、次のGoogleになると考えている」と。

しかし大企業でも、大量に集めたデータのほんの一部しか利用していない

ビッグデータは「ビッグ」でもなく、良いデータは更に少ない。

Twitterは、 一日8テラバイトの情報を処理している。その数値は、ツイートから何か洞察を得ようとしている小さな企業を圧倒するだろう。しかし、ツイートの実際のコンテンツはどのくらいのデータ量だろうか?Twitterのユーザーは 毎日5億のツイートをしていて、ツイートの平均文字数は60文字だという。簡単な計算をすると、実際のテキストコンテンツはたった30ギガバイト分だ。8テラバイトの1%の更に半分にも満たない。

このパターンは他でも見られる。Wikipediaはインターネット上で最も多くのテキストデータを保持しているが、全てのテキストデータは一つのUSBに収まる程度だ。世界中にある全ての音楽も600ドル程度で購入できるディスクドライブに収めることができる。似たような例は他にもあるが、重要なことは、ビッグデータは「ビッグ」でもなく、良いデータは更に少ないということだ。

スモールデータを最大限に活かす

もし大量のデータセットが役に立たないのなら、何故それが話題になるのだろうか?何故なら、全ての人の役に立たないということではないからだ。ディープラーニングのモデルを使用することで、ノイズとサインを区別し、専門家が体系化するまで数ヶ月かかるようなパターンを見つけたりすることができる。しかし、一般的なディープラーニングモデルは、ラベルが付いた大量のデータが必要だ。そして、大量のデータセットにラベルを付けるには、何万ドルもの費用と何ヶ月もの期間を要する。その仕事はFacebookやGoogleといった大企業が行うべきだろう。多くの小さな企業はこのことに気づかず、購入しても使い道のない大量のデータ容量を取得するのだ。

このような企業には別の選択肢がある。既に保持しているデータから価値を見出すことができる。

確かに、ほとんどのディープラーニングのアルゴリズムは大量のデータセットを必要とする。しかし、私たちは人が推論するように、少量のデータからでも傾向を導きだすようにそれを設計することができる。転移学習を用いることで、大量のデータセットでアルゴリズムを精錬した後に少量のデータ分析を行うことができる。これで学習プロセスが100倍から1000倍も効果的になる。

ビジネス目的に転送学習を活用しているスタートアップをいくつか取り上げる。

  • DatoGraphLab Createというプラットフォームは、大量の画像を瞬時に認識して分類することができる。ユーザーは既に鍛えたディープラーニングモデルを使用して、既知の特徴を判断するのに応用することができる。あるいはImageNetなどのデータセットを活用して自分たちで新しいモデルを構築することもできる。
  • Clarifaiの画像認識APIは、画像に説明文をタグ付けすることができる。そうすることで写真アーカイブの検索が楽になるのだ。彼らのディープラーニング・アルゴリズムは、ストリーミング動画でも機能し、広告主がユーザーが視聴したばかりのコンテンツに関連する広告を配信することが可能となる。
  • MetaMindのAIプラットフォームは、個人が発信したブランドに対するツイートの内容がポジティブかネガティブなものかを判断する。また、そのツイートを囲むTwitterの話題の主要なテーマを特定することができる。カスタマーの意見から洞察を得たい企業は、何千のアカウントから集めた年齢、性別、位置情報のデータより便利なものとなるだろう。

これらのサービスを利用するのにプログラマーである必要もない。Blockspringでユーザーはコードを一行も書かずとも、ExcelのスプレッドシートだけでAPIを組み合わせることができる。

このような選択肢がある中、テラバイト級の大量のデータを購入する意味が薄れる。また、誇張する必要もまるでない。

データの未来は「ビッグ」ではなく「スモール」なことは明確だ。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

食料フロンティア:アグテックが世界を救う

farms


編集部記:Dror BermanとSamantha Waiは、Crunch Networkのコントリビューターである。Dror Bermanは Innovation Endeavorsのファウンダーでマネージングパートナーである。Samantha Waiは、Innovation EndeavorsのInnovation Labs Teamに務めている。

投資家である私たちの仕事は将来を夢見るビジョナリーを見つけ出し、パートナーとして彼らの夢を現実の物とする手助けをすることだ。

農業に関しては、テクノロジーの進化を持ってすれば小型の収穫ロボット、各都市での高層ビル型の農場の建設、センサーを設置した農地をドローンで管理することができるのではないかと想像を巡らせてきた。

このような農業の将来を想像することはとても楽しいことだが、私たちは現実味のある農業の将来像を求めている。そこで、農業の本当の課題を理解するために問題を深堀りし、課題をチャンスへと変える10の方法を考えた。

コストの増加

経済的な面から見ると、農業は次第に高額なものになっている。農地への投入物(種、肥料や農薬を含め)はアイオワ州のトウモロコシ生産にかかる合計コストの38%を占めている。また、苺の生産コストの30%以上は人件費だ。除草剤耐性、種の価格変動と農地での労働力となる人材コストの増加により状況は悪化している。

経済的なコストは警戒すべき割合で上昇し続けているが、環境コストは更に急激に上昇している。水質汚染、藻の繁殖、バクテリアの耐性は、長期に渡って環境の健全性に影響を与えるだろう。農業が関係する温室効果ガスの排出は1990年から17%も上昇し、その主な原因は家畜の肥料の管理システムと土壌管理の方法にある。

農業はこのようなコストを維持することはできない。私たちは次のことを行っていくべきだろう。

  • 農業における家畜や農作物の生産過程での環境への負荷(フットプリント)を減らすこと
  • データを活用して生産サイクルをより良く管理すること(植え付け、農薬などの投入方法、収穫など)
  • 植え付け、農薬などの投入方法、収穫のプロセスを自動化し、既存のリソースをより効果的に活用すること

コストの上昇の問題に対応する、特にタイムリーなテクノロジーの進化がいくつかある。主にセンサーの低価格化、コンピューターの処理能力の向上、そして機械学習の技術の進化だ。より多くのデータを取得したり、盤石な分析を行ったり、施策を正確に実践できる能力が高まったりすることは全て、投入物の削減や生産サイクルの効率的な管理、そしてコストのかかるプロセスの自動化につながる。

Blue River Technologyの先進的な技術は素晴らしい例だ。同社はコンピュータービジョンと機械学習を活用して「全ての植物を大切にする」未来を描いている。Blue RiverのLettuce Botは目を見張るハードウェアだ。このロボットの機械的なエンジニアリングはありふれたものではない。ロボットを農地の中に入れ、大型のトラクターで引っ張るのだ。そうすると、ロボットはリアルタイムに一つづつの作物を撮影し、データ処理を行うことで、それぞれの作物の特徴を捉えることができる。そしてアルゴリズムを活用して、その作物のどの部分を残し、どの部分が不必要で刈り取るべきかを判断する。

更にZeaのプロダクトは高い情報処理力を持ち、農作物の表現型検査を可能とする。コンピュータービジョンを利用することで、Zeaは画像から作物の数量を産出したり、作物の間隔を計測したり、農作物の高さの分布を調べたり、重要な物理的特徴を計測したりすることができる。私たち考える中でこれが最も精巧な機械学習の技術だ。

Photo: Blue River Technology

データのコンピューター処理と収集技術が発展することにより、農地はシリコンバレーのテクノロジー企業と同じように効率的に運用することができるようになる。正確なデータドリブンの意思決定と自動化が可能となるのだ。

CropX は3つのシンプルな低価格の土壌センサーでデータを収集し、アルゴリズム処理のためにクラウドで分析を行い、実用的な灌漑用の地図を作成する。この地図で農家は水が土地のどこを流れているかを把握することができる。たった3つのシンプルなセンサーが集積したデータから、このような正確な地図が作れるのは画期的なことだ。CropXのシステムは灌漑システムと連携し、農家にエンドツーエンドのソリューションを提供する。

Photo: CropX

Blue RiverとCropXは、正確な農業データの収集と管理で市場のチャンスに挑んでいる、数あるスタートアップの内の二社だ。他にはGranular、OnFarm、TerrAvionなどがあり、IoTやリモートセンサーを駆使して農業をより効率的で効果的なものにしようとしている。

生産量を保証できない

気候変動が現実に起きていることに議論の余地はない。農地の産出量の確実性は弱まるばかりで、作物は雑草や病気の影響も受けやすくなり、気候を予測することも難しくなってきている。これは、アメリカにおける農作物の多様化の問題を更に深刻なものとするだろう。アメリカの食料生産の70%以上である1000億ドルをトウモロコシと大豆だけで占めている。

さらに、米国農務省のNational Agriculture Statistics(全米農業統計)によるとアメリカにおける全農業生産の44%がセントルイスから半径500マイル内(およそ804km)に集中しているという。また、市場に卸せる形質の作物を育てるためのコストが高いという理由で、多くの種類の作物が育てられていない。(この業界は、承認される作物を育てるまで、 研究開発コストに1億3600万ドルをかけている。)「多様化」は簡単なことではないが、必要なことだ。

確実性に関するリスクヘッジを行うために私たちがすべきことは以下の通りだ。

  • 広い範囲に適応することを念頭に、作物の生産量と密接に関わる土壌の健康状態と配分を理解する方法を見つけること
  • どの作物をどのように育てるかという判断を最適化するために、種のパフォーマンスが明確に分かるようにすること
  • 市場に浸透する、新しい種子、形質の作物、統括的なソリューションを提供するための安価で時間のかからない研究開発方法を探すこと
  • 毎年無駄になる13億トンの食料を削減する方法や再利用する方法を検討すること

既存の農業における生産量の確実性を高めるためには、遺伝子と土壌が起点となる。ゲノム配列の特定コストは下がり、多くの可能性が開かれた。それにより種子の交配や植物の形質の発見、そして土壌の理解につながるだろう。

遺伝子組み替え細菌もこの確実性の問題と課題を解決するための基盤となるテクノロジーの一つだ。 Zymergen は微生物科学とコンピューター処理と自動化テクノロジーを組み合わせている。

彼らのテクノロジーは新種の微生物菌株を開発するプロセスの各工程を正確に計測し、データから学んでいる。そこから、これまでにないスケールや時間で微生物菌株を生産するプロセスを構築している。同社は微生物菌株を開発するプロセスの向上のためにデータを分析し、プロセスの各手順の自動化も行っている。今後、更に微生物菌株の生産コストが低減することが期待できる。

土壌と混ぜあわせた低価格な遺伝子組み換え細菌を実現することで、土壌の健全性と配分を劇的に改善できる可能性が見えてくる。

photography by Albert Law : www.porkbellystudio.com

バイオテクノロジーを応用する画期的なスタートアップにはForrest Innovations(RNAiテクノロジーを利用)や Sample6(合成生物学を基盤とするテクノロジーを利用)などがある。

需要の変化

供給側の課題と共に、需要側も変化している。オーガニック市場は2014年に11.3%成長し、今後も成長することが予想される。遺伝子組み換え作物に関する議論は、食料生産に対するコンシューマーの関心を惹き付けた。風向きが変わってきている。安全性、トレーサビリティ、そして環境への影響に関する法規制はより厳しくなっている。(例えば、最近アイオワ州の郡政委員会に対する訴訟があった。)

コンシューマーの関心の変化と法規制の強化は、私たちに次のことを行うよう促している。

  • 生産システムに負荷をかけない方法で健康志向のコンシューマー向けの食料の選択肢を増やすこと
  • 雑草、病、有害生物を防ぐための化学品の量を減らす方法を検討すること(利用方法を最適化する、あるいはオーガニックな方法を開発する)
  • 生産チェーンの全工程において食品の安全性とトレーサビリティを確保できる経済的な方法を提供すること

計算生物学、細胞組織の組み換え、自動化といったテクノロジーは、需要トレンドの変化に対応するのに大きな役割を担うだろう。Modern Meadowを例に取ると、彼らは、「バイオファブリケーション」と呼ばれる細胞組織の組み換え技術を活用して、動物性組織に代わるものを製作している(主に皮革)。

動物性の生体組織を取り、ペトリ皿で皮革を培養することができるようになった。細胞を30日ほどかけて培養する。奇妙に感じるだろうが、バイオファブリケーションで肉を作るということはもはや不可能ではないということだ。コンシューマーが環境に意識を向け、化学薬品に気を配るほど、これまでの肉の生産方法とは別の選択肢を見つけることが重要になるだろう。

Photo: Shutterstock/Alex_Traksel

動物性のタンパク質を代替しようとするスタートアップが複数誕生している。彼らは計算生物学や構成的生物学の領域のテクノロジーを駆使している。Impossible Foods、Clara Foods、Muufriがその一例だ。

更に食品の安全性とトレーサビリティの分野でも新しいテクノロジーが生まれている。血清型や病原体のファージ型の分類や細胞と核酸の分類といった動きがある(ゲノムの解読技術を応用している)。このような興味深い生物学の研究は、農業の分野にも応用できるようになるだろう。

そこから先は?

このような課題を検証すると、悲観的になる人もいるだろう。一方で、私たちはできることの多さにインスピレーションを受けている。他の問題を解決するために生まれたテクノロジーを再検討し、農業に応用することができるだろう。

テクノロジーが答えだ。ユビキトスなコンピューター技術の進化で、低価格のセンサーが誕生し、リアルタイムに農地から詳細なデータを取得することができるようになった。クラウドコンピューティングと機械学習により、大量のデータを用いて、その場で賢い意思決定を行い、収穫量を向上させ、コストを下げることができる。

そして遺伝子学の発展で、これまで使用していなかった種子を改善することで、既存の肥料や化学品による環境への影響を低減するような農業に適した農作物の生産につながるだろう。

センサー、データ、コンピューター処理、遺伝子学の発展は私たちを次の食料のフロンティアへと導く。米国農務省のTom Vilsackが言ったように「私たちは過去1万年で必要としていたより多くのイノベーションを次の30年で必要」としているのだ。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

パスワードの終焉

17132553601_926d5db51a_o

パスワードは私たちの最も重要なデータの安全を確保する門番のような存在だが、もはや何の意味もなさず、ハッカーや悪質行為を行う者の足止めにもならない。

現在コンピューターを利用する時に使うパスワードには多くの問題がある。私たちは一つのメインフレームのコンピューターにログインしているのではない。私たちは複数のプラットフォームに渡って多数のアプリケーションを利用している。私たちはあまりに多くのパスワードを覚えなければならない。ユーザーによってはセキュリティーを確保しようと試みようともせず、1234といった 安易なパスワードを使用したり、異なるサイトでも同じパスワードを使い回したりしてしまう。

前回新しいデバイスを手に入れ、Facebookやお気に入りのオンラインサービスにログインしようとした時のことを思い出してみて欲しい。私のようにサイトごとに異なるパスワードを設定しているのなら、そのサイトのパスワードを忘れてしまっていたことだろう。もちろん私のように「パスワードを忘れた場合」のリンクをクリックすることもできるが、そうすると他の全てのデバイスのパスワードも変更しなければならない。手間のかかるシステムだ。

私はこの問題に頻繁に直面しているが、きっと私だけではないだろう。私たちはもっと良い方法を求めている。

パスワードが多すぎる

パスワードをデータベースに静的に保存することは、セキュリティー上できる最も愚かなことだろう。リソースを十分に持つハッカー(素晴らしく賢いハッカーでなくとも)がデータベースに侵入する方法を見つけたのならパスワードを簡単に取得でき、ハッカーは宝箱を奪うという目的を達成できるのだ。私たちは過去にこれを何度も学んできた。

2012年のアンケート調査では41%の人はパスワードを覚え、29%は紙に書き、9%はコンピューターに保存すると答えた。どれも理想的な方法ではない。

2012年の別のアンケートでは、ユーザーは平均17の個人用パスワードを持ち、仕事用に8.5個のパスワードを保持しているそうだ。その数字はこの数年間で更に増加しているだろう。個別にパスワードを設定しているのなら、25個ものパスワードを覚えるのはとても大変な作業だ。

Ping IdentityOktaといったサービスは、それぞれのログインの作業を単純化するサービスで、ある程度の成功を収めている。ビジネスにとっては有益かもしれないが、コンシューマーの役にはあまり立たない。

パスワードマネージャーを使用してパスワードを覚える助けにすることもできるが、もちろんパスワードマネージャーを守っているのは、お察しの通り、一つのパスワードだ。誰かがユーザーのパスワードマネージャーにハックしたのなら、全てのパスワードが奪われる。今年の初めに LastPassに実際に起きたことだ。

しかし、パスワードを管理してどれだけ丁重に扱ったとしても、ここ2年間で起きた不名誉なハッキング事件で流出しているかもしれない。

対策をしない場合の末路

このような事件は何度も何度も繰り返されてきた。「インターネット失態の歴史」に流出事件が刻印されている。 TargetSonyAnthem、更にはアメリカ合衆国人事管理局(OPM)まで、このような大量流出事件は何度も繰り返されるのを私たちは見てきた。流出事件が起きる度にハッキングのブラックマーケットには私たちのパスワードで溢れるのだ。

もちろんこのような事件が起きたのは安易なパスワードが原因ではないが、ハッカーがパスワードを当てたり、マルウェアを仕込んでパスワードを盗むのは困難なことではない。大規模なハッキングで宝を盗まなくても良いのだ。一度システムに侵入してしまえば、彼らは多様なデータストアを盗み出すための洗練した方法を持っている。

ユーザーに負荷がかからないようにすべきだ。セキュリティーをシンプルにし、ユーザーが簡単にアクセスできるようにすると同時に悪意ある人から重要な情報を盗みづらくするのは、インターネット企業を運営する賢い人達にかかっている。

Ping Identity、Menlo Security、ThreatStreamといった多くのセキュリティ企業に投資するGeneral Catalystのマネージングディレクターを務めるSteve Herrodによると、問題の一部は企業が自社のデータベースのデータを把握していないことにあるという。

「会社の上層部の人間が保持しているデータを棚卸ししなければならない。私たちが保持しているデータベースはこの通りですというように。それが流出した場合、どれほど被害があるでしょうか。」とHerrodは問う。何を保持しているか把握できれば、企業が自社の機密情報を守るために必要なことができるようになる。また、問題はセキュリティーシステムが、最も重要なデータを守るために設計されていないことも問題だとHerrodはいう。

ユーザーの負荷を減らす

そして、これが重要だ。ユーザーに負荷がかからないようにすべきだ。セキュリティーをシンプルにし、ユーザーが簡単にアクセスできるようにすると同時に悪意ある人から重要な情報を盗みづらくするのは、インターネット企業を運営する賢い人達にかかっている。このことを検討する方が、ユーザーに良い広告を届ける方法を考えるより有益な時間の使い方のように思う。(広告の話はあくまで例えだが。)

システムはあまりに頻繁に責任をユーザーに押し付け、コンシューマーや従業員の仕事を複雑にする。30日毎にパスワードを変更し、過去に使ったものは使用できず、大文字と小文字を入れて、最低2つの数字と特殊記号を入れなければならないのは、ユーザーの重荷となる。ランダムな羅列のパスワードをユーザーに覚えることを強要し、結果的にユーザーはパスワードを付箋に書いて、モニターに貼るといったセキュリティーの低い手を使うことになってしまう。あるいは、もっと分かりやすくパスワード用の手帳みたいなのを作ってしまうかもしれない。

Internet Password Logbook

重要なのは、ユーザーに必要以上の作業方法を強いずに個人情報の安全を確保することだ。パスワードが盗まれることを難しくし、理想的には不可能にすることが目標だ。それには、自動で永久に変わるパスワードや指紋認証や虹彩認証が必要かもしれない。指先と目はいつも自分と共にあるのは注目すべき点だ。忘れることはないし、データベースにスキャンして保存する必要もない。システムレベルで関わることができるし、他の誰かが使用することもできない。(気分が滅入るような状況は考えつくが、それは説明しないでおこう。)アイスキャンやカメラは既にいくつかのデバイスには搭載されている。指紋スキャンができるデバイスもある。

もちろん完璧な対策ではないかもしれないが、現状の方法より良いものだろう。パスワードは効果的ではないにも関わらずユーザーがその責任を負うしかないが、本来システムは全くの逆でなくてはならない。パスワードを慎重に扱ったとしても、データベースがハックされてしまえば全く意味がないのだ。実際の所多くの人はそもそも慎重ではないと思うが、例え地球上で最も精巧なパスワードを持っていたとしても盗まれてしまったらハッカーの物となってしまうのだ。

賢いエンジニアやセキュリティーの天才の集合知と能力を使って是非良い方法を見つけ出してほしい。絶対に現状より良い方法があると思っている。

パスワードに死をもたらそう。皆のために。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

「モノのインターネット」に必要な5つの階層

lego-robots


編集部記Jim HunterはCrunch Networkのコントリビューターである。Jim HunterはGreenwave Systemsのチーフサイエンティストとテクノロジーエバンジェリストである。

数ヶ月前に投稿したモノのインターネット(IoT)の「モノ」の捉え方が変わってきたという内容の記事に多くの反響があった。

その記事で書いた私の主張は、「モノ」を人のように扱うべきというものだ。選挙権を与えたり、税金の支払いを求めたりということではなく、特定の役割を満たす従業員を採用するのと同じように考えるということだ。スマートな「モノ」を「人っぽく捉える」と言えるかもしれない。

前回の補足として、そのような「モノ」は何で構成されているかを明記し、形式化した方が良いと思いついた。何故なら、世の中は数えきれないほど大量の物であふれているが、全てがIoTではなく、また全てをIoTにすべきでもないと考えているからだ。

IoTの「モノ」を定義するために、マズローの欲求5段階説を用いたい。これは良く知られた心理学の概念で一般的にピラミッドの形で表されるものだ。一番下には人間の基本的な欲求(生理的に必要な空気、食べ物、水)があり、一番上には高次の欲求(自己実現欲求や潜在能力の発揮)に向かって上がっていく。

次の表は、IoTの「モノ」の各ニーズをその段階に置き換え「モノの自己実現」までの過程を表している。

GW IoT_hierarchyOfNeeds pyramid

マズローの説では低次の欲求が満たされなければ、人は次の段階の欲求を持たないという。「モノ」のニーズも似たように機能すると私は考えている。下位の構成パーツが無い場合、次の段階に向かうことができないということだ。

ピラミッドの底辺は「モノ」が存在するために必要なものを表している。当然のことだが電力が必要で、他のモノにつながったり、送受信(ラジオのように)したりするために必要な物理的な仕組みや「モノ」の機能を発揮するための部品が必要だ。

また、IoTに関しては「モノ」の置かれる環境も考慮に入れなければならない。「モノ」が機能する物理的な環境のことだ。それは北極の氷を観察するプロジェクト用のもので、氷点下でも機能するだろうか?あるいは、リストバンド型の活動量やエキササイズをトラックするもので、スポート時の衝撃や圧力に耐えられるだろうか?急激に変化する体温や汗に耐えられるだろうか?防水や耐火機能はあるだろうか?ケースは軽量な布が適切だろうか?チタンだろうか?

そしてもう一つ、「モノ」は物なので特定のニーズを満たし、価値をもたらさなければ使い物にならない。最も重要なのは、その「モノ」に期待されている機能を備え、存在理由を持たならなければならないということだ。

中核となる物理的なニーズが満たされたのなら、外界と接続する前にセキュリティーの確保が求められる。IoTを利用するのにセキュリティーが重要な鍵であることを明記しておく。同時に個別の「モノ」をそれぞれ特定し、外部からアクセスでなければならない。

アクセシビリティは、インターネット接続だけを指しているのではない。物理的に「割って」開かれた場合、セキュリティーの欠如は保存したデータをリスクに晒すことを意味する。

私たちは現在に至るまでに、インターネットに関連する全てのもので、不正利用される可能性のあるものは、実際に不正利用されてしまうことを学んだ。全てのIoT端末を製作する初めの段階で、この事実について考慮しなければならない。全てのIoTの「モノ」はエンコード、暗号化、データ認証を施す必要がある。

セキュリティーの条件を満たすと、次のピラミッドの段階ではコミュニケーションのニーズが発生する。「モノ」は物理的なニーズのために外界と接続する物理的な仕組みが必要であると明記したが、ここでのニーズは自己表現のニーズと表している。

端的に言えばこのニーズは、IoTの「モノ」の声を世界に届ける方法が必要ということだ。インターフェイスやネットワークを形成する方法をこの段階で特定する必要がある。その「モノ」は、伝送やネットワーク層においてどのプロトコルを使用すべきか? IEEE 802.15.4だろうか?6LoWPANだろうか?IoTの「モノ」が使うプロトコルと言語はこの段階で必要だ。コミュニケーションのニーズは、IoTの「インターネット」の部分を満たすものだ。

インターネットに関連する全てのもので、不正利用される可能性のあるものは、実際に不正利用されるものだ。

次のニーズの段階はデータに関するものだ。ここでは「モノ」が集めた情報をどのように扱うかを決める。どのような処理を行うべきか?データのログはどのように取るべきか?分析はどうするべきか?集めたデータはどのように機能し、「モノ」はそれをどのように表示すべきだろうか?

ピラミッドの一番上の段階にはスマート端末特有のニーズがある。マズローの自己実現欲求に相当するものだ。ここでの「モノ」のニーズは表現することだ。「モノ」は単一のセンサーやコミュニケーションのゲートウェイとしてだけでなく、多様な構成要素を組み合わせた「モノのインターネット」の一部としての役割を果たすのだ。

その「モノ」は分析に役立ち、論理的だろうか?これまでの行動を学習し、今後の行動を予期できるだろうか?スケールは可能だろうか?自動で設定を行い、人が介入しなくても作動するだろうか?「モノ」がチューリングテストに合格する必要はないが、ここでその「モノ」の性質が分かるだろう。

「モノのインターネット」の「モノ」とは当初それぞれ個別の「モノ」を指していたが、実際の所、単一のモノに限らないというこの構造に私は興味を持っている。

個人が団体や組織に加入したと考えてみてほしい。その新しいグループも独自の存在として確立する。同様に単一の「モノ」が他のモノとつながってグループやモノのネットワークを形成すると、それを「複合的なモノ」として捉えることができる。

この「複合的なモノ」も単一の「モノ」と同様にこの構成に則った独自のニーズを持つ。私はこの特異なミクロとマクロの視点で、単一の「モノ」とそれらが集めるデータが情報へと進化する様に興味を覚えるのだ。

この構造を考えたのは、親しみのある概念を利用して、「モノ」の設計とインタラクションモデルのデザインについて理解を深めるためだ。例えば、このシンプルな質問について考えみてほしい。「IoT端末を購入する場合、どのような点を考慮すべきだろうか?」この考え方を知っていることで、その回答は「新しい従業員を採用する場合と同じ点を考慮すべき」となる。どちらの場合でも誠実性、信頼できるかどうか、他の人やモノと上手く協力できるかを考慮すべきなのだ。
モノを「人のように捉える」ことで、応用の効く概念の視点を得ることができるだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

ベンチャーキャピタル革命が始まろうとしている

moneygrowth

編集部記Ross BairdはCrunch Networkのコントリビューターである。Ross BairdはVillage Capitalのファウンダーで執行役員である。

世界中のどのスタートアップの支援企業も業界を覆すような次の「ディスラプトをもたらすトレンド」を探している。そしてついにベンチャーキャピタル業界は、彼ら投資家自身がディスラプトの必要な市場と見なすようになった。

毎週のように「次のドットコムバブル」と危惧されるようになった。Kauffman Foundationは20年に渡り多くの起業家に対しベンチャーキャピタル投資を行ってきた。彼らは「私たちは敵を見つけた。それは自分たちだ」と伝えた。ベンチャーキャピタル業界は古びた割高の市場で、求められる結果を出せない業界なのだろうか?

ベンチャーキャピタルが世界を本当に良くするためには、彼らも投資先の企業のようにイノベーティブでなければならない。私たちVillage Capitalの投稿にも記したように、私たちは何万もの起業家に対して数百の新しい投資アプローチが行われていることを目撃している。そこで私たちはベンチャーキャピタルを良い方向に導く3つの挑戦課題を見て取ることができ、将来に胸を高鳴らせている。

実世界への影響

Economistの特集記事は、シリコンバレーがアメリカの資本主義の中心地になったことを祝うと共に、存続への課題に直面していると示した。「ギークはバブルの中に住み、彼らの帝国は彼らが必死に変えようとしている世界から隔離されている」。多くのテクノロジーを駆使したスタートアップは社会の恵まれた者に関わるものだが、他の何億人、そして何兆ドルにも及ぶ市場を置き去りにしている。

ベンチャーキャピタリストは実世界に影響のある業界を避けている。例えば、食品、健康、教育などだ。これらの業界は資本を大量に必要とし、複雑で、法律と深く関わることが求められるからだ。「健康は難しすぎる」、「教育の販売サイクルは長すぎる」という。

チャンスは平等でなくても、才能はありとあらゆる所にある。

しかし同時に、大多数の人の毎日の生活に影響を与える企業の方が、企業と関わりが深くなる従業員を引き寄せ、カスタマーの気持ちを引きつけることができる。また、ベンチャーキャピタルが避けていることもあり、投資家はより良い評価額を期待できる。実世界に影響を与える事業は、起業家にとっても投資家にとっても望ましいものだ。

ベンチャー投資企業のStellarは最近、Core Innovation CapitalDBL InvestorsOwl Venturesをローンチし、このような分野に他社に先駆けてアプローチしている。金融サービス、食品、教育関連の企業を支援し、結果として強いリターンを生み出している。

また、大手金融機関のBain Capitalがマサチューセッツ州の前州知事のDeval Patrickを採用したことやゴールドマン・サックスが影響度に関する助言を行うImprint Capitalを買収したことから、投資家の事業を底上げするのは、このような実世界に影響を与えるセクターの企業であると考え、優先していることが分かる。

他の地域の台頭

チャンスは平等でなくても、才能はありとあらゆる所にある。アメリカのスタートアップ投資の75%はニューヨーク州、カリフォルニア州とマサチューセッツ州の3つの州に集中している。しかし、先進的な考えを持つ投資家は、世界の至る所で起業家がその地域に素晴らしい企業を構築していると考えている。

AOLのファウンダーであるSteve Caseと彼が立ち上げたRevolutionは、「Rise of the Rest(他地域の台頭)」と呼ぶ取り組みをローンチした。これは見過ごされている地域のスタートアップに焦点を当てる取り組みだ。これまでバスで14の競争力のある都市を巡り、成功が期待されるスタートアップに投資を行ってきた。

アイオワシティのPear Deckという企業はアイオワ州が開発した学生テスト(アイオワ州の基本スキルテスト)を用いて、次世代の学生向けの試験を製作している。ニューオーリンズのGoToInterviewは、ニューオーリンズ州で働く多くの接客スタッフに注目し、最低賃金スタッフを雇用する包括的な方法を構築している。両社のファウンダーは、それぞれが拠点を置く都市の特徴を活かしているのだ。

ベンチャー投資企業が慣例的に中心地と定めている場所以外のスタートアップに投資することで、結果的に投資家により高い評価額をもたらすだろう。また管理コストも低く、大抵の場合成功したスタートアップの周りにコミュニティーが形成される。一般的な投資家が注目していない場所に視野を広げる投資家は有利になるだろう。そして、成功するバランスの取れた経済を構築することもできるだろう。

包括的な起業家精神

起業が世界を変えるなら、それに全員を含めなければならない。しかし残念なことに、投資コミュニティーの大半はそのような視点を持っていない。アメリカのベンチャーキャピタル投資の10%以下しか女性が運営する企業に向かわず、少数民族の企業には3%以下しか回らない。多くの場合これは意図的なことではないが、Y CombinatorのファウンダーであるPaul Grahamはこのことに真摯に向き合い「Mark Zuckerbergに似ている人に騙されやすい」と話している。

Mark Zuckerbergは突出したリーダーだが、次の素晴らしい企業のファウンダーが彼に似ているとは限らない。オースティンを拠点とするStudent Loan Geniusのファウンダーは、ラテン系アメリカ人のTony Aguilarだ。彼は10万ドルの負債を抱え大学を卒業し、スタートアップを始めた。このスタートアップは、雇用主が学生ローンの返済を助ける福利厚生(401Kに似ている)を提供することができるようにする。最初の一年で既に100万人の適格する従業員を獲得している。

素晴らしい起業家が「資金力のある賢い男」を知らない場合はどうしたら良いのだろうか?

何故起業に関するダイバシティーの数字は低迷しているのだろうか?投資家は「パイプラインの問題」と考えている。「資金力のある賢い男(やはり、大抵男性)が企業を発掘し、投資パートナーに対して、その会社との取引が良いものであると説得する企業」に投資するのが一般的な投資戦略であり、ピッチの場合も「知人からの温かい紹介」があるのが好ましいと考えている。しかし、素晴らしい起業家が「資金力のある賢い男」を知らない場合はどうしたら良いのだろうか?

業界や地域、そして経歴に対する無意識の偏見を無くすには異なるアプローチが必要だ。Freada Kapor KleinとMitch Kaporは先日、グローバルに4000万ドルを少数派民族グループに対して投資を行うと発表 した。Gallupは経歴に関わらずリンカーンシティとデトロイトの全ての高校生を対象に起業家向きのスキルがある候補者を探している。Village Capitalでは投資する企業を起業家が互いを評価する方法で決定している。

ベンチャーキャピタルの未来

ベンチャーキャピタルは象徴的な企業を育て、限られた都市において少数の人に多大な価値をもたらした。しかし世界中の起業家は更に統括的でバランスが取れた適切な経済を構築しようとしている。彼らにはそのポテンシャルがあるのだ。

業界、地域、ファウンダーの経歴の先を見据えるベンチャーキャピタリストが私たちの求める経済を構築することになり、そしてその過程でこれまでにない成功を収めるだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

経験や直感よりデータ、人材採用に広がるデータ・ドリブンなアプローチ

2

編集部注:この原稿は鈴木仁志氏による寄稿である。鈴木氏は人事・採用のコンサルティング・アウトソーシングのレジェンダ・グループのシンガポール法人の代表取締役社長を務めていて、シンガポールを拠点にクラウド採用管理システム「ACCUUM」(アキューム)をシンガポールと日本向けに提供している。

企業の人材採用活動において経験値や感覚値に頼るだけでなく、データ分析に基づいて採用を行う企業が増えてきている。アメリカでは、データ分析に基づいて採用活動のPDCAを回す「データ・ドリブン・リクルーティング」という概念が確立されていてソリューションも多く存在する。私自身がデータ・ドリブン・リクルーティングについて話す際に例として使う、映画「マネーボール」を交えながら、アメリカのソリューションを中心に紹介したい。

「マネーボール」は米国メジャーリーグベースボールでの実話を基にしている。主役であるオークランド・アスレチックスのGMビリー・ビーンが、データに基づく選手分析手法「セイバーメトリクス」を用いて、当時資金もない弱小チームを2002年にはア・リーグ記録の20連勝を達成するチームに育てるというストーリーだ。TechCrunch Japan読者でこの映画を観た人は、「データ分析 x ベースボール」という部分に少なからず興味をひかれたのではないだろうか。

「マネーボール」の舞台となったアメリカでは、様々な領域においてビッグデータ活用が謳われており、ここ数年は人事にもビッグデータを活用するのは当たり前という風潮になってきている。それに伴い、データ・ドリブン・リクルーティングという言葉も頻繁に使われるようになってきた。

採用プロセスは細分化すればきりがないのだが、一番シンプルにするとこんな感じだろうか。

0

上記の採用プロセスの順に、データ・ドリブン・リクルーティングについて説明したい。

必要な人を決める

「探す/集める」という行為の前には、必要な人を決める(リクルーターたちは”求める人物像の策定”と呼んだりする)必要がある。社内のハイパフォーマーを特定して共通する特徴を分析したり、成功するために必要なスキルや経験を明文化したりすることだ。カルチャーフィットなど含め、社内ディスカッションなどで定性的に行われる部分もあれば、人事システムのタレントマネジメントモジュールやアセスメントツールなどを活用して定量的に行われることも多い。

「マネーボール」では、「セイバーメトリクス」という選手をデータで分析する手法が用いられる。これはアメリカ人野球ライター・野球史研究家・野球統計家であるビル・ジェームズらによって提唱された分析手法で、主観的・伝統的な評価軸ではなく客観的・統計的に選手を評価するものだ。例えば投手の評価においては、当時は伝統的に重要とされていた防御率は野手の守備力の影響をうけるため純粋な投手の力ではないとし、被ホームラン数、奪三振数、与四球数などを重要視する。ビル・ジェームズがこのような指標をもとに上原浩治投手を高く評価し、アドバイザーを務めるボストン・レッドソックスに獲得を強く勧めた話は有名だ。

例えば「マネーボール」では、資金難を理由に放出せざるをえないジェイソン・ジアンビやジョニー・デイモンといった2001年シーズンのスター選手の穴をどう埋めるかについて、ブラッド・ピット演ずるGMビリー・ビーンが「セイバーメトリクス」を信じない古株のスカウトマン達と議論しているシーンがある。2001年のオークランド・アスレチックス選手の年俸総額は約3380万ドル(30チーム中29位)、選手一人当たり平均にしても125万ドルと、総額・選手平均ともにダントツ1位のヤンキースの3分の1だった。その中で、超主力選手だったジアンビ(年俸710万ドル)とデイモン(同410万ドル)は、2人だけでチーム年俸総額の3分の1をしめていたのだ。

2001年に38本のホームランを打ったジアンビの代わりに同じタイプの選手を探しているスカウトマン対して、GMビリーは主要3選手の出塁率を平均すると3割6分4厘(0.364)であることから、出塁率が0.364の選手を3人探して穴を埋めろと指示を出した。スカウトの勘・経験やプレイヤーの体格といった定性的な視点はもちろん、ホームラン数や打率といった従来信じられていたKPIに頼ることを否定し、チームが勝つために必要なプレイヤーは出塁率や長打率などの高い選手であるという結論を導き出し、それに基づいてトレードやドラフトリスト作成の基準を決めたのだ。

探す/集める

求める人物像が決まったら、それを集めるのはリクルーターだ。リクルーティングにおいて、求人サイトやソーシャル・リクルーティング・サービスなどに代表される「探す/集める」領域は、サービスプロバイダーが一番多い部分といえるだろう。探す/集めるの領域のプレイヤー数が多い理由の1つは、1社につき1システムしか導入することのない採用管理システムなどの業務サポートシステムとは違い、メディアとして1社が複数利用することが多く、市場が大きいということがあるのだろう。全国求人情報協会発表のデータによると、2014年は年間540万件の求人がネット求人サイトに掲載された。求人サイト利用による1人当たりの採用コストは幅が広く(中途正社員採用:20万円〜150万円程度、新卒採用:100万円〜300万円程度、パート・アルバイト採用:2万円〜100万円程度)、掲載無料&成功報酬モデルもある。仮に平均単価が10万円としても5000億円を超える市場規模がある。

掲載型の求人広告とは少し異なるアプローチで、ダイレクト・ソーシングとも呼ばれる「探す」という行為もある。このアプローチでは、Linkedinのようなデータベースを活用することも可能だが、アメリカでは「People Aggregator(人の情報収集システム)」なども注目されており、EnteloやMonsterに買収されたTalentBinなどが有名だ。「Google for Jobs」(求人版のGoogle)と言われるIndeedがあれば、このようなサービスは「Google for Talent」(タレント版のGoogle)と呼ばれたりする。Enteloのサービスは検索した個人のEmail、Facebook、Twitter、LinkedIn、あるいはエンジニア向けサイトで個々人の技術スキルも分かるGitHub、StackOverflowなどの様々なサービスのアカウントをEntelo上でまとめるだけでなく、「現職への転職から24カ月目の節目は転職率が高い」とか「LinkedInのプロフィールを更新してから一定期間は転職率が高い」といったソーシャルシグナルの分析に基づく独自アルゴリズムによりターゲット人物をランキングしたり、その個人の各種サービス利用頻度などから直接連絡を取るのにベストな手段をサジェストしたりする。この辺りは「マネーボール」の中で、GMビリーが他球団と電話でトレード交渉を進める横で、GM補佐であるイェール大学卒業のピーター・ブランドが、ラップトップでデータを見ながらトレードで取得すべき選手の名前を次々に挙げていくシーンなどが思い浮かぶだろう。

2

そして「集める」という行為をデータ・ドリブンで行うには、現状のチャネル分析や候補者行動分析などの小さなPDCAを常に繰り返し実行する必要がある。エクセルやグーグルフォームでなく、 採用管理システムを上手く活用してリアルタイムにデータ分析を行うことが重要となる。チャネル毎の応募数や採用数だけでなく、利用デバイスやブラウザなども分析することでポジション毎に最適なチャネルを選ぶことができる。この領域にはJobviteを中心に、JibeGreenhouseSmartRecruitersなど2500万〜5500万ドルを調達して注目されているアメリカ発のサービスが多く、当社が提供するクラウド採用管理システム「ACCUUM(アキューム)」もこの領域でサービスを提供している。これらの採用システムに共通するコア機能としてはATS(Applicant Tracking System)と呼ばれる応募者管理機能があり、ウェブサイトや人材紹介会社からの候補者を一元管理しチャネル分析などを行えるが、それ以外のマネタイズの方法は各社異なる。例えばJobviteは後述するビデオ面接機能を最近強化して選考側を強化している一方、SmartRecruitersは管理画面からIndeedやLinkedInなど外部求人サイトへ簡単に掲載させる機能により母集団形成側を強化している。OracleのTaleoやSAPのSuccessfactorsなど大規模人事管理システムではこのような機能は、MultiPostingなどとAPIで連携しているケースが多いが、採用管理システムではこのような機能も自前で持つところが増えてきている。こういったサービスを活用すれば、採用企業は、いくつもの外部サービスにログインして一つひとつ求人情報の掲載をしなくて済む。のみならず、今後は外部サイトに簡単に掲載できるだけでなく、ビッグデータ分析によって職種毎に使うべき求人サービスをサジェストする機能なども強化されていくことだろう。

6

前述の求人サイトの掲載価格は、アメリカの求人サイトMonsterが1職種月額5万円以下(375米ドル)、東南アジアで強いJobStreetが1職種月額1万円以下(100シンガポールドル)であることを考えると、日本の求人掲載料はまだまだ高い。無料掲載のビズリーチのスタンバイや、月額3万円から職種数無制限で掲載できるウォンテッドリーなどが市場に変化を与えているが、自社の応募データを分析して、データ・ドリブン・リクルーティングで自社に合ったチャネル戦略を立てることにより、採用単価や採用スピードを改善できる余地は大きい。

選ぶ

「探す/集める」の次は「選ぶ」ステップになる。この領域において注目されているリクルーティングサービスの1つがビデオインタビュープラットフォームのHireVueだ。既述の通りJobviteなどが追加機能として提供するだけでなく、GreenJobInterviewSparkHireなどスタンドアローンのサービスも多いが、9200万ドルを調達しているHireVueがプロダクトとしてもクライアントベースとしても抜きん出ている印象だ。サービスがスタートした当初の質の低いSkypeといった印象から大きく進化を続け、今では総合的な採用プラットフォームになっている。その強みのコアは、やはりビデオインタビュー部分だ。Fortune 500 企業などを含む500社以上のユーザー企業を誇るHireVueによると、平均して1ポジションに約100名の応募があるが、そのうち面接の機会を与えられるのはたったの6人だという。ビデオ録画機能を使ってより多くの候補者に質問に答えさせ、面接での質問に対する300万件以上の候補者の発言などの分析をもとにしたHireVue独自のアルゴリズムで、やる気・情熱・感情・性格などを予測する。履歴書や職務経歴書だけで100名から6名に絞り込むよりも、より正確に企業やポジションに合った候補者を選ぶことが可能という。

7

GMのビリーがニューヨーク・ヤンキースからデイビット・ジャスティスという選手の獲得を提案した時、年齢による衰えから2001年シーズンでは打率はピーク時の0.329から0.241まで落ち、ホームラン数は41本から18本に落ちていること、そして足の故障や守備のまずさなどを理由にスカウト達は猛反対をした。ただし、既述の出塁率が0.333と目標値に近く、また、年俸700万ドルの半分をヤンキースが負担するという好条件もあり、アスレチックはジャスティスを獲得した。従来のKPIだけで見ていたら獲得リストにも載っていなかった選手だが、GMビリーとGM補佐ピーターのアプローチによって選ばれた選手の一人だ。

口説く

最後は当然「口説く」ことが必要になる。私の知人が経営する会社では、本年度は特に採用が最重要課題であるという理由から、会社のトップセールスを1年間限定でリクルーティングの責任者においた。最近は日本でもこのようなケースが見られるが、アメリカではマーケティングや営業のスーパースターをリクルーティングチームに移すことは珍しいことではなくなってきている。もちろんただ単にコミュニケーション能力があるというだけの話ではない。口説く相手が100人いれば100通りの異なるストーリーを考えることが必要になるからだ。

映画の最終的な脚本ではカットされてしまっているが、出回っている英語版の脚本ドラフトで印象に残るシーンがあった。GMのビリーとGM補佐のピーターが、一塁手のスコット・ハッテバーグと話しているシーンだ。ハッテバーグは怪我によりキャッチャーとしてのキャリアを捨てざるを得なくなり、スカウト達が獲得を反対した選手の一人だ。この選手を一塁手にコンバートして獲得するというオファーを出したのだが、 実はハッテバーグ本人ですら何故アスレチックスがそこまで興味を示したのか、分からずにいた。入団後になるが、本人の過去のバッティングデータからストライクやヒットの多いゾーンについての傾向を教えると、本人はなるほどという反応を示す。次に、打席平均の相手ピッチャー投球数の4球という数字は、バリー・ボンズやジェイソン・ジアンビといった超一流打者の5球という数字には及ばないものの非常に良い数字であり、相手ピッチャーを疲れさせるためには非常に重要であるという根拠とともに「One of the reasons why we love you.(僕たちが君を高く評価する理由のひとつだ。)」と伝えると、この数字の重要性に気付いていなかったハッテバーグも、驚きをもって興味を示す。

情熱やフィーリングはもちろん重要だが、ビリー・ビーンの様にリサーチデータを基に候補者一人ひとりに合わせたストーリーで口説けるようになることもリクルーターとして重要なスキルの1つであり、そのためにはいくつかのソリューションを使いこなすことも必要だろう。

スタートアップが生きるも死ぬも最初に獲得する10人のカスタマー次第

ribboncutting

編集部記Sean JacobsohnはCrunch Networkのコントリビューターである。Sean JacobsohnはNorwest Venture Partnersのベンチャー投資家である。

スタートアップの旅の最初の段階では、適切なマーケットに向けた適切なプロダクトを作ることに集中することだ。多くのB2Bのスタートアップにとって、ここから最初のカスタマーを獲得することが始まる。最初のカスタマーとなる10人はそれ以降のカスタマーとは異なる。

最初のカスタマーにはそれぞれ違う方法、違う価格で販売し、それ以降のカスタマーとは違った関係性の中から違うことを学ぶ。最初のカスタマーのグループは、スタートアップにどのようにプロダクトを仕上げるか、十分な規模の市場をターゲットとしているか、更に次の100のカスタマーを得るのに販売をスケールさせる方法を考えさせる。

最初のカスタマーを獲得し、彼らと効率的に仕事をすることはどのスタートアップにとっても難しいものだ。ここにスタートアップのファウンダー向けのヒントを記した。私がベンチャーキャピタリスト、そして営業部門の役員を務めた経験から学んだものだ。

最初の営業リーダーはファウンダー自身

プロダクトを適切に構築している、あるいは会社を成長させている期間では、営業経験の豊富なベテランを採用することに大きな魅力を感じるだろうが、そうすることはオススメできない。

最初の10人のカスタマーに対しては、スタートアップのCEOかファウンダーが自ら販売しなければならない。つまり、この記事を読んでいるあなただ。

ファウンダーとして自社のプロダクト、そして市場における課題やチャンスを他の誰より理解していることだろう。営業電話で得られるフィードバックから、ターゲットとなるカスタマーを深く理解することができ、プロダクトに加えるべき変更について知ることができる。

最初のカスタマーは間違いなくプロダクトの推薦企業となる。

カスタマーに直接販売していくことは、その後に行うであろう潜在的な投資家、パートナー企業、社員に向けたピッチにも磨きがかかることにつながる。また、カスタマーとの関係性も最初から強いものにできる。営業リーダーを採用する準備が出来た時には、自らが体験して得た価値ある知識を彼らに共有することができるのだ。

若く野心的なカスタマーを探すこと

大手企業をカスタマーとしてターゲットするのは好ましいことだが、彼らがミーティングを設定したり、真新しいプロダクトに賭けたりする可能性は低い。同様に潜在的なカスタマーが既にキャリアを長い事積んでいたり、キャリアの終わりに近かったりするのなら、リスクや変化を受け入れるのは難しいかもしれない。

 スタートアップの経歴に似ているカスタマーをターゲットとするのが最適だろう。特に優秀で若い役員だ。キャリアもまだ早い段階の人でこれからまだまだ仕事をしていく人を探すことだ。一般的に彼らは将来に前向きな考えを持っていて、会社からはイノベーティブな人で戦略的なリーダーと評価されることを望んでいる。重要な問題を解決できる新しいプロダクトに賭けることは、その若い役員を会社のヒーローにするかもしれない。

収益ではなく、エンゲージメントを重要視すること

カスタマーを多く獲得し、カスタマーリストが長くなっても、最初のカスタマーがプロダクトの「アクティブユーザー」と呼べるほどエンゲージしているかが最も重要なことだ。収益の金額ではなく、エンゲージメントの度合いが、プロダクトが長期に渡って利用されるかどうかの強い指標になる場合が多いからだ。

これは最優先事項にすべきことだ。最初のカスタマーは間違いなくプロダクトの推薦企業となる。彼らがプロダクトにエンゲージしているほど、プロダクトをより良く推薦するだろう。

最初のカスタマーに時間を割いて注力することで、彼らがどの程度の頻度でプロダクトを利用し、プロダクトが彼らのビジネスにとってどの程度重要かが分かる。「プロダクトを閉鎖したら、ビジネスに大打撃です」と彼らに言わせるまで持って行くのが望ましい。
覚えておいてほしいのは、カスタマーの抱える本当の課題を解決するプロダクトを作ることでしか、スタートアップが成功することはできないということだ。若い企業にとって、どの程度の頻度でプロダクトが利用されているかは、カスタマーがそれに支払う金額より、初期プロダクトの成功を適切に示す指標となる。カスタマーの課題を本当に解決できるプロダクトなら、最終的に彼らは料金を支払うのだ。彼らはお得意様となり、プロダクトを広めるアンバサダーになるだろう。

逆に言えば、カスタマーが料金を支払っていても、プロダクトを利用していない場合、プロダクトは彼らにとって重要な問題を解決していないということが考えられる。ファウンダーやCEOはこのようなことに対して気を配る必要があり、後に収益につながるエンゲージメントを改善すべきだろう。

誰と契約し、誰から離れるかを意識する

最初の営業対象は友人ではない人の獲得に注力すべきだ。プロダクトをスケールさせるためには、自分のネットワークの外からの評価が必要だ。友人からはあまり提供されない正直なフィードバックが必要なのだ。

最初の10人のカスタマーに対してはスタートアップのCEOかファウンダーが自ら販売しなければならない。

これは困難な道のりだが、どのような潜在的なカスタマーがプロダクトの初期の利用者に適しているかを判別するスキルが身につく。開発している特定のプロダクトの可能性を確かめるために、最初のカスタマーは広い市場を代表する潜在的な顧客でなくてはならない。

もし、潜在顧客があなたの会社が提供できる以上のものを望んでいたり、あなたが解決すると設定した主要な課題以上のことをあなたのプロダクトに求めるなら、そこから離れることも忘れないことだ。

私が出会った起業家の多くは、あったら嬉しいソリューションを製作しているが、絶対必要なソリューションではない。最初の10人のカスタマーを上手く接することができたのなら、正しい道を進んでいると考えて良いだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

個人ユーザー単位でマーケティングできる未来が来る

targetmarket

編集部記Andrew Clelandは、Crunch Networkのコントリビューターである。Andrew Clelandは、Comcast Venturesのマネージング・ディレクターを務めている。

現在のマーケティングは、個別のオーディエンスに対して最適な瞬間に、最も望ましい媒体で完璧なクリエイティブを届けるという理想的なシステムからは程遠い。

このビジョンの実現に向け業界は、インプレッションを中心とする形態(メディア掲載はいくらで、どの程度のインプレッションを獲得でき、オーディエンスがどのような人だろうか?)から、ユーザーを中心とする形態(この時点で自社のブランドと接触している個別ユーザーの特徴はどのようなものだろうか?)に進化しつつある。

2つの基本となる潮流がシフトをもたらすだろう。一つは、オムニチャネルのデータ、そしてもう一つは、マルチタッチアトリビューション(複数回に渡るユーザーとの接触から得られる情報)だ。

オムニチャネルとは、複数のチャネルのデータを統合し、個別ユーザーのアイデンティティを判別することを指している。最終的な目標は、別々のマーケティング・チャネルのデータを統合するのではなく、企業の全てのカスタマーと接触するポイントのデータを統合することだ。それには、カスタマーサービス、物流及び配送、そして修繕やメンテンナンスも含まれる。

これを実現するには、自社データ(ファーストパーティー)とマーケティングのパートナー(サードパーティー)のデータを統合する必要がある。異なるデータを統合し、整えることで、ユーザー個人個人の充実したプロフィールを生成することができる。

パーソナライズしたクリエイティブを大勢に届けることができるプラットフォームは、次世代のマーケティングシステムにとって必要不可欠な要素だ。

これはマーケティング業界の革命だ。マーケターは、メディア、チャンネル、オーディエンスを推測することから、個別ユーザーに最適なメッセージを送ることに考え方が変わる。個別ユーザーの好み、個人とブランドとのこれまでの関わりを鑑み、ブランド独自の価値をどのように伝えるかということに焦点を当てるようになる。

マルチタッチアトリビューション(MTA)は、オムニチャンネルのデータを必要とする。マルチタッチアトリビューションとは、ブランドとユーザーの接点がそれぞれどの程度、販売に貢献したかを詳細に分析することを指す。例えば、あるユーザーがテレビコマーシャルを50回視聴した後、初めて見たネット広告にアクセスして購買に結び付いたのなら、MTAは「テレビ」が販売に貢献したチャンネルとして評価する。

これらのことが可能になれば、マーケターは更に洗練したコンシューマー向けマーケティング施策を考えることができるようになる。例えば、以下のような質問について考えることができる。

  • ブランドとカスタマーとの全ての接点において、カスタマーとのコミュニケーションの内容の整合性を取るにはどうしたら良いか?例えば、カスタマーへのプロダクトの配送に問題があった場合、次にそのカスタマーとの接点を迎えた時、友人にサービスの紹介を依頼するような内容を届けないようにするにはどうしたら良いかということだ。
  • 時間の経過と共にカスタマーのコミュニケーションを進化させ、ブランドとの関係を深めて価値を増やすにはどうすべきか?例えば、個別ユーザーに対して「ご参照ください」のメッセージから購入を促すメッセージに切り替える最適なタイミングをどのように見極めるかということだ。

オムニチャンネルとマルチタッチアトリビューションの革新は何をもたらすか

マーケターは、自社ブランドとカスタマーの接点についてより広い視点から考えることができるようになる。メディアに固執することなく、マーケターはカスタマーサポート、販売までの過程、ウェブ上やモバイルでのプロダクトのプレゼンテーションの仕方にまで気を配ることになるだろう。チーフ・マーケティング・オフィサー(CMO)の役割は、広範なものとなる。

各チャネルのデータを正確に結びつけるソリューションは、このシステムにとって必要不可欠なものだ。例えば、Drawbrid.geはデバイス間の情報を一つのユーザープロフィールにまとめようとしている。LiveIntent は、Eメールのプロフィールとウェブ上の行動を結びつけるサービスだ。

CMOは、自社のシステムを用いてカスタマーサービスや、返品、店内での接客といったカスタマーとの接点から有益なファーストパーティーのデータが得られるように注力するようになるだろう。カスタマーサービスのソリューションを提供するStellaServiceや、店内でのトラッキングを行うRetailNextといったサービスがこの分野のソリューションを開発している。

次世代のカスタマーデータプラットフォームは、次のような特徴を持つことが考えられる。

  1. 異なるカスタマーのデータ・セットを集めて正確に結びつける
  2. ユーザープロフィールとしてデータを構築、整理する
  3. 類似した特徴を持つユーザーのセグメントを自動で発見する
  4. リアルタイムでオーディエンスやデータを管理する
  5. イベントトリガーに対応
  6. 全てのユーザーデータとオーディエンスのセグメントをAPIで利用できる
  7. IT部門を経由せずともマーケターが直接利用できる

LyticsSegment.ioといった企業が、このビジョンを達成するためにイノベーションを起こしている。

マーケティング判断は、チャネル内のことから、全てのチャネルを統括した判断に変わる。マーケティング判断を行うエンジン(どのユーザーにどのクリエイティブをいつ、どこから、どのように表示するかを判断する)は合理的に考えて、判断材料として用いる集約データに隣接して設置すべきだろう。オムニチャネルは、その名の通り、個別チャネルの上位に位置する。

単一チャネル用に洗練された判断システム、例えばEメールのResponsysの重要性は低くなり、より安価で実行型の代替サービスであるSendGridのようなサービスに取って変わるだろう。

パーソナライズしたクリエイティブを大勢に届けることができるプラットフォームは、次世代のマーケティングシステムにとって必要不可欠な要素だ。これは投資家にとってはあまり歓迎されてないことではある。上手く成し遂げるのは困難な上、投資家は既に痛い目に合っているのも原因の一つだ。

マーケティングのメッセージをユーザーの特徴とブランドとの接点における状況に合わせることで、パフォーマンスを最も高めることができる。例えば、このユーザーは自社ブランドを今回初めて見たのだろうか?最近カスタマーサービスで不満を訴えただろうか?商品の到着を待っているのだろうか?自社ブランドの重要なカスタマーになりうるだろうか?動画のSundaySkyやコピーライテイングのPersadoは、この分野の開発に注力している。

業界の主要プレイヤーが示す未来

GoogleFacebookは、市場の流れを良く捉えている。Facebookは特に良い立ち位置にいる。彼らは、これからマーケティングの基本単位となるユーザープロフィールを中心にサービスを構築しているからだ。

両社は、マーケティング判断を下すエンジンをどちらが所有するかを巡って競っている。GoogleとFacebookは、サードパーティーデータを最も多く保有していて、他企業が保有するファーストパーティーデータを自社のプラットフォームにアップロードさせたい考えだ。そうすることで各社のデータと彼らの保有する大量のサードパーティーデータと統合できる。

最近両社ともに「カスタムオーディエンス」プロダクトをローンチした。企業がファーストパーティーのデータをアップロードできる機能だ。これは、他のマーケティング会社ではなく、GoogleとFacebookに、実質的にマーケティング判断を委ねることを意味する。コントロールを多く得るほど、両社は利益を生み出すことができるだろう。

業界は、インプレッションを中心とする形態から、ユーザーを中心とする形態に進化しつつある。

小さい企業は、GoogleやFacebookがマルチチャンネルのマーケティングを実質的に支配することを歓迎するかもしれないが、より規模の大きい、価値あるデータを多く保有する企業は、自社でマーケティン判断を把握したいと考えるだろう。

これらの自社でマーケテイングを行う大企業は、OracleAdobeSalesforce のターゲット市場の代表格だ。あるいは、法人向けマーケティングテクノロジーを提供する企業を構築しようとする者のターゲット市場となるだろう。

中でもOracleは間違いなく、 EloquaBlueKaiCompendiumとResponsysの買収により、価値の高い資産を獲得したと言えるだろう。しかし、同社がITやマーケティングを提供するための大規模な導入に重きを置くことは、彼らの成長を阻害する要因になるかもしれない。

大企業と並行して、スタートアップが生き延びる余地も残されている。他の大きい企業が他社を買収し、機能を拡充することも十分に考えられる。

ユーザーにとってこの革新が意味すること

ユーザーは、企業とのコミュニケーションが良くなったと感じるだろう。例えば、プロダクトの販売方法、そしてサービスやサポートの提供方法などが賢くなったと感じる。ユーザーは、お気に入りのコーヒーを補充することが簡単になり、旅行の時に必要な保険の加入を忘れることもなく、欲しかった特定の車種のテストドライブが適宜提供される。更には、銀行にモーゲージの質問をすれば、自動的にモーゲージのコンサルタントとつながり、回答が遅滞なく得られるだろう。

これを気味が悪いと感じる人もいて、プライバシーに関して多くの議論が必要だ。しかし、大多数の人は気にしないかもしれない。サービスの改善と効果的な広告は、彼らの習慣を機械に教えるコストに見合うものだと感じることも考えられる。

これはある意味、何世紀か前の時代の店主のようなのかもしれない。彼らは、顧客のお気に入りのブランド、買い物習慣、来客があること、あるいは病歴や他の個人情報を持ち、適切なサービスを提供していたことに似ている。このような個人に合ったサービスを歓迎する人もいるが、中には店主が自分のことを知らない方が良いと思う人もいる。

現代の場合、インターネット企業がユーザーに関して知っていることを他の企業に再販売できるという違いがある。これはまだ未知の状況で、また違う議論が必要な題材だ。

開示情報:私はこのテーマに関連するいくつかの企業に投資している。この記事に登場している企業もある。SundaySky, Windsor Circle and Lyticsだ。 Comcast Ventures は、StellaServiceに投資している。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

あなたのグロース計画が間違っている理由

growth


編集部記Noah Kaganは、Crunch Networkのコントリビューターである。Noah Kaganは、SumoMe.comのChief Sumoを務めている。

Mintでマーケティングの仕事を始めた時、MintのCEOとファウンダーであるAaron Patzerはサービスのローンチから6ヶ月で10万ユーザーを獲得することが必達だと話した。

数字に圧倒されたのではない。Mintで働く前、私はFacebookの30番目の社員として働いていた。サービスの驚異的なユーザー数のグロースを当事者として目撃した。その時と違ったことは、Mintはプロダクトもまだで、もちろん効果的に繰り返し使えるグロースエンジンを構築する前の段階だったということだ。一から何かを考えなければならなかったのだ。

正直な話、不安だった。まず、マーケティング計画を立てることから始めた。

結果:12ヶ月後、Mintは100万人以上のユーザーを獲得した。目標より一桁も多い数字を達成した。

スタートアップの世界でグロースは酸素のごとく生存に欠かせないものだ。グロースの目標が達成できない場合、それは会社の死を意味する。

グロースの達成は生死を分けるが、生憎多くのマーケターやファウンダーはグロースを願掛けに頼っている。事業計画に沿って一生懸命働くが、グロースに関しては地面に跪いて、全てが魔法がかかったように上手くいくようグロースの神様にお願いするのだ。

この間違いは単純なものだが根深い。どのようにグロースにアプローチするかを変えてしまうものだ。

グロースのモデリング:根本的な間違い

グロースのモデルは、達成目標の推測して作るものでも、それ通りに達成できるものでもない。当然のようだが、起業家の99%は今でも達成目標を推測している。

友人のAndrew Chenが執筆した素晴らしい記事「The most common mistake when forecasting growth for new products (and how to fix it)」で、彼は最も多く見受けられるグロース予想の間違いは次のような図であると説明している。

n月のユーザー数は、初期ユーザー数✕(1+月間グロース率)^n月。

見慣れた図式ではないだろうか?正直に考えてみてほしい。

これは、ホッキースティック型グロースのモデリングで、それ以上でも以下でもない。後は、実現可能な数値にするために、グロース率を調整すれば良い。グロース率を少し下げ、目標値が馬鹿げたものにならないように調節できる。紙面上であなたが億万長者になるような、突拍子もない数値にはなっているかもしれないが。

これは慢心をもたらすモデリングだ。計算表のたった一つのセルのグロース率をちょっといじるだけで、あたかも自社をそれくらい簡単に10億ドル評価の企業にできるような気がしてくる。

このグロース率を獲得するためのプロセスこそ、実行可能な計画を立てることにつながる。

それがひっかけなのだ。実際にはグロース率を選ぶことはできない。私たちは、どれだけ仕事に力を注ぐかということしか変更することができない。グロース率は、そのように行った仕事の結果として生じるものだ。

Andrewは、グロースのモデリングについて「グロース率は予測するものではなく、注力すべきなのは、どのようにグロース率を得るかということ」と説明している。

このグロース率を獲得するためのプロセスこそ、実行可能な計画を立てることにつながる。それがどのようにできるか説明しよう。

最も重要な数値から始める

FacebookでMark Zuckerbergから学んだことは、一回につき一つだけ、最も重要なことだけを選び、それに集中して取り組むということだ。彼からこのレッスンを学ぶ場面があった。その時のことは一生忘れないだろう。

遡ること2005年、私はプロダクトの新しいアイディアや機能を考えてはMarkに提案していた。

当時のことを思い出して欲しい。多くの人はFacebookを面白いアプリだとは思っていたが、それが本物のビジネスになるとは考えていなかった。私はそれが気に入らなかった。私は会社が十分にお金を稼いでいないのではないか思い、人々もそんなことはできないだろうと思っていることに対して不満を持っていた。

そして私は良いアイディアを思いついた。人々の憶測を覆し、Facebookが稼げて利益を大幅に出すことができる「本物」のビジネスであることを証明すれば良いと考えたのだ。

Markは私のアイディアを聞き終えた後、ホワイトボードに「グロース」と大きく書いた。彼は、Facebookの累計ユーザー数というグロースの助けにならないアイディアには、一切関心がないと話した。

自分自身の会社 AppSumoを立ち上げた後、その学びに心の底から感謝することになった。下記の画像が私たちが以前まで使用していた会社のダッシュボードだ。

ae6136bfb51578889b4b6fb587d928ac

そこには気が散るほど多くの情報があった。伸ばしたいと思う数値が多すぎたために、提案されたアイディアをどれも却下することができず、結果的にどれも伸ばすことができなかった。

更に最悪なのはAppSumoのオフィスで従業員に会社の目標は何かと聞いて回ったのなら、誰もが違う答えを口にしていただろうということだ。ちょっと考えてみてほしい。これほど恥ずかしい状況はない。

そこで、翌年の1月までに新設したコースに3333人のカスタマーを獲得し、彼らが月々1000ドルのビジネスを作る助けをするという目標を立てた。そして、ダッシュボードを下の図のように作りなおした。

6c15ce911453109515bce9ba0f649e1c

これが会社として最も達成したいことであり、全従業員が今年達成すべきことを明確に理解することにつながった。10月にはこの目標を達成し、タコスでお祝いをした。

つまり、グロースの計画を立てる時に最初にすることは、最も大事な数値を一つだけ選ぶということだ。そして、逆算してそれをどのように達成するかを考える。

目標を達成して、それを更に超える方法

目標を明確にしたのなら、そこから逆算して、必要なソリューションを考える。

私たちは「ソーシャルメディアマーケティング」と称して、ウェブ上のどこかしこにもランダムにブログ記事を投稿したりはしない。何故なら、それではゴールに近づけないからだ。

なら、どうすべきか。Mintでの例を挙げる。

Screen shot 2010-07-15 at 10.11.45 AM (2)

あまりに単純だと思うだろうか。正しくその通りだが、故に強力なツールである。

合計10万人の目標ユーザーに対して、システム上に実現可能な予測をインプットすることができた。ユーザー目標から逆算して、必要なコンバージョン率やCTR、そして獲得できるだろう異なるソースからのトラフィックを算出している。

これで何をすべきかが分かったので、実行に移すことができる。

表は2つの列がある。合計ユーザー数と実行可能な時のユーザー数だ。マーケティング施策は事前に実行可能かを確認する必要がある。ブログ、ツイート、広告購入などだ。これを運に任せてはならない。実行可能かどうかが重要だ。

上記のように予測数値をローンチ前に設定しよう。そして、各マーケティングチャネルが実現可能かどうかを確認する。マーケティング活動の途中で、実際の結果と予測値を照らし合わせる。Google Spreadsheetで管理し、何が機能していて、何が機能していないかを把握することで、計画のどの部分を変更すべきかが分かるだろう。

これを行えば、期待したり、祈ったりするのではなく、目標を達成するために何を行うべきかを熟考することができるようになる。どこを目指しているかが分かり、どのように進むべきかも分かってくるだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter