スタンフォードの大学院生はVCに頼らずクラスメートから投資を受ける

スタンフォード大学がスタートアップ創設者を多く輩出し成功していることは、シリコンバレーでも有名な語り草になっている。スタンフォード卒業生が創設した企業には、Google(グーグル)、Cisco(シスコ)、LinkedIn(リンクトイン)、YouTube(ユーチューブ)、Snapchat(スナップチャット)、Instagram(インスタグラム)、そしてそうこのTechCrunch(テッククランチ)もある。そのためベンチャー投資家は、スタンフォードのビジネススクールを卒業した企業創設者には、米国にある他の大学の出身者よりも多くの資金を日常的に投資(Crunchbase News記事)している。

そこで、自分たちが有利な立場であることをよく理解しているスタンフォードの大学院生のあるグループは、きちんとした投資会社や超大金持ちに頼らず、自分たちでクラスメートに資金提供ができるはずだと考えた。

彼らは、スタンフォードの学生だけで新しいファンドStanford 2020(スタンフォード・トゥエンティー・トゥエンティー)を設立し、学友のベンチャー事業への投資を行うことにした。

発案者は6人の学生。彼らは1年間、Fenwick & West(フェンウィック・アンド・ウェスト)法律事務所と連携して、投資クラブの設立に適した法的枠組みを探し出した。何らかの共有関係を維持している限り、複数の参加者が共同で投資できるというものだ。

Stanford 2020の創設メンバーであり、ベンチャー投資会社NEAの元アソシエイト、Steph Mui(ステフ・ムイ)氏は、シリコンバレーのステータスシンボルの中のエリートと彼女が呼ぶ、ほとんど接触が叶わないエンジェル投資家には頼るまいと、このクラブを立ち上げた。

「特にシリコンバレーでは、地位を確立した人や認められた人だけにそれが許されます。とても特権階級な感じです」と彼女はいう。「クラスの全員が参加できる形でできないか、仲間内で少額の資金を出し合うよりも、もっと利用しやすい形を作れないかと私たちは考えるようになったのです」。

Stanford 2020クラブに参加するためには、最低3000ドル(約31万7000円)の入会金を払う必要がある。利益が出た場合には、出資額に応じたリターンが必ず分配される。今のところ、175名の投資者から150万ドル(約1億5800万円)の資金が集められ、50万ドル(約5280万円)の出資を希望する50人が受け付けを待っている。クラブは「定員オーバー」の状態にあり、返金作業に追われている。

ムイ氏は、クラスの40パーセントがクラブに参加していると見ている。創設メンバーは「役員会メンバー」として定義される。彼らは情熱、多様な経歴、専門的な関心、過去におけるリーダー経験を考慮されて選考されている。

クラブは、ラウンドの規模と評価額に応じて、5万ドル(約530万円)から10万ドル(約1060万円)の投資をスタートアップに対して行う予定でいる。

Stanford 2020の強みは、投資先企業との人間関係によるところが大きいとムイ氏は考えている。つまり成功は、手の届く範囲内にあるということだろう。Cloudflare(クラウドフレア)もRent the Runway(レント・ザ・ランウェイ)もThredUp(スレッドアップ)も、みな同じハーバードビジネススクールの教室で行った課題が発展して生まれた企業だと、CloudflareのCEOであるMatthew Prince(マシュー・プリンス)氏はいう。

「私たちには、元々の強い人間関係があります。資金集めを始める前から、彼らが何に取り組んでいるかを、みんなが知っているのです」とムイ氏は話す。

クラブの参加者つまり仲間たちは、みな深い忠誠心を自覚しているが、その親密性が仲間の企業へ資金提供する際の十分な条件になり得るのかは、これからわかることだ。Stanford 2020は、手数料もキャリーも一切受け取らないが、エクイティは固定される。その点では、シリコンバレーの著名な投資会社のほうがクラスメートより使い勝手がいいかも知れない。

Stanford 2020の構成は、スタンフォード大学が緑豊かな学内の庭に投資するための事業で、2019年に廃止(Silicon Valley Business Journal記事)されたStartX(スタートエックス)と似ている。2013年に設立されたStartXは、大学付属のアクセラレーターを修了したスタートアップならどこでも、株式と交換で投資が受けられるというもので、プロの投資家から50万ドル(約5300万円)の資金を得ていた。

Stanford 2020の構成を見ると、ルールはほぼ同一だ。ムイ氏がTechCrunchに話したところによると、自動的な投資を受けるためにはスタートアップは2つの基準を満たす必要があるという。1つは、共同創設者は同級生であること。もう1つは、評判のよい機関投資家から投資ラウンドで75万ドル(約7900万円)以上を調達することだ。評判がよい会社とは、業界のアドバイザーから彼らに提供されたリストに掲載されている80社をいう。

ルールに基づく自動投資戦略というこのコンセプトには、心配な点もある。創設者の考えが間違っていても、または創設者が悪い人間であっても、基準を満たせば通るのか?

「投資すべきでない悪人や相当に不道徳な人は、私には誰一人思い浮かびません」とムイ氏。「それが、クラスメートだけを対象に投資するという方針のメリットでもあります」。

しかし、スタンフォードの教室から問題のある企業創設者が誕生した場合に備えて、Stanford 2020には拒否投票制度がある。

物事の大きな仕組みの中では、スタンフォード出身のスタートアップは資金調達の面で、他の大学出身者よも有利な立場にある。必死になってファンドを探し求める必要もない。ムイ氏がStanford 2020で抱いている願望に、他の大学でも彼らが1年間かけて(苦労の末に)作り上げた法的枠組みを、そのまま模倣して使えるようにすることだ。

すでにStanford 2020には、スタンフォードの次のクラスや、他スクールの大学院生、学部生からのインバウンドがあるという。現在はクローズしたが、彼女は他のビジネススクールからのニュースを待ち望んでいる。

画像クレジット:Bryce Durbin / TechCrunch

原文へ
(翻訳:金井哲夫)

視覚障がい者が3D形状を体感できる触覚ディスプレイ

視覚障がいのある人にとって、コンピューターと最近のソフトウェアを使うのは、ただでさえ面倒なこと。3Dデザインのような基本的に視覚に頼る作業は、さらに難しい。スタンフォード大学のチームは、CADやモデリングプログラムなどの3D情報を表示する方法に取り組んでいる。ピンを上下させることで、一種の触覚ピクセルを実現する「2.5D」ディスプレイを開発した。触覚(タクタイル)ピクセルを縮めて「タクセル」だ。

画像クレジット:スタンフォード大学

この研究プロジェクトは、大学院生のAlexa Siu(アレクサ・シウ)氏、Joshua Miele(ジョシュア・ミーレ)氏、研究室長のSean Follmer(ショーン・フォルマー)氏のコラボレーションとして進められている。全盲の人や視覚に障がいのある人でも、確かな視覚を持つ人の助けを借りずに視覚的な作業が遂行できるようになることを目指すもの。今週開催された国際会議「SIGACCESS」(International ACM SIGACCESS Conference on Computers and Accessibility)で発表した。

このデバイスは、基本的には12×24本の柱がマトリクス状に並んだ構造となっていて、各柱の上端は丸く加工されている。平面から1インチ(約2.54cm)ほど飛び出た状態から、さらに数インチ上に、1本ずつ個別に伸ばすことができる。それによって3Dオブジェクトの形状を、ほぼリアルタイムと言えるほど素早く表示する。

「これによって、目の見えない人たちの可能性が拡がります。単に製品製造技術の消費者になるのではなく、そこに参加することができます。3Dモデリング環境を利用して、自分たちが欲しかったり、必要としているツールを作ることもできるのです。それにも、さほど時間がかからなくなるように考えています」と、自らが盲目のMiele氏は、スタンフォード大学のニュースで説明している。

シウ氏は、デバイスを「2.5D」と呼んでいる。なぜなら、オブジェクト全体が空中に浮かんでいる状態は表現できないからだ。しかし、画面を見ることができない人にとっては、そこに表示されている形状を理解するための手軽な方法となる。もちろん解像度は限られている。しかし、それはすべての触覚ディスプレイに共通する欠点だ。しかも、そもそも触覚ディスプレイ自体が珍しい存在で、たいてい非常に高価なものであることは知っておく必要がある。

この分野にも前進は見られるが、動きが遅すぎる。たとえば、子ども向けの安価な点字ディスプレイとして開発されたBecDotに関わるグループや保護者にとっても、そうなのだ。そして他の触覚ディスプレイは、仮想環境向けのインターフェースとしての可能性が追求されているものがほとんどだ。

3Dオブジェクトを直感的に理解するには,普通はオブジェクトを回転したり、ずらしてみたりする。それについては、オブジェクトを設計する場合も、ただ見るだけの場合も同じだ。ところが、そうした動きを視覚に頼らずに表現するのは難しい。それでも、このようなリアルタイムの触覚ディスプレイなら、表示している形状を素早く、かつスムーズに変形できる。それにより、断面の位置をずらしながら表示するなどして、より複雑な形状も表現できる。

デバイスをデモするJoshua Miele氏

このディスプレイは、まだ商業的なプロジェクトにはほど遠いものだが、写真や下のビデオからも分かるように、実際に動作するプロトタイプであり、その点では完成度も高い。研究チームは、ピンのサイズをさらに小さくする計画だ。それにより、もちろんディスプレイとしての解像度が向上する。すでに同じ研究室の別の大学院生が、まさにその課題に取り組んでいる。このような初期の段階であることを考えると興味深い。

スタンフォード大学のShape Lab(シェイプラボ)は、似たような趣旨で、他にもいくつかのプロジェクトに取り組んでいる。研究室のウェブサイトで最新情報を確認でしよう。

原文へ

(翻訳:Fumihiko Shibata)

自動運転車AIがチャンピオンレーサーと対決

自動運転車の開発の世界は、ともすると無味乾燥なものになりがちだ。無事故で走った距離が百万マイルに達したとか、歩行者の検出範囲が10%増えたとか、そういったことしか語られない。しかしここで紹介する研究は、そのような指標からは見えてこない面白いアイディアを持ち、驚くほど実践的なテスト方法を採用している。自動運転車とレーシングドライバーを、サーキットで競わせようというのだ。

念のために言っておくが、これは見世物ではない。紛れもないまじめな研究なのだ。コース上でポジションを争ったり、フェイントをかけたり、バンバーを擦り付けたりはしない。走行は別々に行われた。また私がやりとりした研究者は、ラップタイムを明らかにすることを丁重に断ってきた。これはあくまで科学であることをご理解いただきたい。

スタンフォード大学のNathan Spielberg氏とその同僚は、自動運転車の極限状態での挙動に関する質問には喜んで答えてくれた。言うまでもないが、一般的な自動運転車の走行のほとんどは、通常のスピード、良好な条件でのものだ。また、その際に遭遇する障害物のほとんどは、想定内のものとなっている。

もしも最悪の事態となり、車が通常の操縦の限界を超えなければならなくなったとき、たとえばタイヤのグリップ力の限度を超えるような状態になったときでも、その自動運転を信頼できるのだろうか? 果たして、そのような運転が可能なAIを開発できるのだろうか?

この研究者の論文は、Science Robotics誌に掲載された。物理学ベースのモデルでは、こうした状況に十分に対処できないかもしれない、という仮説から始まっている。そうしたコンピュータモデルは、重量、速度、路面状態、などの条件を考慮して、車の挙動のシミュレーションを行う。しかし、そうした条件は、どうしても単純化されているので、値が通常の範囲を超えると、かなり不正確な結果を導くことになる。

そのようなシミュレーションが、タイヤの接地を点または線に単純化して考えているとしよう。しかし、実際に滑り始めたときには、タイヤのどちら側に強い摩擦力が働いているのかは非常に重要だ。そこまでの詳細なシミュレーションは、現在のハードウェアの能力を超えていて、十分に速くかつ正確に実行することができない。しかし、シミュレーションの結果は、入力と出力に要約することができる。それらのデータをニューラルネットワークに処理させたらどうだろう。その結果、非常にうまくいくことがわかった。

シミュレーションによって、この車の構造と重量なら、Xという速度のときにYの角度で曲がろうとすれば、どのような挙動を示すのか、という基本的な情報が得られる。もちろん、実際にはもっと複雑だが、基本的にはそういうこと。ここまでは単純だ。次に、このモデルはトレーニングによるデータを参照し、さらに現実世界の結果も調べる。それはおそらく、理論とは異なったものとなっている。

そうして、車がコーナーに差し掛かったとき、理論的にはハンドルをどれだけ左に切る必要があるか、次の点ではどれだけ切り足すか、といったことを知ることができる。しかし車内のセンサーが、車が意図したラインから少しずれていることを報告したとする。すると、その入力が考慮され、AIエージェントはハンドルをもう少し切るか、逆に戻すのか、状況に合わせて判断するのだ。

では、レーシングドライバーはどこで登場するのか、と疑問に思われるかもしれない。研究者は、この車のパフォーマンスを人間のドライバーと比較する必要があった。それも、摩擦の限界で車をコントロールする方法を経験的に体得しているようなドライバー、つまりレーサーのことだ。普通の人には、なかなかそこまでの運転はできない。

チームによれば「アマチュアレースのチャンピオンドライバー」というレーサーを雇って、カリフォルニアのThunderhill Raceway Parkを走らせた。それから、Shelleyという名の、2009年型のAudi TTSを改造した自動運転車を送り出した。それぞれ10回ずつだ。これは、のんきな日曜日のイベントなどというものではなかった。上記論文には、以下のように書かれている。

自動運転車と人間のドライバーは、いずれもサーキットをできるだけ短い時間で周回しようと試みた。この運転の最大加速度は、ほぼ0.95Gに達した。タイムを最短にできるようなレーシングラインを通り、タイヤのグリップの物理的な限界を追求した状態だ。縦方向と横方向ともに、このレベルの加速度を実現すると、車の最大速度は、サーキットの一部区間で95mph(約153km/h)に達する。

このような極端な運転条件の下でも、コントローラーは一貫してレーシングラインをトレースすることができた。平均的な誤差は、サーキット上のあらゆる区間で40cm以下だった。

言い換えれば、それだけのGがかかり、95mphの速度に達した状態でも、自動運転のAudiは、理想的なレーシングラインから1フィート半以上逸れることはなかったのだ。人間のドライバーのズレは、もっと大きかった。しかし、これはエラーとはみなされていない。人間は、自分の判断でラインを変更するものなのだ。

「サーキットをセグメントに分けて、いろいろなタイプのコーナーを比較しました。それによって貴重なデータを収集できました」と、Spielberg氏はTechCrunchへの電子メールで述べている。「サーキット1周全体のデータについても比較し、同様の傾向が維持されていることも確認しています。つまり、Shelleyは、一貫性という点では優れていますが、人間のドライバーは車の変化に応じてラインを変更できるという点で優れています。これは現在実装中の能力です」。

Shelleyは、人間よりもラップタイムの変動がずっと小さかったが、人間のレーサーは周回を重ねることで、かなり優れたタイムを出すようになった。セグメントごとの平均を評価すると、ほとんど同等だが、わずかながら人間が優っていた。

これが単純な自動運転モデルであることを考えると、かなり印象的な結果だ。現実世界の知識は、システムにはほとんど組み込まれていなかった。たいていは、シミュレーションから得られた結果によって、その瞬間、瞬間で、どのようにハンドルを操作すべきか判断していた。しかも、フィードバックは非常に限られていた。自動運転システムが置かれた状況を把握するために使うことの多い、高度なテレメトリにはアクセスしていなかったのだ。

結論を言えば、比較的単純なモデルによって、通常のハンドリングの条件を超えた車をコントロールするというアプローチも、なかなか有望だということになる。ただ、路面の状態や条件によって、調整する必要はあるだろう。たとえば、後輪駆動車で未舗装路を走るのと、前輪駆動車で舗装道路を走るのとでは、明らかに違っている。そのようなモデルを、どのようにして開発し、どうやってテストすれば良いのか、ベストな方法は今後の研究課題となる。しかしチームは、それも単にエンジニアリング上の課題だと確信しているようだ。

今回の実験は、あらゆる運転操作において、自動運転車が人間よりも優れるという、まだまだ遠い目標を追求するために実施されたもの。この初期段階のテスト結果は希望の持てるものだった。とはいえ、自動運転車がプロと渡り合えるようになるまでには、まだ長い道のりがある。それでも、その時が来るのが楽しみだ。

画像クレジット:スタンフォード大学

原文へ

(翻訳:Fumihiko Shibata)