工場のためのアプリプラットフォームTulipが1300万ドルを調達


大規模なOEMの工場内ではロボットと自動化の時代が始まっているが、こうした工場の中で働く実際の人間たちは、ほとんどテクノロジーから忘れられて来た。しかし、工場エンジニア、オペレーター、そしてマネージャーたちのためのソフトウェアプラットフォームのTulipが、すべてを変えようとしている。

その目的を達成するために、TulipはNEAの主導したシリーズAで1300万ドルを調達した。ラウンドにはPitango Venture Capitalやその他の既存投資家たちも名を連ねている。また契約の一部として、NEAパートナーのDayna Graysonが、同社の取締役会に加わる予定だ。

ロボットやオートメーションの登場によってメーカーが製品を作る方法が変わったとしても、こうした工場で働く人たちが、工場内プロセスを詳細化したりデバッグしたりするために使っているのは、原始的なツールである場合が多い。例えばクリップボードやストップウォッチ、そしてExcelのスプレッドシートなども使われているが、こうしたものはリアルタイムとは言い難く、洞察を自動的に引き出すこともなく、単に手動で貴重なデータを集めているだけだ。

そこがTulipの狙う場所だ。

Tulipは、プロトコルに関係なく、センサー、カメラ、およびその他のIoTハードウェアたちが、中心的なバックエンドシステムの中で相互に通信できるようにするソフトウェアプラットフォームを提供する。このタイプのソフトウェアに慣れていない人びと(工場のオペレータやエンジニアたちなど)は、様々な”If/Then”(もし〜ならば〜する)部品を、プラグアンドプレイすることができる。こうすることで工場フロア内の問題になっているエリアに関する鳥瞰イメージを得て、課題を素早く修正することが可能になる。

Tulipを通じて、メーカーはインタラクティブな作業指示、自動データ収集、品質管理、監査、マシン監視、トレーニングを実装することができる。

たとえば、Tulipを使えば、フロアマネージャーたちは、フロアを見回りつつオペレーターやエンジニアたちの肩越しに覗き込むことなしに、データ収集と洞察に集中することができる。特定のワークベンチや特定のツールに取り付けられたセンサーや、組立ライン上のカメラが、全体プロセスの中で何が起きているかを自動的に検知することが可能だ。このことによりマネージャーたちは、手作業によるデータ収集/入力なしに、プロセスを洗練する作業が助けられる。

  1. tulip-station.jpg

  2. tulip-smart-factory.jpg

  3. tulip-scan-barcode.jpg

  4. tulip-digital-standard-work.jpg

  5. tulip-capture-defect.jpg

CEO兼創業者のNatan Linder(MITでのインターフェイスの研究からスピンアウトしてTulipを構築した)はこう語る「私たちはこうしたオペレーター、エンジニア、マネージャーたちが、情報に基づく合理的な動きをすることができるようにしているのです」。「そして更には、Tulipはリーダーボード(順位表)の仕組みを使って、従業員たちが自分のパフォーマンスについて動的に知ることができるようにしています、このことが仕事を一種のゲームに変えるのです」。

Tulipによれば、グローバルメーカーのJabilに於ける最初の4週間の導入実績値で、生産性は10%以上上がり、手動の組み立て作業による品質問題は60%減少したとのことだ(なおこの分析はDeloitteによって行われたものである)。

同社は完全な価格表を公開していないが、作業台単位のSaaSモデルで顧客に課金する。

Tulipは、新しい調達資金を利用して、プロダクト、デザイン、そして研究チームを成長させ、顧客サポートを強化する予定だ。

[ 原文へ ]
(翻訳:Sako)

これからのUI:耳か、手か、あるいは目か

Tin can phone on white background

【編集部注】著者のMichael EisenbergはAlephのパートナーである。

スマートウォッチが出て来る前でさえ、私は時計を着用していなかった。そのクールな要素にも関わらず、私はApple WatchもPebbleも買わなかった。iPhoneに関しては新機種が出て出荷が安定すると、すぐに機種変更をしている私なのにも関わらず。

腕時計を腕にしたときの感覚が好きになれない;いやそもそも私は腕時計の価値というものが分からないのだ。私の息子のように陸軍(G-Shockが推奨時計になっている)に属しているのでなければ、そこらじゅうの壁の上に時計がある(それはずっと昔からのことだ)。そして誰のポケットにも時間と日付を教えてくれる携帯電話が収まっている。

言うまでもなく、スマートウォッチ売上高の減少についての下のグラフは、私にとっては驚くことではない。

Screen Shot 2016-08-25 at 1.53.58 PM

革新的な新しいデバイスが普及しプラットフォームになるためには、これまでとは違う私たちの身体の部位もしくは感覚を活用する、新しいユーザーインターフェイスを開拓する必要があるのだろうと思う。

実際PCは、GUIとマウスを使うことで普及した。マウスとGUI以前の、Commodore 64のようなコンピューターを覚えているならば、コンピューターを実際に所有し利用する人は、ほんの一握りしかいなかったことを覚えているだろう。マウスが私の手を活用できるようにして、PCが普及したのだ。

次のプラットフォームだったスマートフォンは、タッチスクリーンを大々的に開拓した。指を使ったスワイプと、手を専有するマウスでは、体験も利便性にも大きな違いがある。これは新しい体験を可能にし、常にオンでかつ常に自分専用であるスマートフォンの性質が、次世代のプラットフォームを生み出した。

技術のそれぞれの新しいレベルや時代が、人間の地理的自由も拡大する。

AppleのiPodとそのクリックホイールは、指が別の部位でありマウスとは根本的に異なるUIであることを最初に示したものだ。タッチスクリーンはその技術革新の上に構築された。これに比べてみると、スマートウォッチも同じ指タッチ式スクリーンのインターフェースを備えている。これは、人間の新しい感覚をくすぐったり、異なる部位を使用するものではない。したがってそれは、新しいアプリケーションや、利用法や、最後にはプラットフォームを導き出す、十分な革新性を生み出さない。

さて、David Passig教授が(私よりも早く)指摘したように、考慮すべき別の次元が存在している — 技術のそれぞれの新しいレベルや時代が、人間の地理的自由も拡大するのだ。スマートフォンは確かにこれを実現した、今や私たちは外出先で全てを行うことができる;以前はインターネットが遠隔情報とサービスへのアクセスを通して同じことを実現していた;そしてそれ以前にはPCが地理的自由を拡大していた、仕事を終わらせるのに学校や会社に残っていなければならない必要性から解放したのだ。

これらの2つの次元のフレームワーク(新しい身体部位の活用と地理的自由の拡大)を組み合わせたところが、この先数年にわたる投資を望む、次世代のテクノロジーならびにコンピューティングとアプリケーションの分野だ。この先、情報革命の次世代のプラットフォームになろうと競い合う、2つのプラットフォームを見る際には、このフレームワークが有用だろうと考えている。

FacebookはOculusを買収した、基本的にはVRがコンピューティングのための次のプラットフォームになることに賭けたからだ。VRは確かに「視覚」という人間の他の感覚を活用している。それは異なるユーザインターフェイスを使っている、私の眼球とヘッドセット(おそらく私が見ているものを解釈する脳も)だ。しかし、私は今のところ(予見可能な将来も含めて)VRは2番目のテストに失敗していると思っている。それは人間の地理的自由を拡大するものではない。むしろ実際にはそれは制約をする方だ。これは実際にはある地点に留まっての経験であり、私の地理的自由を仮想的に拡大してくれているだけなのだ。仮想的自由は逃避である — それは実際の地理的自由ではない。

とはいえ、そのことは私たちに、どこに真の機会があるのかを指し示していると思っている:それは私のだ、そしてその延長線上の私の口だ。私はAmazonとAppleは、それぞれAlexaと無線AirPodsで、良いところに気が付いたのではないかと思っている。スマートフォンのタッチインターフェイス革命を生み出したAppleは、Bluetooth、センサー、無線チップ、そしてその他のスマートフォン・コンピューティングの基本に詰め込むことができることに気が付いた。Fireシリーズがあまりうまく行っていないAmazonは、世代を跳び越えて音声に移行することを決めた。

興味深いことに、Appleがそこ(音声)に辿り着くためにデバイスを手から耳に移動させている(と私が思っている)一方で、Amazonがそこに進んだ理由は、いまや買い物は常時オンの体験で、何か必要なものを発見したならば、即座にAlexaに対して私の口を使って命令させようとしているからだ(と私は思っている)。こうしてAlexaは、人間が冷蔵庫を埋めようと買い物をしている最中に口を使う際の仮想の役割を果たし、Appleは私のを解放するために私の人間のを使い、私の音を出す口を補助に使う。

AppleもAmazonも、どちらの方向から革新に近付くにせよ、どちらも他の部位をつかっている:私のだ。そして、コマンドまたはインタフェースとして音声を使用することにより、近接または長距離で、私たちは人間の自由に対して意味のある、また別の拡張を行うことができる。特に、それがハンズフリーインタフェースでもあるという事実を考えたときには。

を解放することによって、私たちにはまだ想像できない方法で、声、音、そして自由なを使うイノベーションを可能にできる。もしティーンエージャーのから携帯電話を取り上げたなら、人間の創意工夫をどれほど前に進めることができるかを想像して欲しい。

興味深いことに、音声についての同じ認識が、GoogleのPixel携帯電話の開発を導いているものと思われる。Googleが追っているのは実は携帯電話ではなく、音声駆動アシスタントの利用の推進、改善、そして拡大なのだ。私たちは複数の情報源から、今やInbox(Googleの開発した共同作業用メールアプリケーション)の返信の25パーセントはスマートリプライである話というを聞いたが、それは驚くべきことだ。これは、Googleが未来のインターフェイスのソフトウェアおよびネットワークレイヤーで優位に地位に立つことを確実にしようとする動きに合致する。それは、彼らの見解では、それは明らかに音声だ。

私は、音声および音声アプリケーションだけでなく、耳を使ったワイヤレスコンピューティングについてもとても期待している。私はそこには別の利点もあると考えている。の中の小さな画面から私たちを解放することで、現在の曲がったホモサピエンスの頭を、目の高さに戻すことになるだろう。そして、私たちはまたお互いに話し合うようになる — Alexaに対してだけではなく。

[ 原文へ ]
(翻訳:Sako)

コンピューターとの対話はマルチモーダルへと向かう

disrupt_sf16_michael_buckwald_jim_margraff-4387

私たちはテクノロジーと触れ合うために、長い間コンピュータのマウスを利用してきた。そしてタッチスクリーンが、私たちのガジェットへのコマンド入力に新しい方法をもたらしたが、それらはマウスクリックと基本的には同じ考え方に依存している。iPhone 7上の新しい3Dタッチにしても、指を使ってイエス/ノーに答える、恐ろしく洗練された方法だというだけの話だ。

Leap MotionのCEOであるMichael Buckwaldと、EyefluenceのCEOであるJim Marggraffの2人は、将来のヒューマンコンピューターインタラクションは、様々な入力手段が組み合わされた(=マルチモーダルな)ものになるということで意見が一致している。Marggraffは、Steve Jobsがマウスの役割を指で置き換えたことと同様のことを、目で行おうとしている。彼の会社は、ARとVRのための視線追跡テクノロジーを開発している。一方Buckwaldはコミュニケーションツールとして手の動きを活用する、やや方向の違うアプローチをとっている。

「誰もが今、それぞれのポケットに15年前のスーパーコンピューターを持っています」とBuckwaldが付け加えた。「しかし私たちがこれらのデバイスを実際に使う方法を比較してみると、その使い方は本質的にはオン/オフのバイナリのままなのです」。

人間には、コミュニケーションを双方向なものにしたい自然な欲求がある。こうした理由から私たちは触覚的なフィードバックや、実際のプラスチックボタンなどを熱望するのだ。しかし、新しいコミュニケーションの方法を生み出したときには、新しく不慣れなフィードバックにも間接的に出会うことになる。時には、このフィードバックは、VRで過剰に時間を過ごしたために感じる吐き気のような不快なものであり得るが、一方素晴らしいものとなる場合もある。

「報告によれば、70から80パーセントの人が、なんらかの触覚的フィードバックを得ているように脳が感じているようですね」と、Leap Motion Orionの利用者が感じるファントムセンセーション(実際に存在しないものがあたかも有るように感じる錯覚現象)に触れながら、Buckwaldは語った。

これは、退屈な日常の仕事を逃れてエベレストのベースキャンプへ行きたいと思っている人たちにとっても楽しいものである一方、切断手術に伴う幻肢痛に苦しむ人たちにとっては信じられないほど価値のあるものとなる。VRは、そうした人たちの失われた手足を、まだそれがそこにあると信じている脳に接続するための貴重なツールとして使われるのだ。

更に悪い例だが、閉じ込め症候群(locked-in syndrome)の人は容易に外部とコミュニケーションを取ることができない。彼らにとってコミュニケーションは、多大な努力を必要とする疲れるプロセスであり、私たちが当然と思っている早口に追いつくことも闘いなのだ。

「一般的に言って、メニューを視線で操作することは、手を使う時間に比べて、わずか数十ミリ秒で完結できるのです」とMarggraffは付け加えた。

比喩を使って話すことを好む人がいる一方で、ユーモアを使いたい人もいる。人間と機械の対話はこれが決定版だというような、勝者が総取りをするようなやり方にはならない。

「仮想オブジェクトを捕まえて、保持し、動かして、様々な方向から眺めて、その大きさを調べたり、色を変えたり、変形したり。そうしたことを手で始めて、目でそれを引き継ぐこともできるのです」とMarggraffは続けた。

私たちが確信しているのは、入力メカニズムがどうであれ、コミュニケーションは遅延や中断のないシームレスなものでなければならないということだ。自然さとリアルさは、経験の質と表裏一体である。世界がより没入型になるだけでなく、その中で不快に感じることも少なくなるだろう。

これは全ての人にとって意味のあることだ。いつか私たちの子供たちは、別の大陸にいる友達とVRを通して遊べるような世界で育つことになるだろう。これはAltspaceVRのような企業によって、共有体験の上に形作られるソーシャルネットワーク全体とともに探求されている仮説と同じである。

VRの成長の中で、コンテンツの品揃えは、エンターテインメントプラットフォームとして偏ったままである。この先「iPhoneが起こしたような転換」は起こり得るだろう。ただしそれはマルチモーダルなヒューマンコンピューターインタラクションを通してのことになる。

[ 原文へ ]
(翻訳:Sako)