G Suiteのユーザーが未承認デベロッパーのアプリケーションを使おうとしたら警告画面が出る

Googleはこのところ、G Suiteのセキュリティ対策に熱心で、とくに最近の数か月は 、フィッシング対策ツールOAuthのアプリケーションホワイトリスト機能アプリケーションレビュープロセスの強化など、立て続けに新しいセキュリティ機能を導入してきた。今日(米国時間7/18)はそれらにさらに上乗せして、新しいWebアプリケーションやApps Scriptに対して、警告のための“未承認警告画面”(下図)が出るようになった。

この画面は、OAuthのGoogleによる実装を使ってユーザーデータにアクセスしているアプリケーションが、Googleの承認プロセスを経ていないデベロッパーの作であったときに出る。それによりユーザーは、これから使おうとしているアプリケーションが未承認であり、それでも使うなら自己リスクで使うことになるぞ、と自覚を促される。“続ける”ボタンや“OK”ボタンのような便利なものはなくて、そのまま続行するためにはキーボードからわざわざ”continue”と入力しなければならない。迂闊で不注意なユーザーを減らすための、工夫だ。

一応考え方としては、画面にアプリケーションとデベロッパーの名前が出るのだから、それだけでもフィッシングの危険性を減らせる、と言えるだろう。

Googleによれば、ユーザーはこの、突然お邪魔する画面を無視できるのだから、デベロッパーは承認プロセスを経ずに、もっと簡単にアプリケーションのテストができる。

Googleは今日の発表声明でこう言っている: “ユーザーとデベロッパーの健全なエコシステムを作りたい。これらの新しい警報によって、リスクの可能性をユーザーに自動的に伝え、ユーザーは自分が状況を知ってる状態で、自主的な判断ができる。またデベロッパーは、これまでより容易にアプリケーションのテストができる”。

同様の保護が、Apps Scriptにもかかる。デベロッパーはApps Scriptを書いてGoogle Sheets, Docs, Formsなどの機能を拡張できるが、ユーザーにはやはり、上図のような警告画面が提供される。

今のところ、警告画面が出るのは新しいアプリケーションのみだ。しかし数か月後には、既存のアプリケーションにも出るようになる。既存のアプリケーションのためにも、デベロッパーは承認プロセスを経た方がよいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Glass、エンタープライズ向けで復活中――組立、修理などの現場に好適

以前からGoogle Glassは企業向けプロダクトとしては大いに意味があると評されてきた。Google自身もこの見解を取っているとみえ、Glassは企業現場向けにカスタマイズされたアプリケーションを含むGlass Enterprise Edition (EE)という形で復活中だ。

企業ははるか以前からウェアラブルなヘッドマウントディスプレイを有用なデバイスとして使ってきた。Google Glassは一般消費者向けプロダクトとしては花々しい失敗に終わったが決して死んではいなかった。Googleでは企業現場向けのGlass EEとして普及を図るアプローチを取っている(Wired経由)。

新しいGlass EEのカメラは、以前の5メガピクセルから8メガピクセルに強化されている。バッテリー駆動時間も長くなりプロセッサも新しいものになった。ビデオ録画中を示すインディケーター、高速化されたWi-Fiも装備される(こうした改良のほとんどは大量生産のおかげえスマートフォンのコンポネントが大幅に値下がりしていることから恩恵を受けたものだろう)。しかしGlass EEの最大の改良点はモジュールがメガネ自体から脱着可能になったことだ。つまり安全ガラスを利用した産業用の保護メガネのようなデバイスを必要とする現場でも利用できるようになった。

Glassがメガネから脱着可能なモジュールとなったのはエンタープライズでのユースケースにきわめて大きなメリットだ。これによりいままでもよりもはるかに低コストかつ多様な現場でGlassが利用できるようになった。Wiredの記事によれば、Glass EEは「実験段階を卒業し、製造パートナーを得て本格的な量産態勢に入っている」ということだ。

Xチームが紹介するユースケースによれば、Google Glassは農業機械の製造、医療、DHLのロジスティクスなど多様な現場で用いられている。Glassソリューション・パートナーを通じて広くGlass EEが入手できるようになるため 今後はさらに多くのビジネス・アプリケーションが集まってくるはずだ。

Googleが消費者向けGlassの普及に失敗した後、一部のスタートアップはエンタープライズ向けのニッチ分野にGlass的なシステムの可能性を見出していた。Google自身がGlassの再活性化に乗り出したことはハード、ソフトのプラットフォームとして今後に大きな可能性を示すものだ。しかし同時にエンタープライズ向けAR、ヘッドマウントディスプレイの分野で活動するスタートアップにとっては手強いライバルが現れたことも意味する。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

マーケティング・データのスタートアップ、SegmentがラウンドCで6400万ドル調達

SegmentがシリーズCのラウンドで6400万ドルを調達した。Y Combinator Continuity FundとGVがこのラウンドをリードした。

Continuity Fundは元TwitterのCOO、Ali Rowghaniが設立した7億ドルのファンドで、Y Combinator出身の有望なスタートアップが大きな資金調達を行う際に出資する。

出資の条件の一環としてRowghaniはSegmentの取締役に就任する。資金調達の発表の際にRowghaniは「〔Segmantは〕Y Combinator出身企業の中でも最大の成功企業の一つへと成長する道を歩んでいる」と期待を述べている。

CEOのPeter Reinhardtを含めSegmentの3人の共同ファウンダーは MITのドロップアウトでYCの2011年の夏学期を卒業したチームだ。同社のプロダクトはアクセス分析系のツールで、企業はオンラインデータをSegmentのAPIを利用して外部のマーケティングおよびアナリティクス・ツールにエクスポートし、さらに顧客データをStripe、Salesforce、Mailchimp、Zendeskなどのサービスに統合できる。

Reinhardtはこの種のマーケティング・データのインフラに対する需要は高まる一方だして次のように述べている。

「この5年間、マーケティング関連の機能を統合したツールが必要とされていると多くの投資家が主張してきた。メールやマーケティング・ツールの数は加速度的に増え続けているが、こんなことは続くはずがない。しかし実際には統合ツールよりも、それぞれの分野でベストのツールを企業側で統合的に運用できるツールの方がはるかに現実的だ。…ツールはますます個別化、細分化され、業種、地域、企業規模など特定のニッチの要求にぴったり応えるプロダクトが生まれている」

企業がますます多様なアナリティクスやマーケティングのツールを採用する状況に対して、anReinhardtは「Segmentは企業のマーケティング活動のハブとなり、顧客データ処理のプラットフォームとなること目指す」としている。

SegmentのプロダクトにはIntuit、Atlassian、Gapなどの有名企業を含め、すでに1万5000社以上のカスタマーがある。Reinhardtは「Segmentのユーザーは当初はスタートアップが多かったが、このテクノロジーを大企業に売り込むことにも大きなビジネスチャンスがあると気づいた」と語った。

ReinhardtはSegmentをサードパーティーが自社のデータを自由に利用できるマーケティング・プラットフォームに成長させたいと考えている。Segmentにはすでに200種類のツールが用意されており、そのうちの30%は社外のパートナー企業によって開発されたものだという。

今回のラウンドでSegmentの資金調達総額は1億900万ドルとなった。このラウンドには既存の投資家、Accel、Thrive Capital、SV Angel、NEAが引き続き参加した。

Featured Image: Segment

[原文へ]

(翻訳:滑川海彦@Facebook Google+

URL短縮の元祖Bitlyが自社の過半数株を売って成長資金を獲得

Bitlyが、Spectrum Equityからの追加資金として6300万ドルを調達したことを発表した。これによりBitlyの過半数株がこのグロウスエクィティ(growth equity)企業へ行く。

2008年に創業した同社は、Twitterのアカウントのある者なら誰でも使える便利なリンク短縮ツールとして有名だったが、今ではリンク短縮を企業に多くのコントロールとデータを与える方法として利用するビジネスがメインだ。

Bitlyの今のプロダクトは、ブランド化された短縮リンクや、それらのリンクの上で生じているアクティビティを調べるアナリティクス、モバイルアプリのインストールや再エンゲージを促進する、デバイス認識のできるモバイルディープリンクなどだ。顧客は、Bitlyによると、“Fortune 500社の3/4近い”。

CrunchBaseによると、Bitlyが最後にVCから資金を調達したのは2012年だ。今回の資金提供の一環として、SpectrumのPete JensenとParag Khandelwalが、BitlyのCEO Mark Josephson(2014年に就任)とともに、Bitlyの取締役会に加わる。

“Bitlyはインターネットの最強のブランドのひとつであり、希少な遍在性(いたるところにある/見かけること)を達成している”、とJensenが声明文で述べている。“MarkとBitlyの首脳陣は、‘無料だけ’の企業を、急速に成長し利益を生むフリーミアムのSaaS企業に変貌させた。そのビジネスを次のレベルへスケールアップするための、資本とサポートと経験をわれわれが提供できることは、きわめて喜ばしい”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft、数千名規模のレイオフ報道を正式に認める

一週間にわたる報道を受け、Microsoftは組織再編の計画を正式に認めた。本誌が先日報じたように、変更には営業チームの再編成がともなうため、数千名の社員に影響を与えることが予想される。その後の報道にある対象人数は、「最大3000名」から5000名近くまでさまざまだ。少ない方の数字を挙げたCNBCは、レイオフの約3/4は米国以外で実施されることを付け加えた。

Microsoft自身はまだ具体的な数字を出していない。従業員に解雇について伝えるプロセスが始まったことを認めただけだ。それ以外、TechCrunchに提供されたメモには、前回報じた数千名規模になるであろうレイオフについて曖昧に書かれているだけだった。

「Microsoftは弊社の顧客およびパートナーにこれまで以上のサービスを提供するために組織を変更する。本日一部の従業員に対して解雇の可能性を伝えた。他の企業と同じく弊社は定期的に経営状況を見直している。その結果、一部の部門への投資を増やしたり、必要な時には配置転換を行うこともある」とMicrosoftの広報担当者が声明で述べた。

レイオフは今日から始まる予定であり、改変後の営業チームはクラウドサービスのAzureに集中する。新しいアプローチでは、エンタープライズおよび中小規模の顧客が主要ターゲットとなり、従来の政府、石油・ガス、製薬などからは離れる。タイミングは例年同社が大きな人事異動う行う会計年度末と一致している。

7月3日にEVPのJudson Althoffが書いたスタッフ・メモに、事業方針の変更について書かれている:「適切なリソースを適切な顧客のために適切な時に配置する」。

メモには解雇人数を減らす計画について何も書かれていないが、Althofは昨年末にビジネス営業チームの責任者になって以来、過去の営業方針を公然と批判しており、Azureの販売に関して今まで以上にカスタマイズを強化する計画を打ち出していた。

Featured Image: Bloomberg/Getty Images

[原文へ]

(翻訳:Nob Takahashi / facebook

社員がG Suiteと併用してもよいサードパーティアプリケーションをアドミンが管理できるようになる

GoogleがITアドミンのために今日(米国時間7/6)ローンチする新しい機能により、社員たちはG Suiteの生産性ツールと、そのほかのサードパーティアプリケーションを容易に併用できるようになる。

似たようなサービスとしてGoogleは、OAuthのプロトコルを使って、サードパーティのアプリケーション(メール、カレンダーなど)にユーザーの会社のデータへのアクセスを許している。Googleは、自身のサービスからのデータの遺漏を防ぐためにツールをたくさん提供しているが、サードパーティのサービスにはその保証がなく、ITアドミンたちを不安にさせていた。今回ローンチしたホワイトリスティング機能*によりアドミンは、会社のデータにアクセスしてもよいサードパーティアプリケーションを限定できるようになる。〔*: ホワイトリスト、ブラックリストの逆で、良いもの、OKなもののリスト。〕

これを一度セットアップすると、ユーザーは簡単にOAuthによる認証ができるようになり、前と同じようにG Suiteのデータへのアクセスを認可できる。そしてITの人たちは、認可したアプリケーションだけがデータにアクセスできる、と知っているので、枕を高くして寝ることができる。このツールを使ってアドミンは、Gmail, Drive, Calendar, ContactsなどのAPIへのアクセスも管理できる。

この新しい機能はG Suiteの既存のセキュリティツールを補完するもので、たとえば Data Loss Prevention(DLP)ツールはGoogle DriveやGmailのデータを保護し、社員の送信メールや共有ファイルに社会保障番号や運転免許証番号などがないことを確認する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

大量高速なデータストリームをリアルタイムで分析/視覚化するGPU駆動インメモリデータベースKinetica

Kineticaの企業としてのルーツは、アメリカの諜報部門のための2009年のコンサルティングプロジェクトまで遡る。テロリストをリアルタイムで追尾するという、そのときの軍やNSAの厳しい要求を満たすソリューションを市場に見つけることができなかった同社は、それを自分で作ろうと決心した。今日の同社は、インメモリのデータベースソリューションがメインのプロダクトで、それは、NVIDIAのGPUを使って処理を加速する一般市販のハードウェアを使用する。

そのアイデアがシリコンバレーの多くの投資家たちに受けて同社は、大枚5000万ドルのシリーズAを調達した。

同社は、初期の諜報機関向けのソリューションのパワーを、そこらの誰もが利用できるようにしたい、と考えている。データベースをGPUが動くチープなハードウェアの上で使うと、コストを低くでき、同時に当時のソリューションの高速性を享受できる。CEOで協同ファウンダーのAmit Vijによると、そのソリューションは従来のデータベースの100倍速く、しかもハードウェアの費用は1/10だ。

この価格性能比が投資家たちの関心を惹き、今日のラウンドはCanvas Ventures とMeritech Capital Partnersの共同リードに、新たな投資家としてCiti Ventures、そしてこれまでの投資家GreatPoint Venturesが参加した。

GreatPointの投資を決めたRay LaneはOracleの元役員で、データベースの技術には詳しい。その彼によると、このところデータの量と回転率は急速に増加しており、とくにIoTの貢献要因が大きい。そして、これまで主に顧客やサプライヤーからのトランザクションデータを扱ってきたレガシーのデータベース技術は、今日のデータ量の増大に追随できなくなっている。

“今日のチャレンジは、私が“外部的”(external)データと呼んでいるものだ。その量は膨大で、しかもほとんどが非定型、そしてリアルタイムのストリームだ。センサーやスマートデバイスから、絶え間なく大量のデータがやってくる。頭上のドローンから画像が来る。ソーシャルメディアのフィードもある。Kineticaは最初から、これら多様なデータ環境のリアルタイム分析と視覚化を目的として構築されている”、とLaneは語る。

NSAの長官だったKeith Alexanderによれば、彼の組織は2009年にKineticaのファウンダーたちに、たいへんな難題をぶつけた。しかし、“彼らはその機に乗じて、今日のKineticaデータベースプラットホームの前身を開発した。そのほかの商用やオープンソースのソリューションはすべて、そのミッションの目的を満たさなかった”、とAlexanderは声明文で述べている。

Vijの説明では、同社が提供するのはソフトウェアソリューションであり、NVIDIAのGPUが動くハードウェアは、IBM、HP、Dellなどのパートナーが提供する。またAWSやAzure、Google Cloud Platformなどの、GPUを利用するクラウドでも動く。

Kineticaの当初の顧客リストには、GlaxoSmithKline, PG&E, US Postal Serviceなどが名を連ねている。同社はOracleやSAP HANAなどの従来のデータベースベンダーと競合するが、同社によるとそれらは費用が高くてしかもGPUを使っていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AppDynamicsのアプリケーションパフォーマンス管理サービスがDockerのコンテナに対応

今年初めに37億ドルで買収されてCiscoの傘下になったAPM(application performance management/monitoring)プレーヤーAppDynamicsが、今日(米国時間6/29)のアップデートでついに、成長が今も続いているトレンド、コンテナに対応することになった。

コンテナの問題は、なにしろその数が多いことだ。コンテナを利用すると一枚岩的なアプリケーションを小さなマイクロサービスの集合に分割できるが、そうすると、パフォーマンスの劣化等の原因を、個々のコンテナのレベルで特定しなければならない。AppDynamicsのデベロッパー対応担当Matt Chotinは、そう語る。

その問題の原因が分かっても、アプリケーションがどのようなコンテナ構造(マイクロサービス構造)でデプロイされているのか、ユーザーに聞いても分からない場合が多い。ユーザーにとってアプリケーションは動けばいいのであって、最近のAppDynamicsの調査によると、アプリケーションのユーザーとは、辛抱強くない動物である。アプリケーションの調子が悪くなって、問題が簡単に解決しないと、別のアプリケーションへ移ってしまう。

コンテナでデプロイしている場合は、パフォーマンスの問題の原因を見つける作業が非常に困難になる。“同じコンテナの複数のインスタンスをデプロイしていて、どれも同じ状態のように見えても、実際にはどれかが問題を抱えている。そんなとき、問題のコンテナをどうやって特定するのか?”、とChotinは問う。

AppDynamicsのMicroservices iQはDockerのコンテナモニタリング機能を統合して、三つの領域の情報をユーザーに提供する: 1)ベースラインメトリックス、2)コンテナメトリックス、3)その下のホストサーバーメトリックス。これらによりオペレーションのチームに、不良なコンテナを見つけるために必要な情報を与える。

同社はまた、Tier Metrics Correlatorと呼ばれるヒートマッププロダクトをリリースした。分かりづらい名前だが、これはコンテナのデプロイ状態を視覚化するツールで、問題を抱えているコンテナがすぐ分かるように表示される。

これまでさまざまなデータソースを手作業で調べていたオペレーションチームも、情報がこのように視覚化されると、相当な時間節約を達成できる。この新しいツールは要するに、たくさんの点と点をつないで像を作り、問題領域を指摘する。

Chotinによると、コンテナは数が多いから、このことがとくに重要だ。“ひとつの仮想マシンではなくて、数十から数百というたくさんのコンテナが相手だ。それらをいちいち、人間が調べることはできない。良質な視覚化がどうしても必要なんだ”、と彼は説明する。

Chotinによると、同社の周辺でもコンテナを採用する企業が増えている。そして少なくとも今は、需要はDockerに集中している。“今のコンテナ・ブームの中でうちの顧客は、圧倒的多数がDockerを使っている。でも、今後そのほかのコンテナ技術にうちのツールを対応させることは、それほど難しくない”、と彼は言う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonがAWS上のユーザープロダクトに翻訳サービスを提供、アプリケーションの多言語化を推進

CNBCの報道によると、デベロッパーがAWSを使ってアプリケーションやWebサイトを作るとき、そのコンテンツを複数の言語に翻訳できる機能を提供しようとしている。クライアントのプロダクトを複数の言語で提供するために使用されるその機械翻訳技術は、Amazonが自社のプロダクト全域で使っている技術がベースだ、とその記事は述べている。

翻訳サービスはクラウドサービスでAmazonと競合するAlphabetやMicrosoftが、Amazonに負けていないと主張できる重要な要素のひとつであり、Googleは最近、ニューラルネットワークで強化した翻訳機能のデベロッパー向け実装を提供開始した。Amazonは2年近く前に機械翻訳のスタートアップSafabaを買収し、それによって実装した翻訳機能でAmazon.comなどのサイトを多言語化している。

最近Amazonは競争力強化のためドイツのハイデルベルク大学と提携して、翻訳結果に対する誤訳の指摘など、ユーザーフィードバックに対応できる機械翻訳プラットホームの開発を進めている。

この件に関し本誌は今、Amazonのコメントを求めている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebook、Microsoft、YouTube、Twitterの4社、テロ撲滅のために世界インターネットフォーラムを結成

本日(米国時間6/26)、Facebook、Microsoft、YouTube、Twitterの4社は
テロリストがインターネットサービスを使う機会を減らすことを目的とする新たな協力関係を結ぶことを共同発表した。Global Internet Forum to Counter Terrorism[テロリズムに反対する全世界インターネットフォーラム]は、各企業が既に行っている取り組みを組織化することで、主要ウェブプラットフォームがテロリストグループの募集手段として使われることを防ぐ。

テクノロジーのリーダー4社が協力して技術的解決策を共同研究し、コンテンツの識別技術やユーザーへの効果的な告知方法を共有していく。また各社は、技術的および政策的な研究を支援し、カウンタースピーチ戦略のためのベストプラクティスを共有する。

去る2016年12月、同じ4社が産業用共有ハッシュデータベースを作成することを発表した。ハッシュデータを共有することによって、各社が協力してテロリストのアカウントを識別することが可能になり、個々の会社が費用と時間をかけて面倒な作業を行う必要がなくなる。今回結成された新しい組織では、正式な管理機構を作ることでこのデータベースを改善する。

同様に、Facebook、Microsoft、YouTube、およびTwitterは、小規模な企業や組織に対して、テロと戦うために独自の事前計画をたてるよう自分たちのやり方を伝える。この運動の中には、YouTubeのCreators for ChangeやFacebookのP2PおよびOCCIといった既存のカウンタースピーチ・プログラムの核をなす戦略が含まれている。

いずれに行動も、公共機関の活動と歩調を合わせて実施される。G7は、過激思想に対して多方面から戦うことの重要性を強く訴えてきた。今日のパートナーシップは多国籍IT企業4社の間の関係を強化することで、それぞれのプラットフォームでテロを排除すべく戦うことを目的としている。

[原文へ]

(翻訳:Nob Takahashi / facebook

データ駆動型組織になるための5つの構成要素

【編集部注】著者のCarl Andersonは、“Creating a Data-Driven Organization”の著者。以前はWarby ParkerとWeWorkでデータ分析、データサイエンスを担当していたが、現在はWeWorkのプロダクト研究部門のメンバーである。もう一人の著者のTianhui Michael Liは、PhDたちやポストドクたちの、学界から産業界への移行を支援する8週間のフェローシップであるThe Data Incubator創業者。以前はFoursquareでデータサイエンスの収益化を指揮しており、Google、Andreessen Horowitz、JP Morgan、DE Shawでの勤務経験がある。

組織はデータを戦略的資産としてどのように活用できるだろうか?データとは高価なものだ。企業は、データの収集とクレンジング、ホスティングとメンテナンスを行い、データエンジニアや、データサイエンティスト、そしてデータアナリストの給与を支払い、様々な違反のリスクなどに備えなければならない。

必要なものは積み上がるばかりだ。しかし、もし成功すれば、繁栄するデータ駆動型組織は、大きな見返りを得ることができる。他の要因を補正した上で、MITのSloan School of ManagementのErik Brynjolfssonたちは、データ駆動型の企業は、データ駆動の不足している企業よりも、5〜6%高い生産量と生産性を備えていることを発見した。また、資産利用率、株主資本利益率および市場価値も高いことが分かった。また他の調査によれば、データアナリシスは1ドルの投資に対して13.01ドルの見返りがあるという。データ駆動型であることは十分に引き合うのだ!

データ駆動型であるためには、高品質のデータ、広範なアクセス、データリテラシー、適切なデータ駆動型の意思決定プロセスなど、多くの要素を結びつける包括的なデータカルチャーが必要だ。この記事では、こうしたいくつかの主要なビルディングブロックについて説明する。

事実の単一情報源

事実の単一情報源(a single source of truth)こそ、会社全体から参照することのできる、中心的で、コントロールされ、「恵まれた」データの源だ。それがマスターデータとなる。そのようなデータを持たず、スタッフたちが異なるシステムから似たようなメトリックを引き出すことができてしまうなら、必然的にそれらのシステムからは異なる数字が生成される。そうなると議論になってしまう。「あちらはああ言った、こちらはこう言った」という議論に巻き込まれて、それぞれの立場からの「事実」を引き出して自らの立場を守ろうとするシナリオに入るのだ。あるいは(そしてより残念なケースでは)よりましな情報源を使える筈だったのに、古くて品質の低い、あるいは間違ったデータや指標を知らずに使ってしまい、悪い決定を下すチームも出てしまうかも知れない。

事実の単一情報源を持っている場合には、アナリストや他の意思決定者といったエンドユーザーたちに、優れた価値を提供することができる。彼らは組織内でデータを探す時間が少なくて済むようになり、データの利用により多くの時間を割くことができるようになるからだ。さらに、データソースはさらに整理され、文書化され、統合される可能性が高くなる。したがって、関心のあるエンティティについてより豊富なコンテキストを提供することによって、ユーザはデータを活用し、応用可能な洞察を見つけることがやり易くなる。

データの入手先を知り、質の高いデータを提供することは、要素の1つにすぎない。

データ管理者側からみても、事実の単一情報源は望ましい。これによって、文書化を行うこと、テーブル間での名前の衝突を防ぐこと、データ品質チェックを実行して、基礎となるIDがテーブル全体で一貫していることを保証することが容易になる。また、さまざまな情報源からもたらされる可能性のある、主要な関係やエンティティに対する、俯瞰可能で簡単に作業できるビューを提供することもより簡単になる。

たとえば、コワーキングスペースのグローバルプロバイダであるWeWorkでは、アナリストたちに「アクティビティストリーム」と呼ばれるコアテーブルを提供している。これはWebページビュー、オフィス予約、ツアー予約、支払い、Zendeskチケット、キーカードのスワイプ履歴などを提供する、1つの絞り込まれたテーブルだ。このテーブルは、会員やロケーションに従って、ユーザーたちがスライスしたり細切れにするといった作業が容易にできるようになっている。実はこうしたデータは実際には様々な異なるシステムからやって来ているのだ。さらに、ビジネスのこの集中化された、全体的な視点を持つことで、これらのデータの上にさらに多くの自動化されたツールを構築して、多数の異なるセグメントの中にパターンを探すことができることを意味している。

大規模な組織では、歴史的な理由でデータがサイロ化されている場合が多い。例えば、大企業は、企業買収によって他社のデータシステムを取り込む可能性が高く、その結果独立したシステムが追加されていく。したがって、事実の単一情報源のためには、大規模で複雑な投資が必要となる可能性がある。しかし、そうした作業を進めている最中にも、中央データチームまたはオフィスは、公式な指針を提供することによって、大きな違いを生み出すことができる。例えば何がデータとして存在しているのか、それは何処にあり、また複数の情報源がある場合何処が一番取得するのに適した場所かなどだ。「お客様の注文データが必要な場合は、システムXまたはデータベーステーブルYを使用すること」そしてそれ以外には存在しないこと。が全員に徹底していなければならない。

データ辞書

データの入手先を知り、質の高いデータを提供することは、要素の1つにすぎない。利用者はデータフィールドとその値(メトリクス)の意味を知る必要がある。データ辞書が必要だ。これは多くの組織を躓かせる視点だ。メトリクスとその定義の明確なリストがない場合、人びとは心の中に仮定を持つことになる、おそらくそれらはそれぞれ、他の同僚が心に描いている仮定とは異なっている可能性があるだろう。そして議論が紛糾する。

ビジネスは明快で、曖昧さがなく、そして合意された定義に基く用語集を作り出す必要がある。このためには、全ての主要なステークホルダーとビジネスドメインの専門家との議論が必要だ。まず第1に、それらを公式な定義として賛同を取り付ける必要がある。各チームがそれぞれの秘密のメトリクスを使って裏作業をすることは望まないはずだ。第2に、人びとの理解が異なるのは、核になる定義ではなく、その周辺のエッジケースである場合が多い。このため、「注文受付」メトリクスについては全員が理解しているとしても、キャンセル、注文分割、不正についてどのように処理するかについての認識は、ズレている可能性がある。

これらのシナリオは、提示され、議論され、そして解決される必要がある。ここでの目標は、複数の類似したメトリクスを単一の共通メトリクスにまとめることだ。あるいは多くの側面に対応するために、ある1つのメトリクスを、2ないしそれ以上のメトリクスに分割する状況を具体化することだ。

中心的な情報源から明確なメタデータと共に、クリーンで高品質なデータが得られるとしても、もし担当者がアクセスできない場合には効果的ではない。

たとえばWeWorkでは、メンバーシップを検討している人たちは、ツアーに申し込むことで、施設内容を見学することができる。重要なことだが、複数のロケーションを見学したり、実際に契約を結ぶ前に同僚に見せようと2度目のツアーに申し込んでくる人もいる。私たちの様々なダッシュボードには、「ツアー」というメトリクスが表示されていたが、それらはチーム間で一貫してはいなかった。データ辞書を作成するプロセスで、2つの異なるメトリクスの具体化に繋がった。

  • “Tours completed-Volume”(ツアー終了数)は、ツアーの絶対数を記録している。このメトリクスは、ツアーを担当するコミュニティチームがチェックしている。
  • “Tours completed-People” (ツアー終了人数)は、ツアーに参加した重複を省いた人間の数をキャプチャしたものだ。これにより、営業チームとマーケティングチームが追跡する、リードコンバージョンメトリクス(成約率メトリクス)が得られる。

ここでは、適切に選択された名前の特定性と、例を伴った曖昧さのない定義が重要だ。ユーザーがわかった気になる短い名前よりも、”non_cancelled_orders”(取り消されなかった注文)や、”Tours Created To Tours Completed Conversion%”(予約に対して実施されたツアーの比率)」といった、長くても説明的な名前をよく考えてつけることが推奨される。

広範なデータアクセス

中心的な情報源から明確なメタデータと共に、クリーンで高品質なデータが得られるとしても、もし担当者がアクセスできない場合には効果的ではない。データ駆動型の組織は、すべてを取り込む傾向があり、データが助けとなるところであれば、どこへでもアクセスを提供する。ただし、これは全てのデータに対する鍵を、全てのスタッフに渡すことを意味するものではない。CIOがそんなことを許可することはない!そうではなく、これが意味するのは、アナリストや重要意思決定者に限らず、現場の最前線にまで及ぶ組織全体に渡って、個々人のニーズを評価するということだ。

例えば、処方箋眼鏡やサングラスの小売業者であるWarby Parkerは、小売店のフロアに入る提携会社たちに、店舗全体だけでなく、個別の業績の詳細を提供するダッシュボードも提供している。サンフランシスコの宅配業者であるSprigでは、注文された食事を分析したり、人気のある(あるいは不人気な)食材や味を理解し、メニューを改善するために、シェフたち自らが分析プラットフォームにアクセスすることもできる。

The Data Incubatorのフェローシップから、データサイエンティストを雇用しているある大規模なFortune 100金融コングロマリットは、データサイエンスチームへの広範なアクセスを許可することが、Google、Facebook、Uberなどの「セクシー」なシリコンバレー企業にも負けない、雇用上の魅力を保つことができている一因になっている。そしてそのアクセスは何もデータサイエンティストたちだけに止まるものではない。私たちの元同僚が取り組んでいたプロダクトの1つは、カスタマーサービス担当者たちに顧客との電話でのやりとりの履歴を視覚化して示す、サマリダッシュボードだった。

データ駆動型組織では、個々人がどんなデータが存在しているのかを知っているような文化を醸成する必要がある。

怒っている顧客に対面しているカスタマーサービスや、損傷したプロダクトを載せたパレット(荷物台)を目の前にした倉庫係といった現場のスタッフ自身が、データを即座に活用して、最善の次のステップを決めることができるようになるのだ。適切な権限を与えられれば、現場のスタッフは、状況を解決したり、ワークフローの変更を判断したり、顧客の苦情を処理したりするのに最適な立場にいるのだ。

データ駆動型組織では、個々人がどんなデータが存在しているのかを知っているような文化を醸成する必要がある。良いデータ辞書と、日々意思決定に使われるデータを見ていることがその役に立つ。そしてもし心から必要とするユースケースがあるのなら、データのアクセスを要求することでスタッフたちのやる気が高まることになる。適切な承認プロセスと監督機能があり、必要に応じてアクセス権限を簡単に取り消すことのできるようなシステムがあるならば、スタッフが飛び越える必要のある多すぎるハードルと不要な長すぎる遅延を取り除くために、お役所仕事は改めるべきなのだ。

最後に、より広範なアクセスと、分析ツールのユーザーを増やすことで、組織はトレーニングとサポートの提供に取り組まなければならない。WeWorkでは、Slack、電子メール、そしてサービスデスクのチケットを利用してデータチームを利用できる一方で、ビジネスインテリジェンスツール、SQLクエリ、およびデータに関するその他の側面について、ユーザーを支援するための物理的なオフィス開放時間を、毎週決まった時間に提供している。

データリテラシー

広範なデータアクセスを持つデータ駆動型組織では、スタッフは頻繁にレポート、ダッシュボード、分析結果を見ることになり、データ自体を分析するチャンスも得られる。それを効果的に行うには、十分なデータリテラシーを持っていなければならない。

データリテラシーは、多くの場合多面的な取り組みだ(このトピックに関する優れた閲覧可能なオーバービューに関しては、Brent Dykesのこの記事を参照)。The Data Incubatorでは、さまざまなスキルレベルを持つ従業員と顧客を、それぞれに合ったアプローチで結びつけている。

最もエキサイティングな分野の1つは、データサイエンストレーニングだ。これは、レコメンドエンジンやその他の予測モデルなどのデータプロダクトを作成するだけではなく、データから洞察を引き出すための、先進的計算型データマイニングならびにマシンラーニングアプローチへの導入をカバーしている。これはより先進的なユーザーたちが、その競争領域の中で、ピラミッドの最高レベルのスキルへと集中する傾向になりやすい。私たちの多くのクライアントにとって最も素早く結果のでるものの1つは、既にデータサイエンティストの道を半分まで進んできた者たちに対して、残りの半分の部分を訓練することだ。

例えば、医薬品や金融の顧客は、データサイエンスの統計的側面には精通しているものの、計算機の活用の最前線には疎い統計学者たちを抱えている傾向がある。一方多くのテクノロジー企業は、統計的厳密さには欠けているプログラミング能力を、豊富に持っている。統計学者をプログラミングで訓練したり、プログラマに統計学者の訓練を施すことは、より広い範囲に適用することができる、素晴らしい「迅速な勝利」なのだ。

データは、既に行われた意思決定を支えたり(あるいは覆したり)するためにあるのではなく、将来の決定を助けるために存在している

そのようなスキルを持っていない人たちには、データリテラシーを高める機会が沢山用意されている。企業はデータリテラシー訓練をすべての人に必要なものと見始めており、過去12ヶ月間には「管理者向け入門データサイエンス」コースの需要が倍増している。最も簡単で簡単なレベルは、記述統計学の基本スキルを高めることだ。これらは、平均、パーセンタイル、レンジ、標準偏差といったデータを要約するための基本的な方法で、基礎となるデータの形が適切かあるいは不適切かを判別できる。

例えば、住宅価格や収入のようにデータに大きな偏りがある場合、平均値よりも中央値の方がデータを要約するのに適したメトリクスだ。ただ人びとを、想像上の思い込みを減らし、データをプロットして調べ、適切な要約メトリクスを使用するように訓練するだけで、大いなる成功となるだろう。

また別の成功がデータの視覚化スキルからやってくる。あまりにもしばしば、チャート上にはゴミが溢れかえっている。つまり、要点を損なう不必要な乱雑さや注釈などだ。あるいは、不適切なタイプのチャートが使われていることもある。多数のセグメントを持つ複数の円グラフや、解釈がほぼ不可能に近い色分けが選択されているものなど。

膨大な努力をデータの収集と分析だけに費やすのは悲劇だ、失敗が待っているだけだし、最終的なデータのインパクトも減じてしまう。ほんのわずかのデータ視覚化トレーニングだけでもとても役に立ち、人びとのプレゼンテーションスキルを大幅に改善し、洞察をより明確にし、より理解しやすく、そして最終的には利用される可能性を引き上げてくれる。

次に複雑なレベルのものは、推測統計学だ。これは、例えば週毎のウェブサイトのトラフィックの傾向や差異が、本物なのか、あるいは単なるランダムな変化なのかかどうかを検出するために使用される、標準的で客観的な統計的テストだ。ここでの目的は、マネージャや顧客サービス代理店がこれらのテストを実行できるようにするのではなく、彼らが統計がどのように使用できるかを認識し、相関関係と因果関係の違いを知り​​、予測には常に不確実性が伴うことを正しく理解させることだ。意思決定者やマネージャーにとっては、これはまた粗雑な仕事や、データから結論が導かれないような結果を、差し戻すための強力なスキルとなる。

意思決定

データは意思決定プロセスに実際に組み込まれている場合にのみ、影響を与えることができる。組織は、高品質、タイムリー、そして関連性が高いデータと、洞察と推奨を与えてくれる素晴らしいレポートを慎重に作成することができる、高いスキルのアナリストを揃えることができる。しかし、そのレポートが開かれないまま机の上に鎮座していたり、受信トレイで未読のままであったり、意思決定者がデータの内容にかかわらず、何をするのかを既に決めてしまっていたとしたら、すべては無駄である。

Avinash Kaushikによって提唱されたされた用語、HiPPO (“highest paid person’s opinion”:最高額報酬取得者の意見)はデータ駆動性へのアンチテーゼだ。全員にとってお馴染みのことだろう。彼らは何十年もの経験を持つ専門家だ。特にデータが彼らの先入観に反する場合には、データが何を言っているかは気にせず、彼ら自身の計画に執着する。なにしろ彼らは最善を知っているのだ、そして何はともあれ、彼らは上司なのだ。フィナンシャル・タイムズが説明しているように:

HiPPOは、ビジネスのためには致命的なものになる可能性がある。何故なら良く理解されていないメトリクスか、あるいは純粋に想像に基づいた決定を行なうことになるからだ。顧客インタラクションの全範囲から意味を抽出し、あるアクションの裏の動き、タイミング、場所、そして理由を評価するインテリジェントなツールを、HiPPOのアプローチは利用しないので、企業にとって重大な障害を与える可能性があるのだ。

しばしは組織というものは直感に価値が置かれたり、説明責任が欠如した文化が蔓延していることがある。ある調査によれば、意思決定者たちが組織における意思決定に説明する責任を負っていると答えたのは、わずか19%だけだった。HiPPOが繁栄しているのはそのような生態系だ。

HiPPOに対抗する1つの方法は、A/B試験などの客観的実験の文化を育むことだ。これらのシナリオでは、ウェブサイトのデザインやマーケティングメッセージの変更などにかかわらず、可能な限りコントロールを行い、成功判定のメトリクスと必要なサンプルサイズを決定し、要素の1つを変更して実験を行なう。ここで重要な点は、明確な分析計画を立てて、実験を実行する前に成功のメトリクスと予測値を設定することだ。言い換えれば、計画を立てるによって、結果が出た後にHiPPOがいいとこ取りをすることを防ぐのだ。これはどんなパイロットプログラムでも同じだ。

幅広いデータリテラシー訓練の価値の一部は、ビッグデータに対して認識された脅威から生じる恐れを、和らげてくれることだ。データは、既に行われた意思決定を支えたり(あるいは覆したり)するためにあるのではなく、将来の決定を助けるために存在している。それはマネージャーの仕事を脅かすことはしない、むしろそれを無視することで、脅かされることになるだろう。データサイエンスの訓練は、データの働きを解明することで、データに対するマネージャの自信を深め、企業におけるデータ駆動型の意思決定を高めることができる。

おわりに

私たちは雇い主とクライアントの両方の仕事を通して、データ駆動型の文化は一晩で達成できるものではなく、複数のステップのプロセスの一部であることを学んだ。第1に必要なのは、分析対象となる、クリーンで単一のデータソースである。次に、データアナリストとデータサイエンティストたちは、データ辞書とそのデータの意味に同意する必要がある。次に、データ分析に対してビジネスの専門知識を適用するためには、データサイエンティストたちだけでなく、組織全体がこのデータに幅広くアクセスする必要がある。データへのアクセス権が与えられると同時に、データリテラシーを強化するための適切なトレーニングが必要となる。そして最後に、意思決定に影響を及ぼすために、これらのすばらしいデータ分析をすべて、データを信頼するマネージャーの手に渡す必要があるのだ。

[ 原文へ ]
(翻訳:Sako)

Google検索がWeb上の求人情報を再整理厳選して紹介、ユーザーによる多様な職種基準やフィルタリングも可能

【抄訳】
職探しはだんだん容易になっている。今日(米国時間6/19)はGoogleが、検索に職探しの機能を導入して、主な求人サイトや求人ページのすべて… LinkedIn, Monster, WayUp, DirectEmployers, CareerBuilder, Facebookなどなど…で仕事を探せるようにした。企業のホームページ上にある求人リストのリンクも、検索結果のページに載る。

これからは、いろんな求人サイトを次々と訪れて、各所に重複があったり、大量の無関係な求人を見る徒労から解放される。

この機能はデスクトップとモバイルの両方で使えるが、今のところ英語のみだ。検索ワードとしては、“jobs near me”(近くの仕事)とか“writing jobs”(書く仕事)などなどと入力し、職探しウィジェットから大量の検索結果を見る。そこからさらに、たとえば“フルタイム(or正規雇用)のみ”などの条件で結果を絞り込む。特定の職に関する情報をクリックに次ぐクリックで掘り下げていくと、GlassdoorやIndeedで企業の格付けを見ることもできる。

仕事を業種や位置、求人情報掲載日、雇用主などでフィルタできる。これでよし、というクェリが完成したら、それに通知機能を付けて、今後の新たな求人をお知らせしてもらえる。

【中略】

その膨大なリストが無駄に膨大にならないために、同じ求人情報の重複は事前に排除されている。そして求人情報のカテゴリー分類は、機械学習のアルゴリズムが行う。既存の求人求職サイトが情報にすでにマークアップを付けていることも多いから、検索はそれも参考にする。しかし求人情報の検索に関しては、SEOは機能しない。求職者に大量の情報、すなわち多くの選択肢を提供することが目的だから、SEOによって結果の上位に出ることをねらっても無意味である。

仕事が見つかったら、その会社の求人ページへ行って応募する。複数のサイトが最終的なクェリにマッチしたときは、もっとも完全な求人ポストの企業へ連れて行く。このようなランク付けは、なるべく詳細で完全な求人情報を企業側に書いてもらうための、インセンティブでもある。

そして実際の応募フォームを書いて入力するときは、Googleはいっさい手を出さない。そこから先は完全に、求職者自身の仕事だ。

Googleがユーザーについてすでに知ってること(例: 釣りが好き)は、職のフィルタリングに用いられない。釣りが好きでも、漁船や釣り船の仕事にありつきたいわけではないからね、たぶん。

Googleは、MonsterやCareerBuilderなどのサイトと直接競合したいわけではない、と明言している。だから現状では、求人者が直接、Googleの職探し機能の上へ自分の求人情報をポストする機能はない(やれば儲かりそうだけど!)。この部門のプロダクトマネージャーNick Zakrasekは曰く、“うちは、うちが得意なことだけをする。つまり、検索をね。既存の求人求職サイトに、繁盛するきっかけを与えたい”。それ以上のものはGoogleの操舵室に存在しない、と彼は付言した。

Monster.comのCTO Conal Thompsonも、声明文でこれと同じことを言っている。“Google検索の職探し機能はうちのやり方と連携しうるもので、いずれにしても(Google検索のこの機能ががあろうとなかろうと)求職者はWeb全域に仕事を探し、検索基準を磨いて自分のニーズに合う情報を見つけるのだ。求人情報の内容や形式は、検索を意識して変えなければならない部分はあるだろう。最大の問題は、今現在SEOに依存しているサイトやページだね”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

速報:Amazon、高級スーパー、Whole Foodsを137億ドルで買収へ

Amazon は高級生鮮食料品スーパー、Whole Foods Marketを137億ドルという驚くべき価格で買収することで同社と最終的に合意したと発表した

買収は全額キャッシュが予定されている(Whole Foods Marketの純負債額も含まれる)。 この買収はあらゆる業種のあらゆる企業に影響を与えるだろう。これによりオンライン、実店舗を問わず小売ビジネスの光景が一変する。

Amazonのファウンダー、CEOのジェフ・ベゾスは「何百万もの顧客がWhole Foods Marketを愛している。ここではアメリカで最高品質の自然食品、有機食品が手に入るからだ。人々はヘルシーな食生活を楽しむようになった。Whole Foods Marketは人々を喜ばせ、満足させる栄養豊かな食品を40年近くにわたって提供してきた。まさに驚くべき達成だ。われわれはWhole Foods Marketの成功が今後も継続されることを望んでいる」と声明で述べた

買収後もWhole Foodsのブランド、運営は従来どおり続けられる。店舗、社員、パートナーにも変化はない。

John MackeyはWhole FoodsのCEOに留まる。本社は引き続きテキサス州オースティンに置かれる。

この買収は今後、Whole Foodsの株主及び規制当局の承認を受ける必要がある。万事順調に進めば手続きの完了は今年の第二四半期中となる見込み。

このニュースはBloombergが第一報を伝えたが、影響は生鮮食料品小売業だけでなくスタートアップも含めてほとんどらゆるビジネスに及ぶだろう。

Amazonは今や現実店舗の巨大なネットワークにアクセスが可能となった。とはいえ、Whole Foodsのブランドや店舗に変更が予定されていなということは(少なくとも当面は)両者は比較的独立を保って運営されるのだろう。

画像:: Amazon

〔日本版〕大きなニュースのためTechCrunchではShieber記者が速報記事を公開した。この記事はこの後アップデートされる可能性がある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

機械学習を利用して見込み客別にもっとも有効なピッチを営業に教えるHighspotが$15Mを調達

営業はいつも大量のノルマを抱えているが、でも最新のテクノロジーは、それらが従来よりももっと売れるようにしてくれる。

それともあなたは、うちのピッチ(売り込み)は完璧、と思っているかな? Highspotは、それは違う、と教えてくれる。まあそれが、Highspotのピッチだけど。

Highspotのソフトウェアは、見込み客とのさまざまなコミュニケーション、たとえばプレゼンテーションやケーススタディ、教育訓練ビデオなどを分析する。そして、それらの有効性を表すデータを提供する。

その分析結果が売上増に導くなら、それは多くの企業にとって大きな売上機会になる。そこでVCたちは、Highspotが今後ビッグビジネスになることに、さらにもう1500万ドル賭けている。

そのシリーズBのラウンドをリードしたのはShasta Venturesで、Salesforce VenturesとMadrona Venture Groupが参加した。シリーズAは、2014年の1000万ドルだった。

ShastaのマネージングディレクターDoug Pepperはこう語る: “Highspotは、営業を支援するソフトウェアの市場にAIや機械学習のパワーを持ち込んだ。彼らのプロダクトとチームと顧客評価技術は、長年営業を悩ませてきた問題を解決する。その問題とは、その見込み客に対して適切なコンテンツを適切なタイミングで提示して、営業努力をを成功に導くことだ”。ワンパターン、行き当りばったり、出たとこ勝負の営業は、古いし、効率も最悪だからね。

CEO Robert Wahbeの言い方はこうだ: “Highspotは、営業が頭の中につねに確実に(顧客・見込み客別に)適切な情報を持ち、顧客に提示する適切なコンテンツを確実に持ってる状態を作り出し、維持する”。同社の現在の有料顧客(月額会費制)は、中小企業と大企業合わせて100社ぐらいだ。

彼は、HighspotがCRMと競合する製品だとは見ていない。むしろ、CRMを“補完するプロダクトだ、と。とくに、顧客がSalesforceのプロダクトとHighspotを併用してくれることを、彼は期待している。

同社が拠を構えるシアトルについてWahbeは、“今は一種のブーム・タウンだね”、と言う。同市のスタートアップシーンは、今や“沸騰している”そうだ。

将来の買収については、彼は言葉を濁(にご)した。そして、“でも上場企業にはなりたいね”、これが彼の考える同社の将来像だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Slack、再度5億ドル調達へ――エンタープライズ・チャットサービスの確立を目指す

Slackは再度資金調達ラウンドを進めている。 Recodeによれば50億ドルの会社評価額で5億ドルの資金調達を試みているという。この資金は大企業を顧客に加えて新たなビジネスモデルを確立するために必須だ。

昨夜のBloombergの記事によれば、AmazonはSlackの買収に90億ドルを提示したという。Slackはこの買収に興味を示していないようだが、評価額は50億ドルからさらに上昇する可能性がある。

Slackが大口顧客獲得や新たな大型資金調達ラウンドを進める上で、こうしたトレンドは追い風となるだろう。大企業の多くは(たとえ機能が劣っていても)既存のシステムにロックインされている可能性が高い。大口顧客の獲得と同時にSlackの優れたデザインを発展させていくには多額の資金を必要とする。

Slackはシリコンバレーの寵児だ。単にシリコンバレーだけでなく世界のスタートアップ・コミュニティーの心をしっかりつかんでいる。同社のチャット・インターフェイスはきわめてシンプルなデザインで、誰であれ訓練の必要なしにすぐに使える。Slackではこのサービスを大きなチームがプロジェクトを進める上でのツールにしようと努力している。Slackの機能はこれまでもメジャー・アップデートを重ねて進化してきた。たとえばこの1月の メッセージのスレッド化だ(Slackはスレッドの開発に1年以上かけたという)。

Slackのメリットであるシンプルなインターフェイスを維持しようとするあまり、大企業が要求するような機能の導入に消極的であると、結果として成長の頭打ちを招きかねない。
昨年10月の発表によれば、1日当りアクティブ・ユーザーは500万、有料ユーザーは150万だった。Recodeの記事によれば、年間10億ドルの売上があるもののまだ黒字化を達成していないという。

今年5月のアップデートでは特定の質問に対して詳しい情報を持っているメンバーにすぐ回答してもらえる仕組みが導入された。Slackを利用するチームのサイズが大きくなればなるほど情報は混雑してくる。既存のビジネス・コミュニケーション・ツールと競争するには、Slackは使いやすいシンプルなインターフェイスを維持しつつ、情報の混雑をかきわける方法を編み出する必要がある。もちろんライバルはいつでもSlackの機能をコピーできる。SlackはFacebookが容赦なくSnapの機能をコピーして成長を続けた例を教訓とすることができるだろう。

今年に入ってSlackははっきりと大企業に狙いを定め、エンタープライズ・グリッドをスタートさせた(これも1年以上前から準備されていた)。5月には画面共有がサポートされた。こうした段階的なアップデートはすべてライバルの先を越して大企業ユーザーを取り込もうとする努力だ。

昨年4月、Slackは38億ドルの会社評価額で2億ドルの資金を調達している。SaaS企業、成長企業を探している強気の資金マーケット(先週はやや陰りがみえたが)はSlackを利するだろう。新たな資金調達は成長をさらに加速し、単にSlackの機能を強化するだけでなく、企業イメージも改善するに違いない。これは大企業に対しライバルのプロダクト、たとえばMicrosoftなどの既存のツールからの乗り換えを説得するにあたって大きな武器となる。

新たな資金調達ラウンドについてSlackの広報担当者に問い合わせたがまだ回答はない。

F画像: David Paul Morris/Bloomberg via Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Dropbox Businessのアドミンダッシュボードがデザイン一新、時間制限など機能を増強

Dropboxは消費者市場でスタートしたが、最近では企業ユーザーにとって使いやすいサービスにするための多大なる努力を傾注している。今やDropbox Businessのユーザー企業は20万社を超え、彼らはそのクラウドストレージサービスの上で社員たちが機密性のあるファイルや情報にアクセスするときのための、より高度でより細かい管理機能とセキュリティをますます求めるようになっている。

今日(米国時間6/13)同社は、アドミンダッシュボード上の機能をさらに増やした。それは同社の、AdminXイニシアチブと呼ばれる大きなプロジェクトの一環だ。このプロジェクトは、アドミンのユーザー体験の向上が目的で、社員のアカウントを作ったり、誰は何にアクセスできる/できないといった細かいコントロールするのが彼らの日常の仕事だ。

最初に同社は、アドミンコンソールのデザインを一新して、シンプルで使いやすくした。その単純さは消費者体験に近いものになり、しかし同時に企業が求める堅牢さとセキュリティを確保した。

またWeb上の(各人の)セッションコントロールにより、ログインしてファイルにアクセスしている時間に制限を設けられるようにした。またアドミンは、一部のチームに対してサブドメインの検証ができるようになった。特定のアカウントやユーザーをサブドメインの下に置くと、企業のDropboxアカウントにアクセスしてよい/いけない人を細かく管理できる。

パスワードの作り方やアップデートの仕方にも、改良を加えた。これからは、ユーザーがパスワードを作ったり変えたりするたびにその“強度”を評価し、弱いパスワードを使わないよう勧めることができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

拡張現実・複合現実がロボットの来襲から労働者を救えるかもしれない理由

人工知能、ひいてはロボットが人間の仕事を奪おうとしているという話は、これまで幾度となく目にしてきた。

容赦なく進化し続けるテクノロジーの様子を見ていると、確かに現在ある仕事の多くがそのうちなくなってしまうような気がする。しかし歴史を振り返ってみると、蒸気機関や電信システム、コンピューター、さらには産業ロボットも含め、革新的な技術は常に人間から奪うのと同じくらいの数の仕事を新たに生み出してきた。

そんなことは、仕事を失ってしまった人には関係ないかもしれない。シリコンバレーで生まれたテクノロジーに起因する経済的な変化が、現在の政情に少なくとも一部影響を与えているとも言える。しかしどんな理屈を並べたとしても、アメリカでは候補者のスキル不足が原因で何百万件もの仕事が余ってしまっているのは事実だ。

ということは、仕事の数が減っているのではなく、単に仕事の性質が変わりつつあるのだとも考えられる。景況の変化や市場の動き、そしてテクノロジーによって昔の仕事が復活することはないだろうが、仕事で求められるスキルは今後ますます高度になり、労働者はワークライフを通じて継続的にスキルアップしていかなければならなくなる。

しかし、この問題の一端を担っているテクノロジー自体が、このピンチから私たちを救ってくれるかもしれない。実際のところ、今まさにAR(拡張現実)とMR(複合現実)を使ったソリューションが誕生しようとしている。ひとつのテクノロジーで全ての問題が解決するということはないが、次世代の労働者を教育する上で、ARが大きな鍵を握ることになる可能性は高い。しかも、これはまだスタートに過ぎない。

新しい現実

写真:Microsoft

時間と位置関係が把握できるメガネを思い浮かべてみてほしい。オフィスや店舗内でそのメガネをかけると、視界には仕事に関係した図や手順、または3Dホログラムが映し出され、これまで全くやったことがない仕事についてステップごとに学ぶことができるとしたらどうだろうか。ARならこれを実現できるかもしれないのだ。

VR(仮想現実)ではユーザーが完全に別の世界に没入してしまうが、ARは仮想現実という名が示す通り、目の前の現実世界の上に重なったレイヤーのように機能する。ユーザーはARデバイスを使っても別の世界に移動するわけではないので、自分の机や居間、もしくは工場の様子をいつも通り目視できる。ただ違うのは、ユーザーが見るものには追加情報が投影されるようになるということだ。

初のコンシューマー向けARプロダクトとして誕生したPokémon Goは、ARの魅力を全世界に伝えることに成功した。そのかいあってか、一般大衆もARに興味を持ち始めている。Pokémon Goが特別なメガネ型のハードウェアではなくスマートフォンやタブレットを活用したように、初期のARプロダクトの多くでは、身の回りに情報を投影するために従来のデバイスを利用しなければならない。しかし、今後AR業界がテクノロジーと共に進化するにつれて、ウェアラブルデバイスを活用したハンズフリーなAR体験が実現できるようになるだろうし、それ以上のことも考えられる。

写真:Stefan Etienne/TechCrunch

ロボット、AI、ウェアラブルの分野に力を入れている調査会社Tractica最近のレポートでは、AR・MRヘッドセットが企業や製造現場で特に役に立つとされている。

「手で持つ必要がなく、目の高さで装着でき、必要なときだけ情報を表示できるなど、ARヘッドセットが投影するインターフェースは、手を使わなければいけない作業には理想的です。さらにユーザーは自分の目線で情報を確認できるので、現場作業の自動化やトレーニング、メンテナンス業務などにも役立つでしょう」とTracticaはレポート内で述べている。

Tracticaはこの市場をさらに細かく分け、「複合現実(MR)」と呼んでいる。彼らによれば、このテクノロジーは「位置追跡と深度センサーによって、より没入感の高い体験を提供しつつ、ホログラフィとして映し出された物体にも触れ合えるような仕組み」を備えているという。

この分野で企業向けのユースケースを確立しようとしているプロダクトの中では、恐らくMicrosoft HoloLensが1番よく知られているだろう。盛り上がりや知名度という意味では確かにMicrosoftはいいスタートを切ったが、彼らよりも規模の小さなMetaやOsterhout Design Group(ODG)、Daqriらも果敢に巨人に挑もうとしている。

Facebookも自分で画像フィルターを作れるARツールを4月のF8で発表したほか、Amber Garageはサードパーティーながら、今月Google Cardboard用のMRコンテンツが作れるHolokitをアナウンスした。Appleも最近のWWDCでARコンテンツクリエイター向けのプラットフォームをリリース。SamsungもMRツールを開発中で、Amazonもそのうちこの分野に進出してくるだろう。基本的にこれらのツールはコンシューマー向けのようだが、ビジネス環境で使われることになっても不思議ではない。

まだ市場が形成期にあるため、Tracticaは用心深くかまえているが、今後数年間で一気にこの分野が伸びていくとも予想している。なお、コンシューマー・エンタープライズ向け両方のソリューションがAR市場の成長を支えることになると考えられているが、このふたつのセグメントは別の市場として発展していくだろう。

Screenshot 2017-05-26 17.46.32.png

教育ツール

AIやロボットが具体的にどのくらいの仕事を消滅させるかについては議論の余地があるが、新たなテクノロジーが労働市場に何かしらの影響をもたらすというのは間違いない。ここで重要なのは、どうすればその影響を最小化し、AR・MRテクノロジーを使って労働者に新たなスキルを身につけさせられるかということだ。

AR・VR用のOSをつくろうとしているUpskill(旧名APX Labs)でCEOを務めるBrian Ballardは、私たちの社会では人間と機械の距離がかなり近づいてきているのに、うまく両者を繋げる仕組みがまだできていないと話す。彼は、座学だと現場の環境に基いた学習ができないため、結果的にロボットが人間の仕事を奪うことになると考えているのだ。

写真:Daqri

「まず、ある仕事をするためにはスキルを高めなければいけません」とBallardは言い「そして、スキルアップに繋がる有益な情報をうまく表示し、常にそれを確認できるような手段が存在します」と付け加えた。その手段こそがARテクノロジーを活用したもので、ARを使えば労働者の目の前に状況に合った情報を表示できるようになる。

MRヘッドセットを製造するDaqriのCEOであるBrian Mullinsは、AR・MRデバイスがスキルギャップを埋め、労働者が新たな仕事を獲得するための手助けをするようになると考えている。「ARは人間中心のテクノロジーで、うまく使えば知識の移転にも使えます。ARデバイスを活用すれば、労働者にこれまで携わったことのない仕事の手順を教え、彼らが正しい判断を下せるような情報を提供することができるのです」と彼は説明する。つまりARは強力なトレーニングツールになる可能性を秘めているのだ。

実用に耐えうるARソリューション

ARはまだ成長過程にあるテクノロジーで、ARを活用した教育ソリューションのほとんどが実験段階にあるが、これまでの様子を見ると、このテクノロジーがトレーニング期間の短縮に繋がりそうだということがわかる。あとは、メーカーやコンテンツの製作者、ユーザー次第だ。

例えば、GEはHoloLensを活用し、医療知識がない人でも超音波検査機を使って各臓器を特定できるようなテクノロジーを開発しようとしている。まだ製品化まではかなり時間がかかることが予想されるが、これはMRテクノロジーを使って新しい情報を提供しつつ、フィードバックを即座に与えることで、ユーザーの効率的な学習を支援するプロダクトの好例だ。

さらに、BoeingはARを利用して航空機用ワイヤーハブの製造といった業務の効率性を上げようとしている。同社が行った研究によれば、ARをトレーニングに活用した社員の方が、そうでない社員に比べて生産性や正確性が高く、トレーニング自体への満足度も高かったとされている。教室で授業を聞くだけのときとは逆に、彼らはトレーニング自体や学んだことを現場で思い出す過程さえ楽しんでいたのだ。

アイオワ州立大学と共同で行ったこの研究で、Boeingは被験者(ほとんどが大学側の人たち)が翼形の部品をつくる様子を観察した。作業前のトレーニングとして、あるグループは部屋の隅におかれたデスクトップマシンを使って手順書のPDFファイルを読み、別のグループは調節可能なアームのついたタブレットで同じPDFファイルを読み、最後のグループは3D映像で構成されたアニメーション入りの手順ビデオをARシステム上で視聴した。実験の結果、デスクトップマシンを与えられたグループのエラー率は劇的に高く、タブレット、ARシステムの順番でエラー率が下がっていった。

DaqriはSiemensの協力の元、Boeingの実験をさらに発展させ、世界レベルで同様の調査を行った。風力原動機やガスタービンの保守作業が対象となったこの調査でも、トレーニングにARを活用することで、Boeingの実験と同じような結果が得られた。DaqriのARヘルメットを活用しなかった場合、事前知識のない人が組立作業を終えるのには480分かかったが、ARヘルメットを使うことで作業時間はなんと45〜52分に短縮された。

出典:Daqri

世界規模といえば、先日Walmartは社員のトレーニングにSTRIVR Labs製のVRコンテンツを導入すると発表した。同社はOculus Riftのヘッドセットをトレーニングセンターに配備し、VRコンテンツと360度動画を使って幹部社員やカスタマーサービス部門のスタッフの教育を行おうとしているが、そのうちこれもMRに近い形に変わっていく可能性がある。

エンタープライズ市場でのスケール

もちろんAR周りの実験を行うのも大事だが、企業を相手にしたARビジネスをはじめるというのはまた別の話だ。というのも、大企業のほぼ全てで、各プロセスが在庫システムや基幹システムをはじめとする複雑なレガシーシステムと接続されている。

そこで先月DaqriはDellとパートナーシップを締結した。Dellでプロダクト戦略・イノベーション担当VPを務めるNeil Handは、同社がDaqriのヘッドセットの販売を通してエンタープライズ市場でARを普及させようとしていると話す。さらに彼によれば、DellがARと相性の良い業界を探そうとしていたことが、Daqriとタッグを組むにいたった主な理由のようだ。

「効率よくさまざまな分野でARの有用性を確かめられるというのが、Daqriとパートナーシップを結んだ主な理由です。過去にも他の技術に関して同じような戦略をとっていました。新しいテクノロジーをできるだけ多くの顧客に届けるにはどうすればいいのか、という問いが全ての出発点です」とHandは説明する。

DellはARプロダクトの開発についてもDaqriの協力を仰いでいく予定だが、彼ら自身はバックエンドシステムとの接続支援などを行うコンサルタントとしての機能を担っていく。DaqriのデバイスとDellのパソコンがセットで売れるなど、パートナーシップがDellのハードウェア売上にも繋がれば、両社にとっては願ったり叶ったりだ。

このパートナーシップの結果はもう少し時間が経たないと判断できないが、既にDaqriは、現場で利用可能なARソリューションの導入手順や各ユーザーのニーズに基いたプロダクト設計の方法、各業務に最適なUXの開発方法、さらには効果測定や他の業界に進出するための方法を突き止めることができた。

上記のような目覚ましい発展を遂げているとはいえ、まだARは生まれたばかりのテクノロジーだ。しかし今後人々が期待している通り市場が成長すれば、企業は社員が日々変わる経済に順応できるようにトレーニングを実施し、どんな環境の変化にも対応できるようになるだろう。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Shedul、ヘアーサロンの予約アプリで600万ドルを調達

美容室は多くの予約を扱わなくてはならないが、約半数は今も紙と鉛筆を使っている、とShedulは推測する。

このスタートアップは、ヘアーサロンとスパ業界向けのスケジュール管理ソフトウェアを提供してそれを変えようとしている。そして出足は順調、なぜなら無料だからだ。

このほど同社はドバイのMiddle East Venture Partners(MEVP)のリードで600万ドルを調達した。BECO CapitalとLuma Capitalも出資した。

調達した資金は、プラットフォーム上の店舗をもっと増やすことで、双方向のマーケットプレイスを作るために使う計画だ。予約サービスを補完する有償サービスも提供する予定だ。

ドバイとワルシャワにオフィスを持つShedulは、120か国以上で4万以上の店舗が利用している国際的サービスだ。年間GMV(Gross Merchantize Value:総流通総額)は15億ドルだと同社は言っている。

「成長はほぼ100%が人的、口コミによるもの」とCEOのWilliam ZeqiriがTechCrunchに話した。Google広告には5000ドルしか使っていないという。

ターゲットは紙と鉛筆の店だけではなく、Mindbody、Booker、StyleSeatなどのライバルの顧客も狙っている。「顧客体験は非常に悪い」とZeqiriがMindbodyについて話した。

Lumia Capitalのパートナー、Chris RogersはShedulに投資した理由について、「いまだにオフライン運用の多い巨大な美容業界に、このクラスで最高のソフトウェアを提供している」からだと言った。「成長の軌跡は非常に魅力的であり、この会社に投資できたことを大いに喜んでいる」。

MEVPのマネージング・パートナー、Walid Mansourは、「2年間に成し遂げた成長ぶりは目覚ましい」と話した。

Shedulは2015年にスタートし、MEVPおよびPolar Light Venturesからシード資金を調達した。

[原文へ]

(翻訳:Nob Takahashi / facebook

中小企業のメールによるターゲット・マーケティングを助けるAutopilotが$12Mを調達

これまでのお客さんからもっと稼げるのに、なんで新しいお客さんを追うの?、とAutopilotはあなたに問う。同社は企業の、既存の顧客へのマーケティングを助ける。

同社はこのほど、Blackbird VenturesやSalesforce Venturesなどから成る投資団から、1200万ドルを調達した。そのほかの投資家として、Rembrandt Venture PartnersやSouthern Cross Venture Partnersも投資に参加した。同社の調達総額は、これで3200万ドルになる

CEOのMike Sharkeyはこう語る: “中小企業のお役に立ちたい。こんなターゲティング技術は、これまで費用が高すぎて中小企業は手が出なかったからね”。

しかしユーザーは、中小企業ばかりではない。およそ2300の顧客の中には、最近契約したMicrosoftやAtlassian、Lyftなどもいる。なお、同社の料金は年会費制だ。

Autopilotは、選んだターゲットに新製品やディスカウントを案内するメールを送る。その基本方針は、送るメールをなるべく少なくすることだ。Sharkeyはこう言う、“信号の強いメッセージを少なめに送ることが、集客のコツだ”。送るべき相手とタイミングは、同社のアルゴリズムが決めている。

熱心なユーザーを対象とするウェビナーやイベントも開催している。またInsightsと名付けたサービスで、顧客のマーケティング目標の追跡〜達成管理を提供している。

Rembrandt VenturesのゼネラルパートナーScott Irwinが、Autopilotに投資した理由を語る: “マーケティングにデータをどう生かすか、という大きな問題に挑戦しているからね。そして中小企業の市場は、なんといっても数が多い”。

ファウンダーはすでにスタートアップ経営の経験者で、Sharkeyはオーストラリア出身だが、スタートアップを創業してそれをHomeAwayに売ったこともある。オーストラリアのテクノロジーコミュニティと縁は深いが、兄弟たちと一緒にサンフランシスコに移ったのは、Autopilotにとって良い市場を選びたかったからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NTT DataがNoSQLデータベースで各所に散在する企業データを統合化するMarkLogicに戦略的投資

日本のグローバルなITサービスプロバイダーNTT Dataが今日(米国時間5/31)、データベースのプロバイダーMarkLogicに戦略的投資を行った、と発表した。額は公表されていないが、MarkLogicのマーケティングと企業開発担当EVP Dave Ponziniによると、“巨額でもないが、ささいな額でもない”そうだ。これまでMarkLogicは、総額1億7300万ドルあまりを調達し、中でも大きいのが、2015年シリーズFの1億200万ドルだ。

MarkLogicの自己定義は、さまざまなデータサイロに散在しているデータを一つのデータベースに統合化するサービスだ。データの有効利用が企業戦略としてますます重視されるようになった今日、それはどの大企業にとっても、日に日に重要性を増している問題だ。これまでは、買収などを契機として、企業内の複数のグループがそれぞれ異なるデータベースシステムを使っていたが、今ではそれらの情報をすべてまとめる方法を探している。そのためによく行われるのが、すべてのデータをスキーマのないNoSQLデータベースに流しこむ方法だ。そこに、MarkLogicの出番がある。

仕事の性質からいって、同社の顧客の多くがGlobal 2000社であることも当然だ。売上等は公表されていないが、Ponziniによると年商“1億ドル強”、というあたりだ。

NTT Dataは2012年にMarkLogicを使い始めたが、むしろ同社(NTTD)の顧客のためのアプリケーションを作ることが主な目的だった。その後同社はデータベースの再販も手掛けるようになり、Ponziniによると、それによりMarkLogicは、たとえば金融サービス市場などにも食い込めるようになった。今日の投資はそんな両社の関係を強化するものであり、MarkLogicは、自社の事業所はないけどNTT Dataがとても強い市場(スペインなど)に参入できることになる。両社の既存市場が重複している地域においては、NTT Dataの顧客にデータベースを売るのはNTT Dataとなる。

NTT DataのCEO Toshio Iwamoto(岩本敏男)は、今日の発表声明で次のように述べている: “NTT DATAは、MarkLogicとの戦略的関係の拡大に感激している。日本で過去5年間、両社が共に経験した成功を、世界に広げていきたい。MarkLogicのデータベースプラットホームとNTT DATAが開発した知財資本を用いて、複雑なデータ統合化問題を解決するわれわれの能力により、クライアントは彼らのデータから重要なインサイトを析出でき、彼らが属する市場において競争上の優位を獲得できる”。

わずか数週間前に、MarkLogicは同社のデータベースのバージョン9をローンチした。このリリースはセキュリティを強化し、要素レベルのパーミッションやリダクションなどが導入された。MarkLogicのEVP Joe Pasquaはこう語る: “われわれはつねに、もっとも安全なNoSQLデータベースであり続けてきた。しかし今回強化したかった新たな側面は、共有に伴うリスクを減らすことだ”。すべての情報を統合化すると、どのデータには誰がアクセスしてよいのか、という一連の問題が発生する。要素レベルのセキュリティによって企業は、一部の情報を多くのユーザーに隠したままの状態で、データの有効利用を確保できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))