Toyotaが人助けロボットの北米地区初の現用試験を完了、重度障害の復員兵が協力

Toyotaが最近、同社の人助けロボット(Human Support Robot)の、北米地区における初めての現用試験を完了した。このロボットはHSRと呼ばれ、同社の移動支援ロボットの一環として開発されている。その製品コンセプトは、人間の日常生活の質的向上、とされている。

今のToyotaには、何らかの制約や障害を抱えたユーザーの移動性を支援する一連のプロジェクトがある。HSRのほかには、下半身麻痺の人の歩行を助けるウェアラブルの脚部ブレースや、視力に問題を抱える人たちのための環境認識技術、要介護者をベッドから椅子へ移動するロボットなどを開発している。また、同社のホームビジネスに近いものとして、歩行の不自由な人の車への乗り降りを助ける器具も開発中だ。

Toyotaが北米地区で完了したHSRの現用テストは、アフガニスタンで負った戦傷で首から下が麻痺した復員兵Romy Camargoと共に行われた。ロボットには車輪と視覚センサーと関節で動く腕があり、ドアの開閉や飲み物の持参など、家の中の日常的な作業でCamargoとその家族を助けた。

HyundaiやHondaなど、多くの自動車メーカーが移動介助の分野で研究開発を進めている。中でもラストマイルのソリューションと家庭内ロボットは、将来の大きなビジネス機会だ。ToyotaのToyota Research Instituteは、移動支援ソリューションのためのAIとロボットを専門に研究している。今後もこのような現用試験を重ねることによって、家庭内ロボットの本格的な商用化のための道が、拓けるのだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ConfluentがKafkaによるメッセージングシステムの長年の夢、‘正確に一度だけ’をついに実現

オープンソースの分散メッセージストリーミングツールApache Kafkaの商用化サービス(リアルタイムデータストリーミング)を提供しているConfluentが今週、Kafkaのユーザーにとって嬉しい機能を発表した。それは、Kafkaを使ってメッセージを、“正確に一度だけ”送る能力だ。

それのどこがすごいのか、門外漢には分かりづらいが、Kafkaのような高速メッセージングツールを使っている人たちにとっては、長年の見果てぬ夢だった。コミュニティの人たちは、実現不可能とも思っていた。

通常、メッセージを送る側は、それが届いたという受信確認を待つ。しかしConfluentのCTO Neha Narkhedeによると、Kafkaのような分散メッセージングシステムでは、途中で問題が起きることがある。コンピューターのエラー、ネットワークの障害、などなど。しかしたとえば金融関連のトランザクションなどでは、メッセージは確実に一度だけ送られてほしい。二度以上は、ノーだ。

多くの人びとが“正確に一度だけ”は達成不可能な目標と考えているのは、それを実現するためのスピードと正確さのトレードオフが大きすぎるからだ。しかしNarkhedeによると、同社はこの問題に大量の技術者をつぎ込み、1年がかりでやっと、長年探し求めていた解に到達した。

それを実現している技術的細部はきわめて多い。そしてNarkhedeによると、随所に技術的なトレードオフもあるが、でもみんなが考えるほど多くはない。というか、彼女によると、同社はこの問題を解決しただけでなく、メッセージのスピードを犠牲にすることなくそれを達成したのだ。

“正確に一度だけのモードでも、パフォーマンスのオーバヘッドはほとんど無視できる。そして通常モードでは、パフォーマンスは従来より向上した”、と彼女は語る。

その新しいリリースは、通常の利用で20%速くなり、“正確に一度だけ”の機能を使うと3〜10%のスピードペナルティが生じる。彼女によると、正確に一度だけではつねに多少のオーバヘッドは生ずるが、今後数か月の努力でそれをできるだけなくしていきたい、という。

彼女によると、この機能を眉唾で見ている人がまだ多い。頭がおかしいんじゃないか、と言う人もいる。長年、誰も解決できなかった問題だ。実際にそのとおり動くことを、どうやって確認するのだ? …彼女はコミュニティが抱(いだ)いている疑念を、このように表現した。

“何千時間もテストをした。パフォーマンスにはとくに気をつけた。Kafkaのアーキテクチャを抜本的に再検討し、全体的な高速化を図った。一年がかりで、やっと使えるようになった”、とこれまでの努力を彼女は説明する。

Confluentは3月に5000万ドルを調達し、調達総額は8000万ドルになった。Kafkaは最初、LinkedInで作られ、その後オープンソースのコミュニティへ移った。Confluentは、2014年に創業された。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ニューラルネットワークの内部動作を理解するための完全自動化システムをMITの研究所が開発

MITのComputer Science and Artificial Intelligence Lab(コンピューターサイエンスと人工知能研究所, CSAIL)が、ニューラルネットワークの内部を調べて、それらが実際にどうやって判断をしているのかを知るための、方法を考案した。その新しいプロセスは二年前にチームがプレゼンしたものの完全自動化バージョンで、以前は人間が調べて同じ目的を達成していた。

ニューラルネットワークの動作の理解に人間が介入しなくなったことは、研究の大きな進歩だ。これまでのディープラーニングのテクニックには、彼らの動作に関する不可解な部分が多かった。いったいどうやってシステムは、その判断結果に到達しているのか? そのネットワークは信号処理の複数の連続した層を使って、オブジェクトの分類やテキストの翻訳などの機能を実行するが、ネットワークの各層がどうやって判断しているのかを、われわれ人間が知るための方法がほとんどなかった。

CSAILのチームはのシステムは、ちょっと手を加えたニューラルネットを使い、その個々のノードが入力画像に反応するときの反応の強度を返させる。そして、最強の反応を生成した画像を分析する。この分析は最初、Mechanical Turkのワーカーたちが行い、画像中の具体的な視覚的コンセプトに基づいて分類をしたが、今ではその仕事が自動化され、分類はマシンが生成する。

すでにこの研究から、ニューラルネットの動作に関する興味深いインサイトが得られつつある。たとえば白黒の画像に塗り絵をするよう訓練されたネットワークは、そのノードの大きな部分に集中することによって、絵の中のテクスチャ(絵柄、模様、パターン)を同定する。またビデオの中にオブジェクトを見つけるよう訓練されたネットワークは、そのノードの多くがシーンの同定に動員され、一方、シーンを同定するよう訓練されたネットワークはその逆に、多くのノードにオブジェクトを見つけることに集中した。

私たちはそもそも、分類や認識を行う人間の思考を完全には理解していないし、ニューラルネットはその不完全な理解に基づく人間の思考の仮説的なモデルだ。だからCSAILの研究は今後、神経科学の疑問も解き明かすかもしれない。そのペーパーは今年のComputer Vision and Pattern Recognition(コンピュータービジョンとパターン認識)カンファレンスで発表されるが、人工知能の研究者たちの、大きな関心を喚(よ)ぶことだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Blue Apron、上場初日は空振り――IPO価格からほぼ動かず

Blue Apronの株主は今頃泣いているかもしれない。もちろんこれは、彼らの商品に含まれる玉ねぎのせいではない。

会員制の食材宅配サービスを提供しているBlue Apronは、1株あたり10ドルをかろうじて上回った(四捨五入すると10.01ドル)あたりで初日(現地時間6月29日)の取引を終えた。これは、当初IPO価格を15〜17ドルに設定しようとしていた同社だけでなく、10ドルのIPO価格でBlue Apron株を購入した株主にとっても大変残念な結果だ。

市場に良いイメージを与えるため、新規上場企業は取引初日に少なくとも20%程度の値上がりを狙う場合が多い。その一方で、Blue ApronはIPO価格を引き下げた上、取引初日の結果も思わしくなかったため、今後が心配される。

さらに現在の時価総額は20億ドルを少し下回っており、上場前最後の投資ラウンドで20億ドルのバリュエーションをつけた投資家はさぞ落ち込んでいることだろう。ベンチャー投資家にとって、ブレイクイーブンは失敗と同じだ。というのも、彼らは一握りの投資先の大規模なエグジットから得た収益で、その他の企業のマイナス分をカバーしているのだ。

レーターステージで株主になった投資家の中には、ラチェット条項と呼ばれるもので保護されている人たちもいる。レーターステージの投資でよく見かけるこの条項では、エグジットの際のリターンに関して最低額が保証されており、ときには他の投資家がその影響を受けることさえある。IPOに特化した調査会社のRenaissance Capitalは「Fidelityの投資の一部には、IPO価格から7.5%割り引いた金額でラチェット条項が設定されている」とツイートに残している。

逆にBessemer Venture PartnersやFirst Round Capitalは、Blue Apronの株価が数セントくらいの頃に投資していたため、IPOでかなりのリターンを得ることができた。

Bessemer Venture PartnersのパートナーであるBob Goodmanは、CEOのMatt SlazbergがいるからこそBlue Apronのことを信じていると話す。Goodmanは「市場で生き残れるビジネスをつくるためなら努力を惜しまない彼の姿勢には驚かされました」と話し、さらにBlue Apronのチームは「食品の無駄や、高品質な食材へのアクセスといった実在する問題に取り組んできました」と付け加えた。ちなみに、SalzbergはかつてBessemer Venture Partnersでアソシエイトとして働いていた。

しかし、Blue Apron以外にも食材宅配サービスを提供している企業はたくさんあり、中でもSun BasketやPlated、HelloFreshは着実にトラクションを伸ばしている。投資家の中には、AmazonによるWhole Foods買収の影響がBlue Apronにも及ぶのではと心配している人もいる。Amazonは食材宅配に関しては何も発表していないが、少なくとも生鮮食料品の配送サービスには手をだしてくるだろう。

また、IPOに際して公開されたBlue Apronの数字を見ると、リテンションに問題があることに気付く。売上額はかなりの勢いで伸びており、昨年には8億ドル近い売上を記録したが、彼らのマーケティングの費用対効果はマイナスで、チャーンレートはBlue Apronにとって大きな問題になり得る。

とはいっても、IPOにたどり着けただけでも大きな快挙だというのも事実だ。しかも、ニューヨークに拠点を置くBlue Apronは設立から5年しか経っておらず、IPOを目指すスタートアップとしてはかなり早い段階でエグジットを果たすことができた。

なお、今週はテックIPOにはなかなか不利な週のようで、ストレージサービスのTintriは本日予定していた上場を延期することにした。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Delivery Hero、取引初日に時価総額が50億ドルを突破

フランクフルト証券取引所への上場を果たしたフードデリバリー企業Delivery Heroの時価総額が、取引初日(現地時間6月30日)に50億ドルを突破した。

今月に入ってから上場の意向を示した同社のIPO価格は、1株あたり25.50ユーロに設定され(仮条件の上限値)、取引初日の最高値は27.70ユーロ(約8.6%の値上がり)だったとBloombergが報じている。つまり、設立から6年が経ち40か国以上で営業しているDelivery Heroの時価総額は、最高で47億ユーロ(53億ドル)に達したのだ。

Delivery Hero自体はIPOで4億6500万ユーロ(5億3000万ドル)を調達し、この資金は債務の返済やビジネスの成長のために使われる予定だ。一方、その24時間ほど前にニューヨーク証券取引所で上場を果たした食材宅配サービスのBlue Apronは、Delivery Heroとは対照的に前途多難なスタートを切った

IPOがうまくいったとはいえ、Delivery Heroは未だ黒字化を果たせておらず、昨年度の純損失は2億200万ユーロ(2億3000万ドル)だった。その一方で、2016年の売上高は3億4700万ユーロ(3億9000万ドル)で前年比71%の伸びを見せ、オーダー数も51%増加した。これにはRocket Internet傘下だったFoodPandaの買収が深く関係している。Delivery HeroはこのM&Aを通じて、東欧や中東、アジアを含む合計20か国への進出を果たし、その他の市場でも大きな力をつけることができたのだ。

FoodPandaの売却によってDelivery Heroの株式の35%を手に入れたRocket Internetにとっても、本日のIPOは大きな追い風となった(投資会社NaspersもIPO直前の投資を通じて、同社の株式の10%を保有している)。

ドイツのインキュベーター兼投資会社であるRocket Internetは、ポートフォリオ企業の赤字体質で批判を受けてきたが、Delivery HeroのIPOによってこれまでに合計2社をエグジットさせたことになる。さらに同社は、FoodPandのほかにも先日東南アジアのEC企業Lazadaの株式を全て売却した。逆にAlibabaは、今週10億ドルもの資金を投じてRocket InternetやTescoを含むさまざまな投資家からLazada株を買い取り、同社の持株比率は51%から83%に上昇した。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

中国のバイクシェアリングサービスOfo、自転車を広告化――北京でミニオン風の自転車を発見

週末にピッタリな話として、中国各地に広がるバイクシェアリングスタートアップ、そして彼らの自転車に関する話をお届けしたい。この度、業界の最前線にいる大手企業が、自転車を広告スペースとして使い始めたことがわかった。

2社あるユニコーン企業のひとつで、ドックレスのバイクシェアリングサービスを提供しているOfoが、ユニバーサル・ピクチャーズの『怪盗グルー』シリーズ第3弾(原題『Despicable Me 3』)の公開を控え、人気キャラクターミニオン風にカスタマイズされた自転車を配備しているのが見つかったのだ。

これは中国で現地のテック業界を追うEdmond Lococoが発見したもので、彼は本日(現地時間6月30日)北京の中心部にあるビジネス街で、たまたまミニオン自転車を見つけたと教えてくれた。下の写真からわかる通り、車輪の内側には映画の広告が貼られており、ハンドルの真ん中にはミニオンのゴーグルが取り付けられている。Ofoの自転車はもともと黄色なので、そこまで違和感もない。

同社によればサービスの利用回数は1日あたり1000万回にのぼるため、確かにOfoの自転車は広告主にとっては魅力的で新しい広告媒体として映るだろう。さらに、レンタル料は1回あたり1ドル以下に設定されているため、広告のような新しい収益源が彼らにとってどれだけ重要かというのも想像に難くない。

先週深センで行われたTechCrunchのイベントには、Ofoと彼らの最大のライバルMobikeの幹部が参加し、どちらも都市計画の手助けや渋滞の解消などのために自分たちのサービスがいかにユーザーデータをうまく利用しているかについて話していた。

レンタル料の安さもあり、これまでマネタイズはどちらの企業にとっても大きな問題だった。しかし、何億ドルという資金を調達し、何百万人というユーザーを獲得した両社の規模をもってすれば、自転車の貸出以外のビジネスにも参入していけるのは間違いない。

多い日には1日の利用回数が2500万回にのぼると言われているMobikeも、オンデマンド配達や小売店での割引サービス、データサービスといった将来的なマネタイズの手段を模索しているとCTOのJoe Xiaは先述のイベントで語っていた。しかし、その中に広告は含まれていなかった。

現在Ofoにミニオン自転車や今後の広告ビジネスに関するコメントを求めているので、新たな情報が入り次第この記事をアップデートしていきたい。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Facebook、太陽光ドローンAquilaの2回目の飛行試験に成功――今回は着陸もほぼ問題なし

Facebookは太陽エネルギーで駆動するドローンを上空に飛ばし、安定的にインターネットが利用できない地域にネット環境を提供するというプロジェクトに取り組んでいる。そして今週の木曜日に同社は大きなマイルストーンに達した。Aquilaと呼ばれるFacebook初の商用ドローンが、2回目の試験飛行を終え、無事に着陸を果たしたのだ。なお、1回目のテストでは着陸直前に構造上の問題が発生し、運輸安全委員会(NTSB)が調査を行っていた。

5月22日に開催されたこの試験飛行では、Aquilaが夜明け後すぐに地上を離れ、飛行時間は1時間46分におよんだ。機体は制限値の上空3000フィート(914メートル)まで上がり、上昇速度は初回のテストの倍となる分速180フィート(55メートル)を記録した。Aquilaのチームは、1回目の試験飛行のデータをもとに機体に数々の「改良」を加えた結果、この上昇速度を実現できたと話している。

上昇速度は向上したものの、そもそもAquilaは設計上そこまで速く移動できるようにはなっていないため、逆風時の時速は10〜15マイル(16~24キロメートル)程度だとFacebookは語る。しかし、Aquilaは安定したネット環境を提供するために、特定の区間にある程度長時間滞在する必要があることを考えると、飛行速度の遅さはむしろ強みだと言える。先述の通りAquilaは太陽エネルギーで駆動し、Facebookによれば消費電力はヘアドライヤー3個分とのこと。

今回の試験飛行もデータ収集が目的で、Aquilaのチームは手に入れたデータをもとに、エネルギー消費量を予測するモデルの調整やバッテリー、ソーラーシステムの最適化を行う予定だ。これらについては、もちろん試験飛行前に徹底的なシミュレーションが行われているが、細かな部分を調整するには、商業利用が始まったときの現場に近い環境でドローンを飛ばす以外に方法がないのだ。

それ以外にも、抵抗を増やして速度を落とすために新たに搭載されたスポイラーや、機体に搭載されたシステムから発される電波の強度のテストが行われた。1回目のテストで問題が発生した着陸プロセスも事前に見直され、ここでもスポイラーが力を発揮した。

新しい着陸プロセスでは機体へのダメージを軽減するために、プロペラが地面と水平に固定されるようになっており、これはテスト中もほぼ設計通りに機能したとFacebookは発表した。しかし、実際に固定されたプロペラはたったひとつで、上の動画を見ればわかる通り、残りのプロペラは着陸するまで全て垂直のままだった。しかし、着陸前にプロペラのモーターは全て止まり、機体は砂利が広がった地面にゆっくりと着陸した。さらに、機体へのダメージに関しては「すぐに修理可能なへこみが数か所」発生するに留まった。これは初回に比べればかなりマシだが、Aquilaのチームは引き続き着陸プロセスの改善に務める予定だ。

最終的にFacebookは、翼長113フィート(34メートル)もの巨大な機体を1回の飛行で最長90日間上空に滞在させ、直径60マイル(97キロメートル)の範囲にネット環境を提供しようとしている。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

大量高速なデータストリームをリアルタイムで分析/視覚化するGPU駆動インメモリデータベースKinetica

Kineticaの企業としてのルーツは、アメリカの諜報部門のための2009年のコンサルティングプロジェクトまで遡る。テロリストをリアルタイムで追尾するという、そのときの軍やNSAの厳しい要求を満たすソリューションを市場に見つけることができなかった同社は、それを自分で作ろうと決心した。今日の同社は、インメモリのデータベースソリューションがメインのプロダクトで、それは、NVIDIAのGPUを使って処理を加速する一般市販のハードウェアを使用する。

そのアイデアがシリコンバレーの多くの投資家たちに受けて同社は、大枚5000万ドルのシリーズAを調達した。

同社は、初期の諜報機関向けのソリューションのパワーを、そこらの誰もが利用できるようにしたい、と考えている。データベースをGPUが動くチープなハードウェアの上で使うと、コストを低くでき、同時に当時のソリューションの高速性を享受できる。CEOで協同ファウンダーのAmit Vijによると、そのソリューションは従来のデータベースの100倍速く、しかもハードウェアの費用は1/10だ。

この価格性能比が投資家たちの関心を惹き、今日のラウンドはCanvas Ventures とMeritech Capital Partnersの共同リードに、新たな投資家としてCiti Ventures、そしてこれまでの投資家GreatPoint Venturesが参加した。

GreatPointの投資を決めたRay LaneはOracleの元役員で、データベースの技術には詳しい。その彼によると、このところデータの量と回転率は急速に増加しており、とくにIoTの貢献要因が大きい。そして、これまで主に顧客やサプライヤーからのトランザクションデータを扱ってきたレガシーのデータベース技術は、今日のデータ量の増大に追随できなくなっている。

“今日のチャレンジは、私が“外部的”(external)データと呼んでいるものだ。その量は膨大で、しかもほとんどが非定型、そしてリアルタイムのストリームだ。センサーやスマートデバイスから、絶え間なく大量のデータがやってくる。頭上のドローンから画像が来る。ソーシャルメディアのフィードもある。Kineticaは最初から、これら多様なデータ環境のリアルタイム分析と視覚化を目的として構築されている”、とLaneは語る。

NSAの長官だったKeith Alexanderによれば、彼の組織は2009年にKineticaのファウンダーたちに、たいへんな難題をぶつけた。しかし、“彼らはその機に乗じて、今日のKineticaデータベースプラットホームの前身を開発した。そのほかの商用やオープンソースのソリューションはすべて、そのミッションの目的を満たさなかった”、とAlexanderは声明文で述べている。

Vijの説明では、同社が提供するのはソフトウェアソリューションであり、NVIDIAのGPUが動くハードウェアは、IBM、HP、Dellなどのパートナーが提供する。またAWSやAzure、Google Cloud Platformなどの、GPUを利用するクラウドでも動く。

Kineticaの当初の顧客リストには、GlaxoSmithKline, PG&E, US Postal Serviceなどが名を連ねている。同社はOracleやSAP HANAなどの従来のデータベースベンダーと競合するが、同社によるとそれらは費用が高くてしかもGPUを使っていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

「LAで最初のセクションを完了」イーロン・マスクがついにトンネル掘削機を始動

eng-logo-2015

イーロン・マスク氏がロサンゼルスの交通渋滞に嫌気を起こし設立したトンネル掘削会社The Boring Companyが、巨大掘削機”Godot”の 最初のひと搔き を完了しました。

 

マスク氏は5月、入手はしたものの長らく出番がない掘削機にサミュエル・ベケットの戯曲「ゴドーを待ちながら」に引っ掛けた名前”Godot”を与えていました。そして6月29日、「もう待つ必要はない。GodotはLAにトンネルの最初のセクションを掘り進めた」とツイート、ようやくその巨大な掘削機を始動させたことを明らかにしました。

ただ、現在のところはGodotがどこからどこへ向けて穴を掘り始めたのかは明かしていません。

イーロン・マスクは2週間ほど前、ロサンゼルス市長と会談を持ち「有望な会話ができた」としつつも技術は問題ないが、許可を得るのが大変だとして、LAの地下に穴を掘り進める正式な許可が出たかどうかは明らかにしませんでした。とはいえ、それからしばらくして「最初のひと掻き」を報告するということは、少なくとも必要な公的手続きが進んでいると考えられます。

マスク氏は4月、LA市街の地下にトンネルを張り巡らせ、自動車やバイク、歩行者などを乗せて高速移動するライド式の地下交通コンセプト動画を公開しています。また5月には最初の路線として、ロサンゼルス国際空港からカルバーシティ、サンタモニカ、ウェストウッド、シャーマンオークスを結ぶルートを計画しているとInstagramに投稿していました。

//platform.instagram.com/en_US/embeds.js

Engadget 日本版からの転載。

テクノロジーの利用による効率化が遅れている大企業の財務や法務にコラボレーションを持ち込むClauseMatch

ClauseMatchのCEO Evgeny Likhodedは、契約交渉というものがどんなものだったか、よくおぼえている。彼がMorgan StanleyやGazpromにいたときは、各種金融製品や商品取引をめぐって契約や合意を交渉するチームに配属されていた。

エンタープライズの多くの部分でテクノロジーが進化したが、Likhodedによると、財務や法務、保険関連などコンプライアンスが厳しい部門では、圧倒的にMicrosoft Wordに依存して文書の作成や編集を行い、それらの変更や承認を行う部署への配布には、圧倒的にメールが使われていた。

“大企業の、とくに法務の連中の仕事は、そこに何らかの文書が絡んでくるといつでも、何人かの利害関係者たちが意見を述べ、変更を加え、その文書を承認していた。文書を10か20の部署に送ると、それぞれ異なる10通が返ってきて、それらをすべて原本に取り入れなければならない”、とLikhodedは往時を語る。

関連部署が増えるとさらに複雑になる。80から100名ぐらいからの入力や承認が必要になると、Likhodedによれば、人びとは原始的な変更追跡とバージョンコントロールのフォームとしてスプレッドシートを作った。そして多くの場合、監督部門は文書の作成過程を理解するために監査証跡〔完全詳細な変更・編集履歴〕を見たがるので、問題はさらにややこしくなった。

これらすべてを踏まえてLikhodedは、ClauseMatchの構築に取り組んだ。財務や法務関連のチームがリアルタイムでコラボレーションしながら文書を作成編集し、変更を記録追跡し、承認のシルシを付け、そしてサインをもらうソフトウェアだ。

単純にすべてのアップデートをインデクシングして、すべての文書に完全な監査証跡が備わるようにする。文書がどう変化・進化してきたかよく分かり、誰がいつどこをどう変えたかも分かるから、機密情報も管理しやすい。

2016年の初めにソフトローンチしたClauseMatchは、バークレーズ(Barclays)に採用されて、同社のポリシー管理の合理化に貢献している。概念実証の段階で採用した数社は、近く完全なデプロイメントへ移行する予定だ。

その結果ClauseMatchは、Speedinvestがリードするラウンドで160万ドルのシード資金を獲得でき、それには既存の投資家SparkLabs Global VenturesとTechstars、元Thomson ReutersのCEO Tom Glocer、元SunGardのCEO Cristobal Condeらが参加した。

新たに資金を得たClauseMatchは、すでに成長しているチームをさらに大きくしたいと考えている。社員数は、1年前の6名から20名に増えた。今後はプロダクトチームを増員するとともに、営業とマーケティングを本格的に展開したい意向だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

倉庫会社のOmniが友人たちとのアイテム共有を可能に

オンデマンド倉庫(実際のピックアップとデリバリーを行ってくれる荷物保管サービス)のスタートアップOmniは、お気に入りのアイテムに、クローゼット内のスペースを占めることなく簡単にアクセスできるようにするサービスだ。しかし、同社は今、そうしたアイテムを友人たちや、ローカルコミュニティのなかで共有できるようにするための、大きな一歩を踏み出そうとしている。

Omniだけがオンデマンド倉庫マーケットのプレイヤーではない。ClutterMakeSpaceTroveといった企業も、こうしたサービスをオンラインで提供している。しかし、Omniが他の倉庫スタートアップと差別化を図ろうとしている点は、アイテムレベルの分類と、ユーザーの持ち物への個別のアクセスの提供だ。

あなたが持ち物をOmniに保管すると、それは単に倉庫のどこかの埃を被った箱やケースの中にしまい込まれるのではない。同社は、ユーザーはモバイルアプリで管理できるように、受け取ったアイテムをそれぞれ写真をとり、識別タグを付け、カテゴリーに分け、在庫として保管する。ユーザーは、少なくとも2時間前に同社に通知すれば、いつでも倉庫からアイテムを取り出すことが可能だ。

このことで、週末にサーフィンや自転車やゴルフを楽しみたいOmniのユーザーは、スポーツ用具を不要な間は倉庫に預けておき、必要なときに取り出すことが可能になる。しかし、今や同社は、ある程度以上のアイテムを集めることができたので、今度はアイテムを預けているユーザーたちに、それらを友人たちやローカルコミュニティの中で、共有して使えるようにさせたいと思っている。

「私たちが立ち上げようとしているのは、アイテムのオーナーが、その持ち物を友人たちやローカルコミュニティに対して共有できる機能です」こう語るのはOmniのプロダクトVPであるRyan Delkである。立ち上げ以来18ヶ月で10万点以上の品物を集めたOmniにとって、これはもともと計画されていた内容なのだ。

「私たちは倉庫業という姿を、トロイの木馬のような見せかけの姿として位置付けていました」とDelkは私に語った。彼によれば、Omniが今回のサービスを実現できたのは「すべてがアイテムレベルで起こる」からだ。

振り返ってみれば、その計画はおそらく明らかだったはずだ。結局のところ、なぜわざわざ倉庫保管用のアイテムをピックアップして、個別にタグをつけカテゴリーに分け、品物のクラウドデータベースに登録するといった手間をかけていたのだろうか?もちろんユーザーが個別のアイテムに対して何かをすることができるようにだ。

Omniではユーザーは1ヶ月あたり、小物なら50セント、大きい品物はら3ドルで保管することができる。またユーザーがどれほど素早く在庫中の品物にアクセスしたいかによって、ピックアップとデリバリーの費用が変化する。本当に急ぐ(3時間以下)場合でない限り、品物のピックアップは無料だ。反対にアイテムを配達して貰う際には、翌日配達で3ドル、2時間以内の配達を指定すると20ドルが必要となる。

ビジネスの経済性を考えると、Omniで保管するものは、地元のセルフ保管倉庫で使っているような、箱に放り込んでお終いという種類のものではない。Omniでは独自の分類に基づき、商品の29%は「家庭用品と工具」に分類され、25%がアパレルに、そしてスポーツやレクリエーションが全商品の13%を占めていると語る。

  1. request-flow.png

  2. item-availability.png

  3. accept-flow.png

  4. search-flow.png

  5. friend-management.png

これら3つのカテゴリーだけで、Omniユーザーが手持ちの電動工具を隣人に使わせたり、友人にイベント用ドレスを貸したり、キャンプその他のアウトドア用品を共有したりという用途が想像可能だろう。

Omniは既にこのコンセプトを、ベイエリアの限られた数のベータユーザーに対してテストしており、これから一般公開をしようとしているところだ。ユーザーが保管したすべてのアイテムは、デフォルトではプライベートになるが、もし友人たちと共有したり、コミュニティで利用可能にしたいと思った時には、今や簡単にそれを行うことができる。

もしここまで読んで、まだ先も読むつもりなら神の祝福を。このサービスがこの先狙っているところを次に説明したい。Omniは単純な「借り入れ」と「貸し出し」からこのサービスを開始する。しかし考えてみて欲しい…ここからユーザーが普段使っていないものをレンタルしてお金を稼ぐまではほんの1歩に過ぎない。そうなったらOmniはそこから手数料を抜けば良い。

実際Delkは、友人や隣人からアイテムを借りるときにピアツーピアのVenmoまたはPayPal支払いを使ってシステムに取り込み、すでにこのようなことを行っているユーザーがいることを認めている。そして同社が、既にプラットフォーム上で起こっているこうした商取引の一部を、どれほど取り込みたいと思っているかを想像することもできるだろう。

とはいえ、それはいつの日かやってくる別のアップデートの話だ。Omniは、こうしたものが人びとが本当に求めているものであることを、証明していかなければならない。そして時間と支持だけがそれを証明する。また数ヶ月後に戻ってきて、その時このシステムがどのように運営されているかをチェックしてみたい。

[ 原文へ ]
(翻訳:Sako)

Lockheed MartinがスタートアップTerran Orbitalに投資してナノサテライトのブームに乗るつもり

航空宇宙産業のリーダーLockheed Martinが、アメリカのナノサテライト企業Terran Orbitalに投資したことは、成長を続ける商用宇宙利用において小型衛星、とりわけ安価で軽量な人工衛星が、業界の新旧両勢力から重要な機会と見なされていることの、ひとつの例だ。

Lockheedはキャッシュと現物支給で今回の投資を行ったが、両社は過去に、DoDやNASAの仕事でパートナーしたことがある。Lockheed側の意図は、Lockheed Martin Venturesの常務取締役からの声明では、“敏速で応答性が良く、コスト効率の良い技術によるミッションとそれらの実証デモンストレーションへの関心が、弊社の顧客において昨今ますます増大しており、それに対応するため”、としている。

Boeingが開示した独自の計画では、同社の人工衛星製造ビジネスを再構成して、現在の大型衛星をはるかに下回るコストによるナノ衛星の生産に注力していく、となっている。そこは今、比較的低い起業コストで商用宇宙ビジネスへの参入をねらうスタートアップにとっての温床でもあり、Lockheedのようなレガシーの業界リーダーが今後の有力な商機とねらうのも、当然と言える。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftがクラウド情報管理会社のイスラエル企業Cloudynを買収、買収額は5000万ドルから7000万ドル

Microsoftが、イスラエルのクラウドスタートアップ企業であるCloudyn社を買収しようとしているという話を耳にし始めたのは、この4月のことだった 。条件の交渉に時間はかかったが、本日(米国時間6月29日)ついに、Microsoftはそれを公式発表した

複数の情報ソースがTechCrunchに語ったところによれば、買収価格は5000万から7000万ドルの間だという。

本日(米国時間6月29日)付けの同社のブロク投稿で、MicrosoftのJeremy Winterは「企業とマネージドサービスプロバイダたちが、クラウドサービスへの投資を最適化することを助ける革新的企業のCloudynの買収に関し、Microsoftが最終合意に達することができたことを嬉しく思います」と書いている。

世の企業は引き続きマルチクラウド戦略を推進しているので、この買収はMicrosoftに対して、特にAWSやGoogle Cloud Platformといった競合相手たちに勝る、クラウド課金と管理ソリューションをもたらすことになる。

TechCrunchのIngrid Lundenが4月に書いたように、Microsoftはマルチプラットフォームサービスアプローチを推進しているので、これはその全体的な戦略に合致したものだ。さらに彼らに対して、他のクラウドプラットフォームを横断する利用データを提供してくれるというボーナスもある:

CloudynはMicrosoftのポートフォリオにとって、より有用なものとなり得る:Microsoftの顧客たちのサービスがどのようにクラウドの中で使われているかのモニタをすることを助ける一方、その過程でおそらくMicrosoft自身のサービスの効果的な組み合わせ方についての提案もすることができるだろう。

もちろんCloudyn自身が大規模なクライアントリストを蓄積してきたことも大いに役立つ。同社は、「すべての主要業界におけるFortune 500リーダー企業たち」を含む数千の企業と協力していると述べている。

また注目したいのは、Cloudynは既にMicrosoftのパートナーでもあるということだ。今年3月には、同社はMicrosoft Cloud Solution Providersへのサポートをアナウンスしている。すなわちAzure(もしくは他のクラウドプロバイダー)と企業の間に入るインテグレータたちやミドルサービスプロバイダーたちに対して、インテグレータによって実装された特定のプロダクトに依存したプラットフォームの利用状況を、彼らに代わって管理しモニターするというサービスを提供するのだ。Infosys(こちらもCloudynに投資している)、Westcon-Comstor、Insightはすでに顧客となっている。

Lundenが指摘していたように、これは投資家にとって確かな利益をもたらす筈だ。

Crunchbaseによれば、2011年に設立されたCloudynは、Carmel Ventures、Infosys、ロシアのTitaniumを含む投資家から、これまでに2050万ドルを調達している(なおCalcalistによればより高い2250万ドルの調達額が挙げられている)。これは、5000万ドルから7000万ドルという値札が、少なくとも調達資金の2倍以上、あるいは4倍近くになり、年間収益(Calcalistのレポートによれば年間に500万から700万ドル)の10倍に匹敵するということを意味している。

Microsoftはその他にも、AoratoAdallom、そしてSecure Islandsなどのイスラエル企業を買収し、そして今月の初めにはまた別のセキュリティ企業Hexaditeを1億ドルで買収している

[ 原文へ ]
(翻訳:Sako)

モバイルのデータプランをきめ細かく管理できるアプリTriangleをGoogleがフィリピンでテスト中

Googleが最近、スマートフォンのデータ(キャリアのデータ通信)の利用をユーザーが管理できるツールをテストしている。そのAndroidアプリはTriangleと呼ばれ、今フィリピンでテスト中だ。このアプリで、データ契約の残量を見たり、データを大食いしているアプリを見つけたり、特定のアプリにデータを使わせないようにする、などのことができる。

アメリカでは無制限データプランがふつうで、帯域が混みすぎていることもあまりないが、途上国市場ではモバイルのデータ使用がよく心配のタネになる。GoogleのTriangleは、ユーザーがデータの使用を細かくコントロールして、最終的な使用量を抑えられるようにする。

数年前にもGoogleは、モバイルのChromeブラウザーに“データ節約モード”を導入して、こんなコントロールをユーザーに提供した。また同社のPixelなど一部の機種には、データ節約機能を最初から実装した。

でもそれらに比べると、Triangleは芸が細かい。

まず個々のアプリケーションのレベルでは、データを使ってよい時間を10分とか30分とか“いつでも”とか、細かく指定できる。ちなみに下図では、データを使わせない、[BLOCK]になっている。

またGlobeやSmartをキャリアとして使っているユーザーは、プリペイドのデータ契約の残量が分かる。そしてどのアプリがデータを大食いしているかも分かる。キャリアはTriangleからおまけデータを提供するので、新しいアプリをデータ使用量を心配せずに試用できる。また既存のアプリも、おまけデータのぶん、長く使える。

GoogleはTriangleのローンチを公式に発表していないが、先月フォーラムで話題になっている。Triangleの実験は、4月に始まっている。

  1. triangle2.png

  2. triangle1.png

  3. triangle3.png

  4. triangle4.png

  5. triangle5.png

テストを終えたあとの、今後の本格展開については、Googleからまだ一言もない。でもGoogleの公式プロダクトであることは確実であり、社内的インキュベーターArea 120からのものではない。

今のところ、同社の公式声明はこうだ: “現在フィリピンで、ユーザーがモバイルのデータを上手に管理する方法をテストしている。現時点では、これ以外に発表できることはない”。

Triangle現在フィリピンで、Google Play Storeから無料でダウンロードできる

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

今回のマルウェア攻撃の標的は半数以上が工業分野

今週の大規模マルウェア攻撃の標的 ―― および意図した効果 ―― を調査しているサイバーセキュリティ会社、Kaspersky Labsの最新レポートが、いくつか興味深い洞察を与えている。

当初Petyaという名前で知られる商用マルウェアの変種と考えられていたその攻撃は、大規模なランサムウェアスキームの一つとみられた。しかし事態が進むにつれ、攻撃は金目当てより破壊目的であることが明らかになってきた。身代金を支払っても影響を受けたシステムのロックを解除すの復号キーが手に入らなかったからだ。,

しかも、本稿執筆時点でこの攻撃が 生み出したのはわずか3.99 BTC(約1万ドル)にすぎない。一方、大規模なシステム麻痺によって主要空港、銀行、さらには チェルノブイリの放射能監視システムまでもが運用を停止した。一見ランサムウェアに見えるこの攻撃の影響を受けたシステムは、60%以上がウクライナに存在している。

Kaspersky Labsの報告によると、金融分野の被害が最も大きいものの、ほかの標的の50%以上が製造、石油、およびガスの分野に分類される。

「これはこのマルウェア作戦が経済的利益を目的としたランサムウェアではないという説を支持している」とKaspersky Labsがブログで分析している」。これはランサムウェアを装った「ワイパー」(データ破壊プログラム)と見られている。

Kasperskyはブログでこう説明している:

ExPetr(Petya)のような脅威は、重要なインフラストラクチャーや工業部門にとって著しく危険であり、攻撃の標的になったオートメーションや制御システムなどの技術プロセスが影響を受ける可能性がある。その種の攻撃は企業の生産や金融だけでなく人間の安全にも影響を与えかねない。

分析によると、多くの製造業がExPetr(Petya)マルウェアの攻撃を受けている。工場制御システムが影響を受けた事例もあるが、ほとんどのケースは企業のネットワークのみが被害を受けている。

このマルウェアをどう呼ぶかについては数多くの議論がなされているが、Kasperskyらは“ExPetr”と呼び、良く知られているランサムウェアのPetyaの変種であるPetrWrapと区別している。McAfeeの研究者らもマルウェアがPetyaに関係しているという説に懐疑的だ。「たしかにPetyaに似ているが、逸脱している部分もある」とMcAfeeのチーフサイエンティスト、Raj Samaniが今週TechCrunchに伝えた。

かつてPetyaと呼ばれたこのランサムウェアの分析に結論を出すにはまだ早いが、事態が複雑化していることは間違いない。

[原文へ]

(翻訳:Nob Takahashi / facebook

社員エンゲージメント分析の「BetterEngage」β版がリリース

社員エンゲージメント分析ツールの「BetterEngage」を提供する日本のBtoAは6月30日、同サービスのβ版を公開したと発表した。BetterEngageは、Slackなどのコミュニケーションツールから得たデータを解析し、従業員の「エンゲージメント」を可視化するサービスだ。

BetterEngageを利用するにはまず、SmartHRなどからエクスポートできるCSV形式の従業員データを同サービスに取り込む。BetterEngageはCSVファイルの独自フォーマットも用意しているので、必ずしも他社のHR系サービスを利用している必要はない。

その後、Slackのメッセージ履歴(JSONファイル)をエクスポートし、それを月に1回ほどの頻度でBetterEngageに取り込むことで、従業員のエンゲージメントを自動で解析できる。Slack側で設定すれば、JSONファイルのエクスポートを完全に自動化することも可能だ。

プライバシーの関係上、BetterEngageが従業員同士の”好き嫌い”などを判断することはなく、プライベートチャットの内容を解析することもない。あくまでもエンゲージメントを数値化することが目的のため、取り込まれたメッセージ履歴を人事担当者などが閲覧することもできない。

現在、BetterEngageが実用レベルで解析できるのはSlackから得たコミュニケーションデータだけだが、将来的にはこれに加えて、勤怠、パフォーマンス、同僚からの評価、従業員の経歴などのデータをAPI連携によって取得・解析していくようだ。なかでも、jinjerIEYASUなどから取得できる勤怠データの解析は、2017年10月に予定されている正式リリースまでに実装するという。

BtoA代表の石原史章氏によれば、BetterEngageのターゲットは「従業員が100人程度いて、専任の人事担当者をもつ企業」だという。正式リリース後の料金設定はまだ確定していないものの、従業員1人につき500〜800円程度の月額課金を想定している。

60人のチームから毎月5人の退職者

石原氏は、遠隔医療サービスなどを手がけるポート出身の人物。彼はそこでキュレーション・メディアのマネジメントを行っていた。しかし、総勢60人のチームであったにもかかわらず、毎月5人ほどの退職者が続出するという問題に直面したことがBtoA創業のきっかけだったという。「その経験から、部下と対面して会話をすることの重要性を知った。だからこそ、時間のかかるエンゲージメント分析を自動化し、対話にフォーカスできる環境をつくりたいと思った」(石原氏)

2015年10月に創業したBtoAは、これまでにサムライインキュベートから資金調達を実施している。石原氏はこのときの調達金額が450万円であったことを今回の取材でTechCrunch Japanに明らかにした。また、同社はY Combinatorのオンラインプログラムに参加中だ。

AIでヘイトコメント問題に取り組むInstagram

Instagramは、敵意があったり、攻撃したり、あるいは嫌がらせをするようなコメントを自動的に検出し、人びとがそれらを見ないようにする仕掛けを導入しようとしている。この新しいシステムはFacebookとInstagramがDeepTextを使って行った成果に基づくものだ。なおDeepTextとは、スパムと戦うために言葉を文脈の中で解釈するテキスト分類エンジンだ。

Wiredが最初に報告したように、Instagramのシステムは、Facebookがスパム対策に上手く適用できた技術を、昨年10月から取り込んでいる。どのようスパムを識別すべきかを人間の入力によって教える訓練を経て、チームは満足できる結果を得ることができた。ただしこのことによって、対策前に比べて正確にはどれ位の効果が出たのかについては発表されていない。

このシステムの成功に基づいて、チームは更により強烈な問題に適用できるかを探りたいと思っていた。すなわち敵意に満ち、嫌悪感むき出しで、嫌がらせを狙ったコメントを識別するということだ。さて、おそらく読者はインターネットには詳しいと思う。もしそうなら、インターネットという場所が、その最終的な効果をほとんど考慮しない、言いっ放しの、傷つける罵りや攻撃が、大量に拡散される手段となっていることに気がついているだろう。

Wiredによれば、DeepTextの訓練を請け負った評価者たちは、ネガティブなコメントを識別して、それらを「いじめ、人種差別、性的嫌がらせ」のような幅広いカテゴリーに分類するような訓練を行った。評価者たちは、現在の公開に至る前に、少なくとも計200万件のコメントを分析したと言われており、分類の正しさを確実にするために、それぞれのコメントは最低2回評価された。

レポートによれば今日(米国時間6月29日)からシステムは稼働し、今後は敵対的なコメントを入力してもただ消されることになる(ただしそのコメントを投稿した人には表示され続ける。これは表示されるまで投稿を繰り返すような、フィルターをすり抜ける努力をさせないためだ)。このフィルタは、最初は英語のみに適用されるが、このプロジェクトのために雇われた評価者たちは皆少なくともバイリンガルであり、Instagramはそのスパムフィルターを他言語にも広げつつある。よって他の地域にこのツールが展開されるのも時間の問題だろう。

個人的には、Instagramは既に多くの友人がやってくるソーシャルネットワークになっていると思う。なぜなら大部分のインターネットソーシャルフォーラムよりもより親しみやすいものだからだ。もし今回のシステムが効果的だということが分かったら、長期的には利用者を長く留める避難所になることもできるだろう。

[ 原文へ ]
(翻訳:Sako)

AppDynamicsのアプリケーションパフォーマンス管理サービスがDockerのコンテナに対応

今年初めに37億ドルで買収されてCiscoの傘下になったAPM(application performance management/monitoring)プレーヤーAppDynamicsが、今日(米国時間6/29)のアップデートでついに、成長が今も続いているトレンド、コンテナに対応することになった。

コンテナの問題は、なにしろその数が多いことだ。コンテナを利用すると一枚岩的なアプリケーションを小さなマイクロサービスの集合に分割できるが、そうすると、パフォーマンスの劣化等の原因を、個々のコンテナのレベルで特定しなければならない。AppDynamicsのデベロッパー対応担当Matt Chotinは、そう語る。

その問題の原因が分かっても、アプリケーションがどのようなコンテナ構造(マイクロサービス構造)でデプロイされているのか、ユーザーに聞いても分からない場合が多い。ユーザーにとってアプリケーションは動けばいいのであって、最近のAppDynamicsの調査によると、アプリケーションのユーザーとは、辛抱強くない動物である。アプリケーションの調子が悪くなって、問題が簡単に解決しないと、別のアプリケーションへ移ってしまう。

コンテナでデプロイしている場合は、パフォーマンスの問題の原因を見つける作業が非常に困難になる。“同じコンテナの複数のインスタンスをデプロイしていて、どれも同じ状態のように見えても、実際にはどれかが問題を抱えている。そんなとき、問題のコンテナをどうやって特定するのか?”、とChotinは問う。

AppDynamicsのMicroservices iQはDockerのコンテナモニタリング機能を統合して、三つの領域の情報をユーザーに提供する: 1)ベースラインメトリックス、2)コンテナメトリックス、3)その下のホストサーバーメトリックス。これらによりオペレーションのチームに、不良なコンテナを見つけるために必要な情報を与える。

同社はまた、Tier Metrics Correlatorと呼ばれるヒートマッププロダクトをリリースした。分かりづらい名前だが、これはコンテナのデプロイ状態を視覚化するツールで、問題を抱えているコンテナがすぐ分かるように表示される。

これまでさまざまなデータソースを手作業で調べていたオペレーションチームも、情報がこのように視覚化されると、相当な時間節約を達成できる。この新しいツールは要するに、たくさんの点と点をつないで像を作り、問題領域を指摘する。

Chotinによると、コンテナは数が多いから、このことがとくに重要だ。“ひとつの仮想マシンではなくて、数十から数百というたくさんのコンテナが相手だ。それらをいちいち、人間が調べることはできない。良質な視覚化がどうしても必要なんだ”、と彼は説明する。

Chotinによると、同社の周辺でもコンテナを採用する企業が増えている。そして少なくとも今は、需要はDockerに集中している。“今のコンテナ・ブームの中でうちの顧客は、圧倒的多数がDockerを使っている。でも、今後そのほかのコンテナ技術にうちのツールを対応させることは、それほど難しくない”、と彼は言う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

暗雲立ち込める中、Uberが乗車回数50億回を突破

Uberの乗客は延べ50億回このサービスを利用して移動したと本日(米国時間6/29)同社が発表した。2016年に達成した20億回の2倍以上だ。50億乗車の節目を実際に越えたのは5月だった。5月20日 7:29:06 AM GMT、156台の乗車がスタートし、相乗りサービスを大台に乗せた。

これはUberにとって実に大きな数字だが、暗雲立ち込める中での祝福となりそうだ。CEOが辞任、社内カルチャーの第三者調査でいくつもの問題を指摘され、山ほどの法的トラブルを抱えている。ただし現時点でそれがどれほどUberのビジネスに影響を与えているかはわからない。Uber自身は2017年も乗車回数は伸びていると強気だが、アプリのダウンロード数を含め最近の第三者データをみると、LyftらのライバルがUberのリードを縮めつつあることを示している。

Uberの50億回目の乗車は、窮地に立たされた同社に一筋の光をさす明るいニュースであるだけではない。同社は、50億回の節目を越える乗車を提供したドライバー156人全員に、50ドルのボーナスを渡した。Uber利用者は、乗車履歴をチェックして自分がその時乗っていたかどうか調べてみよう。この栄えある記録達成に参加したという事実を知ることがごほうびだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebook、新しい広告測定基準を導入。今後も追加していくことを約束

Facebookは、同サービスの広告 やFacebookページを利用している企業のために、新たな測定基準を導入すると発表した。

昨年Facebookは、一部の測定値を誤って報告していたことを認めた ―― 個々の間違いはさほど問題になるものではなかったが、全体として広告主に対する透明性を確保する努力が必要であるという印象を与えた(メディア評価委員会の監査を受けるきっかけにもなった)。

同じように、今日Facebookが発表する新たな測定基準も、一つ一つは大きな違いを生むものではないが、今後に向けた大きな取り組みの一環であると同社は言っている。

「各企業からはFacebookの実績について透明性を高め理解を深められるようにしてほしいという要望が寄せられている」とFacebookがブログに書いている。「測定値に関する取り組みの一環として、ほぼ毎月新しい指標を公開して、様々なデータを企業が一か所で見られるようにしていくことを約束する」。

新たな測定基準の中でも特に興味深いのが「ランディングページビュー」で、広告をクリックした後、実際に企業のモバイルランディングページに到達したユーザーが何人いたかを広告主に知らせる。

Facebookによると、この測定値は「よりよいモバイルウェブ体験に向けた最適化の重要性を企業が認識する」ために役立つという。これはFacebookにとって何度も繰り返されているテーマであり、これまでもInstant Articles(ニュース提供者向け)やCanvas(広告主向け)といった方式を使って、コンテンツをFacebook内部に取り込むことによって、ウェブレスポンスの悪化を回避しようとしてきた。

ほかの新しい指標には、広告をクリックしたユーザーが、以前その広告主のウェブサイトやアプリを利用したことがあるかどうかを報告するものがある。

そしてFacebookページにも新しい測定基準が追加された ―― フォロワーの増減、ページの情報を(ページ自体をクリックせずに)プレビューで見た人数、誰かのおすすめの中にFacebookページが入っていた回数などだ。

[原文へ]

(翻訳:Nob Takahashi / facebook