アプリ調査の「App Ape」を提供するFULLER、2.3億円の資金調達で世界進出へ

FULLERは2月27日、既存株主のM8 CAPITAL FUNDに加え、Global Catalyst Partners Japan、朝日新聞社、インフォテリア、オプト、コロプラ、日本交通およびnanapi代表取締役の古川健介氏ら個人投資家複数名を引受先とする総額2億3000万円の資金調達を実施したことを明らかにした。

FULLERは、筑波大学の卒業生(さらに言うと、高専出身者が多い)を中心にして2011年11月に設立。現在は千葉県・柏の葉にあるオープンイノベーションラボ「KOIL」に拠点を置く。不要なアプリを停止したり、アンインストールしてスマートフォンのバッテリー管理をすると同時に「おじさん」のキャラクターを育成する「ぼく、スマホ」や、Androidアプリ視聴率調査サービス「App Ape」を提供してきた。

2014年11月に公開したAndroidアプリの市場・競合調査サービス 「App Ape Analytics」が好調で、開始2カ月で無料会員数2000件を突破。通信キャリアやアプリ開発者、広告代理店などを中心に有料会員も拡大しており、「現在20〜30社程度が有料会員。間もなく単月での黒字化も達成する」(FULLER代表取締役社長の渋谷修太氏)という。

FULLERでは今回の増資をもとに人員体制を強化。App Apeの機能拡充やカスタマーサポートの強化、さらにはサービスの世界展開を進める。またこれと並行して新サービスも開発するという。今回、ベンチャーキャピタルに加えて事業会社や個人投資家からも資金を調達しているが、これについて渋谷氏は「ITという共通点はあるが、BtoBや交通といったさまざまな分野の知識を持っている人たち出資してもらっている。また30代前半で比較的年齢の近い株主から50代のキャピタリストまでいる」と、その多様性をアピールする。ちなみにFULLERでは、2013年に日本交通とコラボアプリ「タクシーおじさん料金検索!」も提供している。そういった交流が今回の調達に結びついているようだ。

新事業に関しては、世界で利用されるスマートフォンアプリのほか、「IoT関連を検討している」とのこと。冒頭でふれたとおり、FULLERには高専出身者も多く、これまでにもハードウェア関連のプロダクトを試験的に制作している。3年前には「Kinectで動くミニ四駆」なんかを制作してイベントで展示するといったこともしていた。


Twitter、ツイートの反響をその場で見られる機能を実験中


自分のツイートが、実際どれだけの人に読まれているかを知りたいと思わないだろうか? 元Twitterプラットフォーム責任者のRyan Saverが発見したTwitterの新しい実験では、あなたのツイートのリンクを何人がクリックしたかを、iOSアプリで簡単に見ることができる。例によって、これは限定された少数のTwitterユーザーにしか提供されていない機能だが、成功すれば広く公開されるかもしれない。

新機能が有効になっているユーザーには、ツイート表示の下に「アナリティクスの詳細を表示」リンクが表示され、そのツイートの反応データを見ることができる。総インプレッション数のほか、あなたがシェアしたリンクをクリックした人数や、何人がツイートを展開表示したかを示す「エンゲージメント」もわかる。

ツイートの反響を簡単に見られる機能は、ソーシャルメディアでの成功を糧にしてるブランド等にとって非常に有効だろう ― しかし、Twitterが一般ユーザーに見せたい以上のものが暴露されるかもしれない懸念もある。もっとも、この機能は目につきにくいので、興味のない人は気付かないか使わないだけかもしれない。

アナリティクス情報を別のダッシュボードを使わずその場で見られることは、実際驚くほど便利だが、いつものように、こうしたテストは必ずしも一般公開に結び付くわけではないので、まだテスト対象に入っていない人は、期待しすぎないように。

[原文へ]

(翻訳:Nob Takahashi / facebook


コードを1行も書けない総務のおじさんでもGUIから高度なアクセス分析ができるTrialfire

トロントのTrialfireが今日(米国時間10/30)ローンチしたサービスを企業が利用すると、自社のアプリケーションやWebサイトへのアクセスの様相を知ること、いわゆるアクセス分析を、JavaScriptなどでコードを書けないふつうの人が、分かりやすくて使いやすいGUIから実行できる。何人のユーザがどこをクリックしたか、どんなサイトナビゲーションをしたか、どの入力欄に何を書いたか、などなどが、コードを一行も書かずに分かるのだ。協同ファウンダのMichael Liebermanは、それがこのサービスの最大の売りだ、と言っている。

Trialfireは実際のアクセス分析をGoogle AnalyticsやMixpanelやIntercomなどのサービスにやらせる。ユーザは自分のサイトをTrialfire経由で開き、そのときに調べたいアクションを指定する。サイトのビジターには、Trialfireが仕事をしていることが分からない。でも彼/彼女が何かのアクションをすると、それがTrialfireからGoogle Analyticsなどへ送られる。

同社はLiebermanの前のスタートアップDatastayを支援した投資家から、若干のシード資金を獲得している。DatastayはAutodeskが2011年に買収した。

“前のときは協同ファウンダのMikeがいつも、‘Webサイトに何かを統合することを代わりにやってくれるサービスがほしい’、といつも言っていた。以前仕事をしていた大企業では、プロマネが7名、マーケティング担当が5名もいて、全員が同じことを求めた”、とTrialfireの協同ファウンダMax Kremerは語る。

LiebermanとKremerはDatastayを買収したAutodeskに2年いて、そのときにマーケティングや営業が抱える問題がよくわかった。“マーケティングは仕事に使える製品を求めるが、デベロッパたちは余計なことに凝りたがる”、とLiebermanは言う。

Segment.ioも統合化により、集めたデータをサードパーティのサービスに送っているが、それはTrialfireのような、ユーザがコードをまったく書かないやり方ではない。 一方、Heap AnalyticsとHubloは、コードを書かないビジュアルなアクセス分析を提供している。

Liebermanは曰く、“Autodeskを辞めたときは、いろんなアイデアを検討していた。その中でいちばんやる気をそそられたのが、これだ。Autodeskは、やりたいことを何でもやらせてくれる、すてきな会社だったが、われわれが作りたかったTrialfireは、あまりAutodeskにふさわしいプロジェクトではなかった”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


社員たちの仕事のやり方を可視化するVoloMetrixがシリーズBで$12Mを調達

シアトルのVoloMetrixが今日(米国時間10/13)、Split Rock Partnersが率い、既存の投資家Shasta Venturesが参加したシリーズBのラウンドで1200万ドルを調達した、と発表した。これでVoloMetrixの総資金額は1700万ドルになる。

このサービスを企業が利用すると、社員たちの時間の使い方が分かる。2011年にローンチしたこのサービスは、たとえば営業が顧客とどんな時間の過ごし方をしているか、また社内の別のチームの協働の状況はどうか、などを企業のトップや管理職、あるいは現場の社員自身に教える。データはすべて会社のコミュニケーションシステムから収集され、そして無名化される。

このサービスは会社の稼働状況に関する深い洞察を与えるが、社員個人を特定しない。むしろその考え方は、メールとかカレンダーのイベントなどから集めたデータをもとに、会社が日々の操業をより効率化することにある。顧客企業にはFortune 100企業も多くて、GenentechやSeagate、Symantecなどの有名企業も同サービスを利用している。

VoloMetrixのCEO Ryan Fullerによると、資金調達の主な目的は、需要に応えるための社員増、来年は今の三倍に増やしたい、という。“うちのプロダクトを使っている企業は、営業の活動や彼らと顧客との関係が深く理解できるようになったので営業の生産性を上げることができた、というところが少なくない。また、企業内の仕事のやり方や会議の実質的費用や、社内にはびこる官僚主義が、手に取るように分かるようになった、という声も多い”、とFullerは語る。

同社は上記のような、営業の生産性アップと社内業務の効率化、すなわち無駄な費用をなくすこと、この二点に集中した製品開発に今後は力を入れていく予定だ。そのために収集するデータのデータソースを増やし、とくにコラボレーションまわりのデータを集めたい、という。“今回の投資は、企業に、組織内の仕事の行われ方に関する他に類のない詳細な可視性を与えるという、弊社のビジョンが広く認められた証である”、と今日の発表声明の中でFullerは言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


ビッグデータ分析には直感とサイエンスの双方が必要

編集部: この記事はSteven Hillionの寄稿。HillionはAlpine Data Labsの共同ファウンダーであり、同社のエンタープライズ向けビッグデータ分析プラットフォームの開発責任者である。Alpineを起業する以前は、Siebel 、Greenplumなどでエンジニアのチーム責任者を務めていた。

現在、データは今までにない規模とスピードで動いている。これを分析にするにはきわめて高度なハード、ソフトを必要とする。ではビッグデータ分析が登場してからは昔ながらの「直感」は無用となったのだろうか? データは「進め」と言っているのに経営者の直感は「待て」だったときにはどうすればいいのだろう?

私のような人間―数学とテクノロジーの専門家―がこういうと意外に聞こえるかもしれないが、私はビジネスマネージャーはデータに加えて直感を重視しなければならないと強く信じている。

一部の人々は所与のデータ・セットから適切なモデルを組み立てるには数学とマシンパワーさえあれば十分だというように考えがちだ。しかしデータの機械処理だけでビジネス上の適切な意思決定ができるなどというのは愚かしい考えだ。データ・サイエンスでは分析と直感は車の両輪であり、互いに他を必要としている。

そもそも直感は分析を方向づける。分析の結果は何もないところからいきなり現れるわけではない。まず観察に基づいた何らかの直感があり、そこから構築された仮説を検証するためにコンピュータによる数値処理が行われる。またデータ・サイエンティストがどんな数値処理の手法を用いるかについても直感が導きとなる。どのデータが本質的に重要なのか? どの変数が、どの過程が意味があるのか? どれが原因でどれが結果らしく思えるか? どのモデルがいちばん適切か? こうしたことはすべて直感が関係してくる。

次に分析が直感に根拠を与える。 教師なし(unsupervised)モデリングは、一見しただけでは不明な関連やパターンを巨大なデータ・セットから探し出すことができる。分析は単なる観察では発見が不可能であり、時には直感に反するような方向を探索するきっかけを与える。ビジネス運営者の経験に基づく直感とデータ・サイエンティストの分析が適切に補いあわなければ必ず問題が発生する。

いくつか私が経験した例を紹介しよう。

あるチームは銀行の一般個人顧客について、口座を閉じそうな顧客を事前に予測するモデルを作ろうとしていた。しかし生成されたデータからはそれらしいパターンが発見できそうになかった。預金、ローン、クレジットカード、すべての分野を通じて顧客が解約する兆候らしきものは見つからなかった。顧客の預金引き出しやクレジットカードによる消費のパターンに特に変化はみられないのに、突然に解約が行われる。

しかし銀行チームが顧客のセグメントごとにさらにデータを詳しく検討していくうちに、あるアナリストの直感が貴重な発見をもたらした。彼女はある顧客セグメントに注目した。このセグメントは平均より飛びぬけて多額のローンを組んでおり、契約期間も長いなど、いくつの特異な属性を示しており、全体として顧客価値が極め高かった。 アナリストはこのセグメントの顧客はスモールビジネスのオーナーではないかと思いついた。そして個別の顧客情報を確認するとそのとおりだった。

アナリストは「これらのオーナーたちは一般個人向けのローンやクレジットカードよりも有利なスモールビジネス向け融資の仕組みがあることを知らないのではないか?」と考えた。そこでこうした高価値顧客を発見し、適切な金融商品を売り込むことにプロジェクトの目標が急遽、変更された。チームは.さらにデータ分析を続け、特定のセグメントの顧客に特化したセールスを行った場合の効果を検証した。その結果、セグメントごとにカスタマイズした金融商品の売り込みは効果があることが明らかになった。

データにいかに数値処理を加えてもこの結果―あるセグメントの顧客はスモールビジネスのオーナーである―は出て来なかったに違いない。ビジネスの経験に基づくこうした直感とデータ処理が統合されるときわめて価値ある結果がもたらされる。

こうした例でも明らかなように、ビジネス経験に基づく直感はデータ分析の決定的に重要な部分だ。にも関わらず、データ分析でビジネス側の経験者がプロセスから排除され、最後に結論だけを知らされるという例があまりにも多い。ビジネス・サイドの知識を持つメンバーをプロセスの当初から招き入れることが絶対に必要だ。私は、チームのプロセスをこうした線に沿って改革し、生データをレビューするもっとも早い段階からすべてのメンバーが参加するようにした。

われわれが経験したもう一つの例では、クライアントは巨大飲料会社だった。日本におけるセールスを予測するというのが彼らの依頼だった。われわれは経済動向と価格を変数として来年の売れ行きを予測するモデルを作った。クライアントは「売れ行きは景気に正比例するはずだ」とわれわれに告げた。日本の景気が徐々に回復すればそれに比例してソフトドリンクの売上も伸びるというわけだ。

クライアントはモデル中の景気の変数として日経平均を用いるよう要請してきた。このモデルは当初は適切な予測をするように見えた。しかし翌年入って時間が経つに連れてモデルは馬鹿げた予測を出し始めた。これは日経平均が当初予想した範囲の上限を超えて上昇したため、モデルが破綻したのだとわかった。もっと優秀なモデル設計者だったら、そもそも日経平均を変数に組み入れるような危険なことはしなかっただろう。

直感が重要な場合も多い。同時にデータサイエンスではモデリングの限界を知る慎重さが必要だ。われわれは清涼飲料水の売上予測モデルから日経平均を外した。するとモデルはうまく作動するようになり、翌年のマーケティング戦略の立案に重要な役割を果たすことができた。

データサイエンティスト側とビジネス実務側の間にはとかく緊張が生まれやすい。データ分析の結果が直感に反するように思える場合―たとえば派手なマーケティング・キャンペーンの効果がゼロに近いなどという結果が出たときには特にそうだ。われわれデータサイエンティストは往々にしてテーブルの向こうに座ったクライアントのマーケテティング担当者から「いったい全体、そんあ数字はどこから出て来たんだ?」と詰問される。

しかし私はこうしたやりとりは非常に重要だと考えている。数学と科学的分析はビジネス側の疑問に正しく答えることができなくてはならない。あるときはデータ分析の結果が直感が間違っていることを明らかにする。しかしあるときはデータ分析の欠陥を直感が明らかにすることがある。こうして直感と分析があい補っていくのが理想だ。

カット画像:Shutterstock USER Stocksnapper (IMAGE HAS BEEN MODIFIED)

[原文へ]

(翻訳:滑川海彦@Facebook Google+


私のツイートを読んだ人数は? Twitterがアナリティクス・ダッシュボードを公開(日本語も)

7月にTwitterは素晴らしい機能をローンチした。非常によく出来たアナリティクス・ダッシュボードだ。Google AnalyticsのTwitter版ということろで、ツイートごとに何人が読んだか、何人がリンクをクリックしたかなどユーザーのパフォーマンスが細大漏らさず分かる。

ただし、ひとつ問題があった。広告主か著名人等の認証ユーザーしか利用できなかったのだ。

しかし喜べ! 読者の皆さんもこのアナリティクスを利用して一喜一憂ができるようになった。万歳!

このニュースはTwitterのエンジニアIan Chanのツイートとして発表された。

https://twitter.com/chanian/status/504712774321074176

またこちらのiTwitterのサポートページでも説明されている。それによれば「開設後14日以上経過したアカウントであれば、英語、フランス語、日本語、スペイン語のすべてのアカウントからでも利用できる」ということだ。

新しいダッシュボードを見るにはこのページを開くだけでよい。〔日本語の場合、「ツイートアクティビティ」というページとなり、過去28日間のアクティビティが表示される。〕

[原文へ]

(翻訳:滑川海


CitusDBがPostgreSQL用の列取り出しツールをオープンソースで提供開始, 複雑なクェリの効率をアップ

[筆者: Ron Miller]

Oracleなどの大型旧勢力に対抗するデータベース分析サービスのCitusDBが、PostgreSQL用の初の列保存(columnar store)エクステンションCSTOREをリリースした。今日(米国時間4/3)から、無料でダウンロードできる。

“データをバッチでロードするときは、列保存が分析作業を大いに助ける”、と同社のブログ記事が言っている。つまり、このツールを使うとデータベースの利用パフォーマンスが上がる。CitusDBによると、クェリの効率は2倍アップ、データリードに要する時間は従来の1/10になる。同社のCEO Umur Cubukcuによると、分析クェリは高度な最適化によってさらに効率がアップし、また圧縮率も上がるためにストレージの費用も削減される。

“列保存は標準のPostgreSQLユーザは単一ノードで利用でき、またCitusDBの顧客はペタバイトのオーダーにスケールアウトしたPostgreSQLでも可利用である”、とCubukcuは説明する。CitusDBのプロダクトは後者が対象だが、ユーザはそれぞれ、自分の規模に合わせてこの新しいツールを利用できる。

Cubukcuによると、このツールは二つのアドバンテージを提供する。ひとつは、同じデータベースを利用目的によって、行ベースでも列ベースでも扱える。第二は、PostgreSQLの信頼性の高いエンタプライズ機能とHadoopのスケーラビリティを融合させるCitus Dataの方式を、最大限に有効利用できる。したがって全世界のビッグデータ分析を行う顧客に、シンプルで強力なデータベースを提供できる。〔社名はCitus Data、プロダクト名がCitusDB。〕

CitusDBは今年の2月の終わりに、そのコアプロダクトのバージョン3.0をリリースした。

同社はY Combinatorの2011年の卒業生で、2012年6月にそのプロダクトのバージョン1.0をリリースした。Alex Williamsは2013年2月の本誌記事で、次のように述べている: “CitusDBはGoogleのリアルタイムデータベース分析クェリシステムDremelを使用している。データベースに対するリアルタイムの対話的分析能力では、Hadoopの分析機能より優れている。その違いの主因は、並列コンピューティングの有効利用とSQL的な機能性にある。数千台のサーバ上に分散している数ペタバイトものデータに対するクェリとその結果の受領を、リアルタイムで行える”

CitusDBはこれまで、Data Collective、Bullpen Capital、SV Angel、Trinity Ventures、そして業界の指導的立場にあるエンジェルたちから165万ドルを調達している。顧客は、広告技術、eコマース、リテイル、セキュリティ、モバイルのアクセス分析など、多様な業種にわたっている。

この新しいツールは今日からGitHubで入手できるが、同社はコミュニティによる今後の改良や新機能の付加を期待している。

画像: Flickr/tec_estromberg; CC BY 2.0のライセンスによる license

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google+、プロフィールページに総コンテンツ閲覧回数を表示

Googleは今日(米国時間3/31)、Google+ に小さいけれども興味深いアップデートを行った。全員のプロフィールページに、そのユーザーのコンテンツを他のユーザーが見た合計回数が表示される。この新しい数値は、ユーザーのプロフィール、投稿および写真が見られた回数の、2012年10月以来の総数だ。

ちなみに、Googleがこの種の統計データに注目したのはこれが初めてではない。以前Googleは、ユーザーが同サービスでシェアした写真の総閲覧回数を表示したことがある。今回は、ユーザーによる投稿の閲覧回数はわからないが、プロフィールページに表示される総閲覧回数には勘定されている。

この数字を見せたくない人は、プロフィール設定で隠すことができる。

おそらくGoogleは、自分の投稿を見られた回数の多さに多くの人が驚くことを期待しているのだろう。同じことは同社がGoogle+に招き入れてきたブランドや多くの有名人についても言えるだろう。

全体的にGoogleは、ごくわずかの分析データしかユーザーに提供していない。最近同社は、Google Analyticsの情報をGoogle+のダッシュボードから見られる機能をページ管理者向のみに追加したが、そこにある全体統計はフォロワー数だけだ。今日のアップデートは、将来GoogleがAnalyticsの中にGoogle+のデータを含める予兆かもしれない。

[原文へ]

(翻訳:Nob Takahashi / facebook


モバイルデータ利用トップ15ヵ国中、12ヵ国をAndroidが支配(Mixpanel調べ)

データ分析会社、Mixpanelの第1回年間グローバルモバイルデータ報告によると、モバイル利用トップ15ヵ国におけるアプリデータの大半が、Androidプラットフォームから生まれたものだった。同15ヵ国で生成されたモバイルデータの64%がAndroidデバイスによるものであり、15ヵ国中3ヵ国のみでiOS利用者が優勢だった。

データ生成国の上位はスペイン語を話す国々であり、スペイン語を母国語とする国々ではさらにAndroidが強く、 全アプリ生成データの74%を占めた。フランス、日本、およびオランダの3ヵ国のみでiOSが明確に多数を占め、タイでは両OSがほぼ均衡している。

もちろんアプリデータの利用量は、プラットフォームやアプリの親密度を測る唯一の尺度ではないが、ユーザーがスマートフォンでそのソフトウェアを立ち上げ、ウェブを利用していることを示す指標にはなる。モバイル端末に関するこのデータには、他にも注目すべき点がいくつかある。例えばモバイルアプリ市場では、スペイン語にローカライズされたタイトルが、利用量に関して大きな牽引力を持つ可能性を持っている。

アプリの集客力を測るもう一つの指標で、よりデベロッパーの気持に近いと考えられるのがモバイル売上だ。Distimoによると、アジアにおけるモバイル売上は、162%という大幅増を記録しており、その成長の大部分がAndroidによる。ただし、スペイン語圏の国々は、Distimoのアプリ売上トップ10ヵ国には未だ入っていない。つまりAndroidは、新興市場において利用量は急増しているが、これらの地域をターゲットにするデベロッパーにとって、必ずしも大きな売上には結びついていない。

[原文へ]

(翻訳:Nob Takahashi / facebook


間もなく開幕のGoogle I/O。会場では数百台のArduinoを使って騒音レベルや空気汚染度などの環境データを測定予定

間もなくGoogle I/Oが開幕となる。参加するのであれば、自動的にGoogle Cloud Platform Developer Relationsチームによる実験に参加することにもなる。Google I/Oの開催されるMoscone Center周辺の環境情報を種々吸い上げてみようとするプランがあるようなのだ。

Developer Programs EngineerのMichael Manoochehriによるブログ記事によると、Arduinoを使った環境情報取得センサーをあちこちに配置する予定なのだとのこと。そしてリアルタイムで温度、騒音、湿度、空気汚染度などの情報を取得するのだそうだ。そもそもの目的は、カンファレンス会場のどこが最も人気のエリアとなっているのかなどを知るためのものだ。得られたデータをGoogleがどのように分析するのかはなかなか楽しみだ。

気味が悪いと感じる人もいるかもしれない。しかしこれは施設内の温度に応じて空調の調整を行うのとさほど変わらない意味しかない。将来、屋内でのエンタテインメントやビジネスについて役立つ情報を集めるための準備をしておくという、いかにもGoogleらしいプロダクトのひとつだと言える。

各種情報収集センサーをネットワーク化することにより、ロジスティクス、都市設計、その他コンシューマープロダクトの開発などに革命をもたらす可能性もあるのです。今回のデータ収集の成果は、Data Sensing LabでGoogle I/O出席者の皆さんと共有していこうと思っています。Google Cloud Platformと、オープンなハードウェアを組み合わせることで、誰にでも利用可能で有効なコンピューティング環境が構築できることを示したいと考えているのです。

オープンハードウェアとGoogleのCloud Platformを使ってデータが収集できるというのはわかった。しかし具体的にはどのような形でビジネスに役立つのだろう。たとえばどの洋服店では来客数や商品を見て回った人のカウントができるようになりそうだ。また、店舗内のどこに人が集まるのかも測定できる。店内のディスプレイの状況により、どういう動きが生まれるのかを確認するのに使えるかもしれない。言ってみればリアル世界での広告トラッキングシステムのような使い方ができるかもしれないわけだ。あくまでも将来的な可能性ではあるが、いろいろと面白いアイデアが生まれてきそうだ。

ちなみに、こういう環境データ的なものは、個別に見ていてはほとんど意味を持たず、全体を把握してこそ判断の役に立つものとなってくる。

騒音のレベルを測定する機器もあれば、また付近での足音数をカウントするものもあります。こうしたデータを総合して、測定場所での動向を把握したいと考えているのです。

こうした情報が個人情報とタグ付けされることはない。足音や、他の日常的な振る舞いを統合してデータとして活用するというアイデアは、多少の気味悪さはあるものの、確かに面白さは感じる。

もしこうして収集したデータを、簡単かつわかりやすい形でデータ提供を行えるとなると、多くのビジネスがセンサー導入に積極的になるだろう。そうした際に必要とされるのは安価に提供されるプラットフォームであり、そのプラットフォーム上にデータが集約されていくことになる。Googleはもちろんプラットフォーム提供者としての成功を目指していくことになるわけだ。

データの収集を行いつつ、Data Sensing Labと名付けたワークショップも開催されることとなっている。周囲の環境データを読み込んでどのような解析を行なっているのかに興味があれば、ぜひ参加してみると良いだろう。また、会場内に設置するモニターでも、収集したデータをリアルタイムで表示することになっている。

Googleに追尾されつつ、Google I/Oの様子はいろいろと伝えて行きたいと思っている。

原文へ

(翻訳:Maeda, H)


アメリカのモバイル・アプリ経済は活力旺盛、モバイル・ブラウザはFacebookアプリに押されて苦戦(Flurry調べ)

モバイル・アプリのアナリティクスを提供するFlurryは毎月10億台以上のスマート・モバイル・デバイスの利用状況を調査している。最近Flurryはアメリカの消費者がモバイル・アプリとモバイル・ブラウザをどのように使い分けているかレポートした。それによると、iOSとAndroidのアプリは元気一杯のようだ。消費者のスマートフォン、タブレットの利用時間は1日あたり平均2時間38分だが、その80%の時間はアプリを利用している。モバイル・ブラウザの利用は5分の1(20%、31分)しかない。

アプリのカテゴリーでみると、やはりゲームが大きな割合(32%)を占めている。次に大きいのがFacebookで毎日の利用時間の18%を占めている。さらに他のソーシャルメディアのアプリの6%を加えると、ソーシャル関係の利用時間はほぼ全体の4分の1となる。

しかしFlurryの調査によれば、Facebookアプリの利用時間を長くしているのはソーシャルな活動だけではないという。Flurry CEO、Simon Khalafは「ユーザーはおそらくFacebookアプリ内で他のウェブコンテンツを相当時間見ているに違いない。いわばザッカーバーグは壁に囲まれた庭を作ることに成功している。Facebookは消費者がもっとも長時間利用するウェブ・ブラウザになっているのは間違いない。消費者が全体として毎日39分近くの時間をFacebookアプリ内で過ごすというのはFacebookにとって非常に有利な状況だ」」と述べた。

Facebookは消費者がもっとも長時間利用するウェブ・ブラウザになっている

KhalafはFlurryのブログ記事にこう書いている。

モバイル・アプリが登場してから5年になるが、このエコシステムは大いに繁栄している。成長が鈍化するきざしに目を光らせているが、今のところその兆候はまったく見られない。これはスマートフォンに続いてタブレットも急速に普及したいるためだだ。タブレットとスマートフォンはデスクトップ、ノート両方のパソコンを侵食している。Facebokを始めとするアプリが消費者のモバイル滞在時間の大部分を奪っている。

ブラウザではiOSのSafari(12%)の利用時間がトップだ。Flurryのデータを見ると、iPhoneとiPadのユーザーはAndroidのユーザーよりブラウザを利用する率が少し高い。あるいはAndroidのユーザーがiOSユーザーよりも熱心なFacebookユーザーなのかもしれない。Safariの優位はiPadの普及のせいかもしれない。タブレットの大きな画面ではブラウザの利用が快適になる。しかしAndroidのタブレットは(少なくともまだ)iPadのシェアに及ばない。

これ以外の分野については、エンタテインメント・アプリとユーティリティー・アプリがそれぞれ 8%ずつを占めているという。生産性アプリ、ニュース・アプリはそれぞれわずか2%しか占めていない。またiOSとAndroid以外のモバイル・プラットフォームの支持者が言うような「消費者はアプリに飽きている」という証拠はまったく見出されなかった。ここ3年間の世界のモバイル・アプリの1日あたり平均リリース数は次のとおりだ。2010年誌第4四半期は7.2、2011年第4四半期は7.5、2012年第4四半期は7.9。

「このようにアプリのリリース数が着実に増加していることはまだまだアプリ史上が飽和していないことを示すものだろう。消費者はますます多くのアプリを利用するようになっている」とKhalafは書いている。 ただしアプリの大部分は書籍、テレビ番組、ゲームのように寿命が短い。いずれにせよ「2010に比べて2012年の方がアプリの利用が減っている」という主張には根拠がないようだ。

2010年誌第4四半期から2012年第4四半期にかけて、ユーザーが新アプリを利用する率がほとんど2倍になっていることも発見された(下のグラフ)。これは220万台のデバイスについて2年以上にわたって行われた調査の結果だ。消費者がますます多くの新しいアプリをインストールしているという傾向はデベロッパーにとって朗報だ。

「消費者がこれほど多数の新しいアプリを利用しているということはアプリ市場はまだ成長期にあり、今後イノベーション、ブレークスルーをもたらす新しいアプリの登場が期待できることを意味する」とKhalafは結論している。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


複数(20あまり)のアクセス分析サービスのAPIを簡単に呼び出せるSegment.io

segmentio-logo

Segment.ioは、Y Combinatorが育てたアクセス分析系のスタートアップだ。その売りは、デベロッパが複数のアクセス分析サービスのAPIを自分のアプリケーションに統合できること。今サポートしているのは、20のアクセス分析プロバイダで、その中にはもちろんGoogle Analytics、KISSmetrics、Mixpanel、Chartbeatなどの有名どころもある。またHubSpotやSalesforceのような、アクセス分析専業というより、企業向けの経営〜マーケティングサービスも含まれる。

クライアントサイドとサーバサイド両方の分析をサポートするが、近くモバイルにも対応する予定だ。

ファウンダPeter Reinhardt、Ilya Volodarsky、Calvin French-Owenの三名はMITのルームメイト、四人目のIan Storm Taylorandはロードアイランドのデザイン学校出身だ。四人とも大学〜学校をドロップアウトしてY Combinatorの2011年夏の育成事業に参加した。最初はGoogle AnalyticsやKISSmetricsに対抗するプロダクトを作るつもりだったが、自分たちのプロダクトに乗り換えてくれる人はそう簡単にいない。しかし彼らが作っていた、分析サービスとAPI呼び出しを合わせたようなライブラリAnalytics.jsは好評だったので、それをオープンソース化してGitHubに載せた。

“そのオープンソースバージョンは、坂を転がり落ちる雪だるまのように勝手に成長していった”、とReinhardtは回顧する。“そこで、われわれも悟った。デベロッパたちが欲しているのは、ビューティフルでシンプルな分析APIなんだ、と”。方向転換は12月に行われた。そのときオープンソースバージョンのユーザは1800名いたが、それはそのまま引き継いだ。そして12月からは、有料バージョンの開発を開始した。今日(米国時間1/25)現在では数千の登録会員がおり、300あまりの現在進行中のプロジェクトが、このサービスを利用している。

難しいのは、アクセス分析に関してはAPIに標準性がなくて、各社ばらばらであることだ。リンク連鎖追跡が得意なのがあれば、カスタムイベントの追跡が得意なのや、メールのターゲティング専門みたいのもある。“デベロッパは、これらのAPIを全部ながめ渡して、自分の目的にどれとどれを使えるか判断しなければならない。それは彼らにとって未知の世界だから、悪夢のような作業になる”、とReinhardtは言う。

そこでSegment.ioでは、単一のシンプルなAPIがすべてのアクセス分析プロバイダをカバーするようにしている。APIの加除も簡単にできるので、デベロッパの時間を大いに節約する。Reinhardtによると、Segment.ioを使えば、自分のアプリケーションにアクセス分析の部分を盛り込む作業が2時間以内で終わる。SalesforceやMarketoのようなエンタプライズサービスのAPIによる統合は、もっと大きな時間の節約量になる。“連中のAPIを直接使おうとしたら、それは黴の生えたようなSOAP XMLだからね。今のデベロッパはRESTしか使わないのに”。Segment.ioのユーザの中には、以前は統合に数か月を要したが、今では数時間で済む、という人たちもいる。

Segmentio-example

火曜日(米国時間1/22)に同社は、これまでのブラウザ直接のJavaScriptライブラリに加えて、RubyやNode.js、Python、Java、それに.NETから呼び出せるライブラリをローンチした。今は、ユーザからのリクエストの多いPHP用を制作中だ。また、サポートするアクセス分析プロバイダも、週に2〜3ずつ増やしていく。来週は、Pardotが加わる。

同社からホストされるクライアントサイドのライブラリ(主にAnalytics.js)は無料だが、サーバサイドのライブラリは有料だ。最低料金の月額30ドルではサーバサイドのAPI呼び出し100万回まで、150ドルでは1000万回までだ。HubSpot、Marketo、Omniture、Salesforceなどエンタプライズ向けの統合は150ドルの方の有料サービスに含まれる。なお、メールのサポートは30ドルでも150ドルでもどちらにもある

integrations_small

Segment.ioが提供する価値は、開発時間の節約だ。しかしもっと広い意味では、アプリケーションがよりデータ駆動型になるというメリットがある。Reinhardtはそう主張するが、それは、シンプルなAPIをちょっと使っていろんなアクセス分析を呼び出すだけで実現するのだ。“これまでは、デベロッパが自分のアプリケーションの中で複数のアクセス分析の結果を利用しようとすると、たいへんな作業になった。たいへんすぎて、やらないデベロッパも多かった。でも、これからは違う”、とReinhardtは自負を述べる。

Analytics.jsのユーザ登録はここで。

Segment.ioは、NEA、General Catalyst、およびそのほかのエンジェル投資家たちから計60万ドルのシード資金を調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))