Disrupt 2020でSaaSの未来を紐解く

製品の提供方法により、SaaS(サービスとしてのソフトウェア)企業と呼ばれることが多い最新型のソフトウェア企業にとって、今年は慌ただしい年となっている。力強いスタートを切ったものの、世界的なパンデミックに直面して急速な価値の低下に見舞われたが、ソフトウェアは消費不況による打撃を受けないカテゴリであることがはっきりしてからは元の状態に回復している。

実際、SaaSやその他のクラウド企業は、価値が上昇して株価が上がり、2020年に企業価値の高値を更新している。このような泡のようなにわか景気は、より大きなグローバルエコノミーの新たな部分にソフトウェアを取り入れようとする大きな努力を一層活気づける。

つまるところ、公開SaaS企業がこれまでにない高い価値になるということは、スタートアップ自身は元々それより価値があるため、「世界を飲み込むソフトウェア」を単なるキャッチフレーズから現実のものにしたいと考えている若い企業にさらに多くの資本がつぎ込まれることを意味する。

TechCrunchでは、今年のSaaS市場について徹底的に調べようと、9月14日~18日に開催されるDisruptに有名な投資家の面々をお招きしている。Canaan PartnersのMaha Ibrahim(マハ・イブラヒム)氏、Andreessen HorowitzのDavid Ulevitch(デビッド・ウルヴィッチ)氏、Bessemer Venture PartnersのMary D’Onofrio(マリー・ドノフリオ)氏から変化する世界について詳しい説明が聞けるはずだ(お気づきの方もおられると思うが、ドノフリオ氏は SaaSの専門家としてExtra Crunchに定期的に登場している)。

COVID-19時代の成長の加速が2020年の資本調達にとってどれくらい重要なのか、このような新しい世界で投資家たちを最も引き付ける指標は何か、SaaSが導入されつつある新しい分野で期待できるものは何かなどについてぜひ聞きたい。参加する投資家の中には危険を感じている人がいるかもしれないし、SaaS市場はいくらか過大評価されすぎているかもしれない。

SaaSは、スタートアップの大半にとって事実上、ビジネスモデルのようになっている。SaaS自体では企業相手の新規参入者が中心となり、利用できるベンチャーキャピタルの大きな取り分を得つつある。この理由やこれが様々な成長段階にあるスタートアップにどのように影響しているのか掘り下げるつもりだ。

Disruptのパスをすぐに手に入れてこのセッションやその他のセッションもぜひチェックしてほしい。登録後はCrunchMatchプラットフォームにもアクセスできるため、TechCrunch コミュニティをすぐに利用できる。パスの入手はこちらから。

Disrupt 2020特設ページへ

[原文へ]

(翻訳:Dragonfly)

Airbnbが8月中にIPO申請か

The Wall Street Journal(ウォール・ストリート・ジャーナル)によると、Airbnb(エアビーアンドビー)は早ければ2020年月中にも非公開で上場申請する可能性がある。記事によると、Airbnbは申請後年内にIPOを目指しているらしい。Morgan Stanley(モルガン・スタンレー)とGoldman(ゴールドマン・サックス)がIPO手続きを支援すると同紙は報じている。

AirbnbのIPO復活のニュースは、 2019年に2020年の上場を約束した民泊ユニコーンの激動の1年を締めくくることになるかもしれない。同社は新型コロナウイルス(COVID-19)が世界の旅行市場を破壊(未訳記事)し、Airbnbの財政を圧迫する前には、ダイレクトリスティング(直接上場)を考えているといわれていた。

AirbnbはIPO計画についてのコメントを拒んでいる。

旅行者が自宅に留まることになり、同社は大幅な人員削減を余儀なくされ、数十億ドル(数千億円)の資金を用意した。2019年後半における同社の勢いと比べて大きな出費だった。

しかし、一連の打撃の後、Airbnbは同プラットフォームの利用状況か好転し、その結果財務成績も回復してきたことを発信し始めた。

6月にAirbnbは、2020年5月17日から6月6日の期間中に米国でAirbnbの施設が予約された件数は、2019年の同じ時期を上回ったことを発表した(Airbnbリリース)。最近の週末(6月5〜7日)には、2月以来初めて全世界の総取扱金額が前年同時期を超えた。

そして7月、同サービスのユーザーは世界で1日にAirbnb施設を100万泊以上予約した。これは3月3日以来初めてのことだった。

Airbnbがどこまで財務状態を取り戻したのか、正確にはわからない。しかし、同社のレイオフ後の原価基準は、伝統的なIPO基準である収益性のような数値を達成するのに必要な収益基準を下げる可能性がある。近年輝きを失っている数値でもあるが。

しかし地域内の旅行が増え、旅客機の稼働率が徐々に改善し始めた(The New York Times記事)ことは、Airbnbの業績や財政向上を暗示するものではなく、同社は新型コロナ禍でも一定の売上と高い利益率を確保できるように事業を改革すべきだったのかもしれない。

もちろん私はAnbnbのS-1書類を早く見たくてたまらない。新型コロナ禍にユニコーンで何が起きていたのか、非常に興味をそそられる。

Airbnbのほか、DoorDash(未訳記事)、CoinbasePalantirなどが私のIPO候補リストに載っている。

画像クレジット:TOSHIFUMI KITAMURA / Contributor / Getty Images

原文へ
(翻訳:Nob Takahashi / facebook

Airbnbが8月中にIPO申請か

The Wall Street Journal(ウォール・ストリート・ジャーナル)によると、Airbnb(エアビーアンドビー)は早ければ2020年月中にも非公開で上場申請する可能性がある。記事によると、Airbnbは申請後年内にIPOを目指しているらしい。Morgan Stanley(モルガン・スタンレー)とGoldman(ゴールドマン・サックス)がIPO手続きを支援すると同紙は報じている。

AirbnbのIPO復活のニュースは、 2019年に2020年の上場を約束した民泊ユニコーンの激動の1年を締めくくることになるかもしれない。同社は新型コロナウイルス(COVID-19)が世界の旅行市場を破壊(未訳記事)し、Airbnbの財政を圧迫する前には、ダイレクトリスティング(直接上場)を考えているといわれていた。

AirbnbはIPO計画についてのコメントを拒んでいる。

旅行者が自宅に留まることになり、同社は大幅な人員削減を余儀なくされ、数十億ドル(数千億円)の資金を用意した。2019年後半における同社の勢いと比べて大きな出費だった。

しかし、一連の打撃の後、Airbnbは同プラットフォームの利用状況か好転し、その結果財務成績も回復してきたことを発信し始めた。

6月にAirbnbは、2020年5月17日から6月6日の期間中に米国でAirbnbの施設が予約された件数は、2019年の同じ時期を上回ったことを発表した(Airbnbリリース)。最近の週末(6月5〜7日)には、2月以来初めて全世界の総取扱金額が前年同時期を超えた。

そして7月、同サービスのユーザーは世界で1日にAirbnb施設を100万泊以上予約した。これは3月3日以来初めてのことだった。

Airbnbがどこまで財務状態を取り戻したのか、正確にはわからない。しかし、同社のレイオフ後の原価基準は、伝統的なIPO基準である収益性のような数値を達成するのに必要な収益基準を下げる可能性がある。近年輝きを失っている数値でもあるが。

しかし地域内の旅行が増え、旅客機の稼働率が徐々に改善し始めた(The New York Times記事)ことは、Airbnbの業績や財政向上を暗示するものではなく、同社は新型コロナ禍でも一定の売上と高い利益率を確保できるように事業を改革すべきだったのかもしれない。

もちろん私はAnbnbのS-1書類を早く見たくてたまらない。新型コロナ禍にユニコーンで何が起きていたのか、非常に興味をそそられる。

Airbnbのほか、DoorDash(未訳記事)、CoinbasePalantirなどが私のIPO候補リストに載っている。

画像クレジット:TOSHIFUMI KITAMURA / Contributor / Getty Images

原文へ
(翻訳:Nob Takahashi / facebook

CRMからのデータマイニングで営業の効率を高めるImplisitが$3.3Mを調達

営業の人たちがCRMのデータをマイニングして商機の芽を取り出し、同時に商談関連データの手入力も省けるという自己学習システムImplisitが、Gemini Israel Venturesから330万ドルを調達した。

協同ファウンダのGilad Raichshtainによるとこのサービスは、メールやカレンダーにCRM中のコンタクト情報を結びつける。そして見込み客に対する商談に、付加的なステップ…より良いアプローチ、そのほかの情報など…を持ち込む。長く使っているとサービス自身が(自己学習機能により)ビジネスの過程に適応して、その日の商談に合わせた情報を提供できるようになる。

新たなユーザがImplisitの利用を開始すると、サービスは営業履歴のデータ(メールなどの通信の履歴とCRMデータの履歴)を分析し、そのユーザの営業のパターンを把握する。そしてそこから、サービスのエンジンが、そのユーザの商談過程に合ったオーダーメードのインサイト(insights, 知見-情報識別能力)を作り出す。

Implisitはデータを分析する際に、テキストクラスタリング、機械学習、自然言語処理(平文の解析)、データ分類アルゴリズムなど、複数の方法を利用して、商談成功のための鍵を見つけ出す。

Raichshtainが説明してくれた例として、大手のオンライン広告企業がある。同社のCRMデータの扱いはとても後れており、また50名の営業スタッフには商談データを入力する能力と余裕がなく、営業のマネージャたちはいちいち口頭で商談の進捗などを現場営業マンに尋ねていた。しかしImplisitを使い始めて数時間後には、CRMに記録される営業活動件数が従来の4倍に増えた。Implisitは、それまでデータのなかったビジネスコンタクトや商談をCRMに登録した。営業チームは、商談の最新の現状をCRM中に見ることができるようになった。しかも、データ手入力の手間は50%減り、営業マン一人当たりの商談並行抱え数が約20%増えた。

Implisitを創ったRaichshtainとElad Donskyは、イスラエルのテク界隈でもっとも優秀な技術者として知られている。二人とも15歳で大学に入学し、16歳のRaichstainはIntelにスカウトされた。Intelの歴史上、最若のエンジニア、と言われている。二人は、イスラエルの首相官邸で数年間働いた。

今、さまざまな営業分析プラットホームが市場に存在する。その中で一派をなすのが、Hadoopのエコシステムの連中だ。この分散コンピューティング技術を利用してHortonworksなどの企業が顧客管理、メールやソーシャルメディアやブログ記事の分析、CTRなどの情報の生成配布、と言ったサービスを提供している。より直接的な競合相手であるInside Salesは、予測分析技術により営業のプロたちを支援している。そのアルゴリズムによって営業マンは、次にコンタクトすべき見込み客、いつコンタクトするか、どんなメッセージを伝えるべきか、などを前もって知ることができる。

対してImplisitのメインの技(わざ)は、CRMの対話データを人間の手入力なしで
自動的にアップデートすることにある。営業はそのデータを利用して商談の効率を高めたり、今後の見通しを把握したりしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Sonatypeのコンポーネントライフサイクル管理プラットホームがアップデート; オープンソースコンポーネントの安全な利用を促進

ソフトウェアのコンポーネントは、アプリケーション開発の重要な要素だ。今では、アプリケーションの中心的機能はデベロッパ自身が書くよりも既製のコンポーネントを使うことが圧倒的に多く、それらは何千ものソースから提供されている。でもそれは、損壊や改悪の被害に遭うことがある。たとえば昨年の夏には、中国のハッカーがStruts脆弱性を悪用した。StrutsはJavaでWebアプリケーションを作るためのオープンソースのフレームワークだが、長年その開発とメンテナンスを担当してきたApache Foundationは最近、それを手離すと発表した。今後サポートを引き継ぐところが現れなければ、このフレームワークの寿命は尽きたことになる。

こういった問題をなくすために、Sonatypeは同社のコンポーネントライフサイクル管理(CLM)技術をアップデートして、デベロッパが悪質なオープンソースのコンポーネントを使うことを防ごうとしている。粗悪なコンポーネントは、携帯電話にも、車にも、心臓のモニタにも、何にでも使われる可能性があるのだ。Sonatypeの技術は、コンポーネントの品質をソフトウェアのデベロッパに対して保証するために、一連のポリシーの強制過程を自動化する。

Sonatypeを利用すると、ソフトウェアの欠陥がそのソフトウェアの開発ライフサイクルの中で強制的に修復され、Strutsがハックされたときに露呈したような欠陥が、もっと早めに見つかるようになる。

ニューバージョンに導入された新しい機能として、デベロッパに対する通知項目の目録がある。それらは、セキュリティのリスク、古い版を使っている、ライセンスを更新していない、などなどの問題点のリストだ。使っているコンポーネントを、より安全なバージョンにリプレースさせる機能もある。CEOのWayne Jacksonは、とりわけ重要なのは、ソフトウェアに統合されているコンポーネントを同定する能力だ、と言っている(何の何版が使われているか…)。

Sonatypeはまた、著名なセキュリティエキスパートJosh CormanをCTOに迎えた、と発表した。Cormanはこれまで、451 ResearchやAkamai、IBMなどで仕事をしてきた人物だが、Sonatypeでは彼の得意分野である防御的インフラストラクチャや、アプリケーションのセキュリティ、物のインターネット(IoT)における脆弱性潰しなどが役に立つだろう、と言っている。“接続”が普遍的なキーワードとなっている今日の世界では、予防的防御的アプローチがますます重要になる。あらゆるものがあらゆるものと接続されているコンピューティングとネットワーキングの世界では、そういうすべての接続先を管理し制御することは不可能だからだ。しかもITの成長の速度に、セキュリティ技術の進歩が追いついていない。彼は最近(12月)のTEDの講演でも、この点を指摘している:

オープンソースのソフトウェアコンポーネントにも危険が潜んでいる、というと、要らざるFUDをまき散らすことになるだろうか? そんなことはない。むしろそれは、危機が生じてから対応するというこれまでの姿勢を、前もってセキュリティの脆弱性の悪用を予防しておくという、ディフェンシブな姿勢および考え方に、変えていくだろう。

[画像: Shutterstock]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


クラウド上の開発と展開を容易化迅速化するアプリケーションコンテナ技術Dockerが$15Mを調達

【抄訳】

スケールアップからスケールアウトへの移行というトレンドと、プラットホーム中心型を否定するアプリケーション中心型の文化が今、Dockerとその軽量オープンソースの“コンテナ”技術にとって、追い風になっている。アプリケーションコンテナがあることによってデベロッパは、自分のコードを迅速にクラウドへ持ち込むことができるのだ。

追い風の顕著な現れとして今日同社は、Greylock PartnersのリードによりシリーズBで1500万ドルを調達した。Insight Venture Partnersの小額参加のほかに、既存の投資家Benchmark CapitalTrinity Venturesもこの投資ラウンドに参加した。また、個人としては、前回のラウンドにも参加したYahoo!の協同ファウンダJerry Yangも加わった。

Dockerは今回の資金を、Docker環境の可利用性の拡大と、オープンソース技術と対をなす商用サービスの開発、および成長が続いているコミュニティのサポートに充てる予定だ。

その技術がたどった道は、ITが企業のインフラを管理していた初期の時代にVMwareがたどった道と似ている。そのインフラとは当時の最新技術によるデータセンターであり、それを企業のソフトウェアを動かすために最適化する必要があった。そんな課題を抱えたIT管理者たちにとって、ハイパーバイザとサーバ環境の上で複数の仮想マシンを動かせるVMwareは、なくてはならないツールになった。VMwareはその優れた仕事ぶりと、エンドユーザにインパクトを与えない管理手法が賛美され、そしてIT管理者たちは、そのインフラストラクチャを効率的に管理することができた。

初期のVMwareとの類似、およびDockerが今得ている高い評価が、投資家にとって魅力的なのだ、とGreylockのゼネラルパートナーJerry Chenは言う。彼は8月にGreylockに加わったばかりであり、今回の投資はGreylockにおける彼の初めての仕事なのだ。

Chenは今日の電話インタビューで、こう言った: “VMwareからは、摩擦ができるかぎり生じないことの重要性を学んだ。Dockerにも、その素質がある”。

さらにDockerは、スクラッチからのスケールが可能だ。それにより、パブリックなサーバやプライベートなサーバの上で複数のアプリケーションに対応できるようになる、とChenは言う。それに、スケールアウトは数秒で行われ、アプリケーションはどこにでも移動できる。しかも再構成の手間はいっさい不要だ。

Chen曰く、“Dockerは高速アップデート(rapid updates)にうってつけの技術だ”。

Dockerが今直面している課題は、デベロッパやDevOpsの仕事を効率化する機能集合を抱えたその技術を、もっと使いやすいものにすることだ。DockerはDevOpsたちに
代わって、Docker環境を使って継続的にアップデートされるアプリケーションの管理とオーケストレーションに配慮しなければならない。たとえばDockerは、デベロッパが自分のコンテナを保存するためのパブリックなレジストリとプライベートなレジストリの両方を作ってやるべきだ。また企業内でDockerによるコンテナが増えていけば、それらを管理しオーケストレーションするためのツールも必要になる。…こういった使用環境の整備が、これからの課題だ。

そして今、急速に成長中のコミュニティがある。Dockerは今、世界でもっとも急速に成長しているオープンソースプロジェクトの一つだ。GitHubではDockerに9000以上のスターが集まり、フォークの数は1320を超えている。このように、多様化しつつ成長するコミュニティを管理するためには、製品開発に投ずるのと変わらないぐらいの規模の、投資が必要なはずだ。

Red HatがDockerを導入したのも、コミュニティのおかげだ。同社は今Dockerを、同社のPaaS環境OpenShiftに統合しようとしている。Google Compute Engineも、最近Dockerを採用した。eBay、Yandexなど、ほかにも多くの企業が、プロダクション環境でDockerを利用している〔参考記事(1)(2)〕。

【中略】

Dockerと本当に等価なものは存在しない。代替製品は存在するが、しかしLinux上のコンテナとしては、Dockerが圧倒的に広く使われている。いちばん深いところでは、VMwareなどの仮想化技術と市場を争うことになるだろう。でも現状では、それはない。Cloud Foundryには独自のLinuxコンテナがあるが、それに対してDockerは、いかにしてプラットホームとしての充実を図っていけるだろうか。コンテナはパズルの一部だ。それは確かに基盤ではあるが、しかしツールのデベロッパたちはこの機会に乗じて、Dockerのエコシステムに参加しつつDockerと競合する技術を開発するかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Zapierがデベロッパプラットホームを大幅アップデート, 誰もが自由にデータネットワークを構成できる時代へ

複数のアプリケーションを結びつけて仕事を自動化できるプラットホームZapierにはこれまで、統合化できるサードパーティサービスにやや制約があった。それが、今週発表されたデベロッパプラットホームのアップデートにより、変わった。

この変化によって何よりもまず、システムがオープンになり、どんなアプリケーションでもお互いに対話し、データを交換できるようになった。したがって、複数のアプリケーションを使って行う仕事が、ずっと楽になった。そうやってアプリケーション同士を結びつけて使うようになると、凝り固まった融通の効かないオンプレミスのテクノロジを解体できるようになり、データの取り出しや利用がこれまでになく自由に多面的に行えるようになる。

Zapierは、このところ増えてきた、‘きっかけを実際のアクションに変える’サービスの一つだ。Zapierを使うとたとえば、どこかのWebページがアップデートされた、というきっかけを、その通知を得るというアクションに変えられる。ソーシャルネットワークに写真が送られた、というきっかけを、それをDropboxに保存するというアクションに、このサービスを使って変えられる。

これからは、APIを公開しているサービスならなんでもZapierに加えられる。しかも、一つのきっかけ(トリガ, trigger)に複数のアクション、複数のきっかけに一つのアクションを結びつけられる。そこでたとえば企業は、営業、経理など複数の部課からの情報を結びつけてまとめることができるだろう。

Zapierは今、262のサービスを結びつけられる。Gmail、MailChimp、Dropbox、Salesforceなどもその中にある。昨年の夏にデベロッパプラットホームをローンチして以来、新たに141のサービスが加わった。また、デベロッパプラットホームはBackbone.jsを使って作り直したので、より高速になった。

Zapierの協同ファウンダWade Fosterによると、これまでは特定の高度な認証方法を使っているサービス(Google Docs、Twilioなど)しかZapierに加えられなかったが、今回アップデートされたデベロッパプラットホームでは、一般的によく使われている認証方式を使っているサービスなら何でもよい。これにより、Zapierを使えるサービスの数はどっと増えるだろう。デベロッパはもちろんのこと、プログラムを書けない人でも、APIのあるサービスなら何でも加えられるようになる。オンプレミスのCRMやERPシステムでも、公開的に、あるいは社内限定的に、結びつけることができる。

たとえば下の例では、EtsyをZapierのプラットホームに加えている:

ZapierのAPIの前面に座って、サービス同士を結びつける仕事をしているスクリプティングエンジンも公開される。これによりデベロッパは、複数のソースからデータを取り出せる。これまでのAPIでは、二点を結ぶことしかできなかった。しかしこれからは、複数のアプリケーションを呼び出したり、異なるサービスやデータソースから取り出した情報を返せる。

たとえば、請求データと、売り先の顧客の連絡先情報がそれぞれ別のサイロにあっても、一つのAPIから両方にアクセスできるようになる。

これまであまりにも長く、企業のITは迷路のようなデータサイロ群を抱えていた。しかし、BMC SoftwareのCTO Chris Dancyによると、Zapierにより誰もがSAPやOracleのデータを結びつけることができるので、多様な可能性が開ける。それは、SaaSの勃興と、使いやすい各種サービスの誕生によって生まれた“影のIT”のおかげだ。相対的に、従来からの表のITが無能に見えてくる。

Dancyは次のように言う。“映画のInceptionのようなITとは、アシスタントたちや、工場の工員、あちこちの平(ひら)の社員たちがAPIラッパーを使って企業の動的構造を実質的に変えているような情報ワークだ”。彼らのことを、影のITと呼ぶ。

人びとが、そのように、新しい形で結びつけるためには、あちこちに散在している互いに異質な情報を結びつける方法が必要だ。そしてZapierのデベロッパプラットホームは、これまで専門の技術者に頼って、高い費用をかけて行っていた複数のデータソースの結合を、誰もが日常的にできる情報ワークに変える、そういう方法の一つなのだ。

社内各所に、APIによって結ばれたデータのネットワークができて、それに伴って組織の構造も変わる。次のステップは、使いやすさの実現、つまり専門技術者ではない若い女子社員にでも簡単にデータ分析ができるようにデザインされたAPIだ。そうして、誰もが自分独自のリコメンデーションエンジンや、それまでデベロッパにしか作れなかった結合ネットワークを作れるようになる。インセプションITの時代にようこそ!、だ。

(画像提供: Flickrより。)

おことわり: この記事の起源は、Chris Dancyと、Wiredのライターで本誌TechCrunchの寄稿者Klint Finleyとのポッドキャストだ。そこで私たちは、サイボーグとAPIについて、話し合っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google Cloud Platform–Cloud Storage上でHadoopを簡単に使えるためのコネクタを提供開始

かねてからGoogle Cloud StorageはHadoopに対応しており、デベロッパはデータをここに置くことによって、分散コンピューティングによる高度なデータ分析ができる。そして今日(米国時間1/14)Googleは、新たなコネクタをリリースして、Google Cloud Platform上でのHadoopの利用が、より容易にできるようにした。

クラスタやファシステムの管理をそのGoogle Cloud Storage connector for Hadoop(HadoopのためのGoogle Cloud Storageコネクタ)がデベロッパに代わって行うので、デベロッパは物理レベルの面倒な管理業務から解放され、データの処理に専念できる。

Googleが2003年に開発したGoogle File Systemは、今ではHadoopの土台だ。HadoopはApache Software Foundation(通称Apache)が管理するオープンソースの分散コンピューティング環境で、データをサーバのクラスタ上に分割分散して分散処理によるデータ分析を行う。今ではHadoopのまわりに、多様なソフトウェアやサービスから成るエコシステムが形成され、ClouderaやHortonworksなど多くの企業がそれを支えている。

Google Connector for Hadoopは、Googleの最新のクラウドストレージシステムColossusを使用する。また、シンプルなコネクタライブラリを使用して、Hadoopに直接Google Cloud Storageへアクセスさせ、データ処理を行わせる。

Googleは、このコネクタの利点をいくつか挙げている。HadoopのクラスタをGoogle Cloud Storageが一か所で管理するので、デベロッパはHadoopの使用をすぐに開始できる。Google本体のスケーラビリティを利用するので、可利用性がつねに高い。データのコピーを持つ必要がないので経費節約になる…つまり、バックアップ用にコピーを作るなどは、Google Cloud Storage自身が勝手にやってくれる。

今やHadoopは、ビッグデータ分析の分野における主流派だ。先月の記事でも書いたように、Hadoopは、Twitterなど、毎日ペタバイトのオーダーでデータを処理するインターネット企業にとって欠かせない技術だ。また一般企業でも、処理する情報量の爆発的な増大とともに、やはりHadoopを利用せざるをえなくなっている。

しかしHadoopを本格的かつ有効に利用するためには複雑な技術課題が多く、高度な経験知識をもった技術者を何人も必要とする。そこで今回のGoogle Cloud Storage Connector for Hadoop(Hadoop用のGoogle Cloud Storageのコネクタ)のようないわば‘仮想技術者’がいろいろ登場することによって、Hadoopを誰もが気軽に使えるものに、していく必要があるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


API管理サービスのApigeeがビッグデータ分析~将来予測の新進InsightsOneを株取引がらみで買収

今日(米国時間1/1)InsightsOne買収を発表したAPI管理・分析サービスのApigee が、SECへの提出書類で、買収手段には2050万ドルの株式取引も含まれる、と公表した。

今日のそのRegistration Dと呼ばれる提出書類には、買収と関連して2050万ドルの株取引が行われた、と書かれている。Apigeeの声明文では、それは新たな資金調達ラウンドを終了したのではなく、InsightsOneの買収に関連する登録書類だ、と言っている。買収額は記されていないが、両社間の株式取引にはSECへの登録が必要なのだ。

2005年以降Apigeeが調達した資金総額は1億750万ドルであり、これには今回の2050万ドルの株式取得は含まれていない。かつてのSonoa SystemsからApigeeに改名した同社は、API管理サービスを提供するクラウドゲートウェイを開発した。7月に同社は、BlackRock, Inc.やAccentureなどから3500万ドルを調達している。

ビッグデータを分析してその将来傾向を予測するInsightsOneを買収したことによりApigeeは、複数のデータソースの中にパターンを見つける機能をサービスに含めることができる。たとえば保険医療サービスとそのAPIを提供しているApigeeの顧客ユーザは、顧客の不満が生じそうな動向を事前に把握し、対策できるだろう。

一方3年前に創業されたInsightsOneは、2012年にNorWest Venture Partnersと数人のエンジェル投資家から430万ドルを調達している。

Apigeeにとっては、今年が正念場になる。買収されて大金を手にする可能性もあり、あるいはIPOかもしれない。今回ビッグデータ分析企業を買ったのは正解と思えるが、問題はそれを魅力として、今後ユーザが格段に増加するか否かだ。

(画像提供: Flickrより。)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


クリスマスの日の朝アメリカ人は何をしていたか…アクセス分析のデータより

子どもたちが起きる。その直後、彼らからの電話で無理やり起こされた親は、なんと、クリスマスの日の朝、子どもたちのモバイルを数時間使用禁止にする。モバイルとWebのアクセス分析をやっているMixpanelのデータからは、そんな光景も見えてくる。

さあ、今年からはクリスマスもデータドリブンだ。携帯とタブレットのデータをマイニングすれば、それがどんな日だったか詳細に分かる、というわけだ。Mixpanelのデータを見れば、クリスマスプレゼントを開ける時間、休息する時間、そしてまた再びアプリに没入する時間も分かる。

でも、データを調べるという意味では、モバイルデバイスはそのほかの伝統的なメディアと変わらない。マーケターたちは何年も前から、クリスマスの日の人びとの習慣を知っている。いつ、どの局のラジオを聞いたか、テレビを見たか。スマートフォンやタブレットやウェアラブルなどは、最近、そんなメディアの仲間入りをしたのだ。

それでは、Mixpanelが今年のクリスマスについて調べたことを見ていこう。同社はクリスマスの日に、モバイル上のアクションを12億件分析した。それは昨年のクリスマスに比べて66%増だった。全体で、アクティビティの90%がモバイルのアプリの上で生じている(下図)。

東から西まですべてのタイムゾーンで、プレゼントが開けられる時間は午前10時半だ。その時間~時刻には、データトラフィックが一時的に落ち込む(下図)。お昼にスパイクが来て、2時半には全員がデバイスに没入している。

それよりさらに時間が経つと、トラフィックの58%はゲームアプリからだ。ソーシャルネットワークからはわずか11%になる。おそらく、大人たちが朝の身体的被害を日記やメールなどに書いてる間、子どもたちはこっそりゲームをしてるのだ。Mixpanelによると、同社の顧客はソーシャルよりもゲーム市場に多いそうだから、そのためかもしれない。

全データの25%がタブレットからで(下図)、感謝祭のときの15%より上がった。これらは、モバイルデバイスからのアクティビティに占める比率だ。

休日のショッピングは、当然ながらiOSがAndroidより上だ。でもマーケターにとって重要なのは、ショッピング行動の中身だ。たとえばIBMのホリデイベンチマークデータは、タブレット人種の方がスマートフォン人種よりも消費額が大きい、と言っている。オンラインの売上総額の19.4%がタブレットから、スマートフォンは9.3%だ。タブレットでは平均注文額が95ドル61セント、スマートフォンは85ドル11セントだった。

一括してタブレットとかスマートフォンではなく、機種別はどうだろうか。それはMixpanelのデータからは無理だが、keen.ioのAPIを使えばできるだろう。同社の協同ファウンダでプロダクト担当最高役員のRyan Spraetzによると、同社のカスタム分析ではたとえば、iPadユーザだけのアクティビティを知ることもできる。ほかの一般商品のように、ブランド分析ができるのだ。

Spraetzによると、たとえば体温計とモバイルデバイスとでは利用カーブが異なる。そういう相関が分かれば、パパがカウチに座って、まっさらのピカピカのiPadでスポーツのスコアをチェックしている時間帯も分かるのだ。

(画像提供: Flickrより。)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


大手スーパーのTarget、カード情報流出の賠償金額は最大36億ドル

Targetにとってはメリークリスマスどころではないようだ。先週同社は、顧客のクレジットカード情報4000万件が盗まれたことを公表した。その結果、小売業巨人の賠償額は最大36億ドルに上るようだ。

Targetは、データが流失したカード保有者一人につき90ドルの罰金を課される可能性があり、その場合総額は36億ドルに相当する、SuperMoneyのウェブサイトは書いている。

内訳はこうだ。すでにTargetは、あらゆる種類の訴訟に直面する可能性が高く、これに同社システム基盤のセキュリティーを全面的に見直すためのコストが加わる。ただし、それはごく一部にすぎない。去る2006年に、Visa、American Express、JCB、Discover、およびMasterCardは、PCIセキュリティー評議会を設立し、新たなカード情報セキュリティー標準(PCI DSS)を監視している。

このデータセキュリティー標準は、各組織がカード保有者情報を管理する方法を定めている。当然、この標準はカード詐欺を可能性を減らすことが目的だ。Target等の企業は、通常年に1回PCI評議会の審査を受け、正しい運用がなされているかどうかを確認する。PCI評議会としては、自らが承認したシステムが破られたことはないと言いたいところだが、実はそうでもない。評議議会は、企業に違反があった際遡及的に承認を取消すことがある。

いずれにせよ、Targetは極めて厳しい状況にある。彼らは、民事制裁金、クレジットカード会社による取扱中止、会社にとって重大な顧客からの信用を失墜など様々な困難に直面することになる。すでに4州が、集団訴訟に関する質問をTargetに寄せている。同社の大きなターゲット(標的)のロゴが突如として全く新しい意味を持ち始めた。

しかし、本当の損害が明らかになるのは、カード保有者当たりの罰金が累績した時だ。仮に企業が100%PCIに準拠していたとしても、「カード情報の流出は起こり得る。データを盗まれたカード保有者当たりの罰金は50~90ドルに上る」とFocus On PCIのウェブサイトは言っている。T.J. Maxxは、2007年に9000万件のカード情報が盗まれた際、同様の窮地に陥った。 

今回の流出が起きた原因には、数多くの説がある。しかし最悪なのは、これがわれわれ一般人に影響を及ぼしていることだ。ここアメリカでわれわれが使っているクレジットカードには、すべて磁気ストライプが付いている。盗まれたデータはすべてカードから読み込まれたものであり、偽造カードに書き込まれてブラックマーケットに売られる、とセキュリティー専門家のBrian Krebsは指摘し、本誌のJohn Biggsも解説している。

すべての責任をTargetに帰すること簡単だ。しかし昔ながらの磁気ストライプは、詐欺師たちによる偽造を著しく容易にする。ICチップによるデータ暗号化はヨーロッパをはじめ世界各所で何年も前から使われているが、米国は大きく出遅れており、ブラックマーケットのハッカーにとって安住の地となっている。ICチップは万能ではないが、この巨大な混乱の中で最も弱い立場にある消費者を保護することに関しては大いに役に立つ。

(トップ画像:via Flickr)

[原文へ]

(翻訳:Nob Takahashi / facebook


モバイルのセキュリティ攻撃を防ぐだけでなく犯人に逆襲もするZimperiumが$8Mを調達

あなたは今、空港にいる。ポケットからiPhoneを取り出し、空港のWiFiを利用してメールをチェックしようとする。そう、あなたは最初の間違いを犯したのだ。空港のネットワークはセキュリティが良いから、ハッカーの被害に遭うことはない、とあなたはうかつにも想定した。

Sierra Venturesからの800万ドルの資金調達を今日(米国時間12/20)発表したZimperiumは、ユーザを空港などの場所で攻撃から守るための、モバイル技術を作っている。

また同社が作っているITアドミニストレータのためのツールは、ネットワークに登録されているすべてのデバイスをモニタする。そして同社が今進めている超極秘のプロジェクトは、ハッカーたちに逆襲する。そのために同社は、新たに多くのハッカーたちを雇用するための資金が必要だった。でも、同社にはハッカーが集まりやすいだろう。世界でもっとも有名なハッカーKevin Mitnickが、同社の顧問の一人なのだ。

Zimperiumのモバイルアプリ”zAnti“を使うと、ネットワークを毎日チェックして、”man in the middle“攻撃などにやられそうな脆弱性があればそれを見つける。これらの犯行はユーザの通信セッションをハイジャックして通信相手になりすまし、あらゆる通信内容を横取りする。

たとえば、仲良しのFrankとVeronicaがテキストでチャットしていると、Lesterという悪いやつがそこに割り込み、VeronicaのふりをしてFrankとの会話を続ける。FrankはVeronicaとのリンクをチェックしない/チェックするツールを持ってないから、犯行はまんまと成功する。LesterはVeronicaのネットワークにもアクセスして、一人二役で会話の続行を偽装する。本物のFrankとVeronicaの話の中には、Lesterが求めていた貴重な情報がある。あるいはLesterが演ずる偽のVeronicaは、Frankに危険なリンクを教えてそれをクリックさせる。

Zimperiumの陣容がまたすごい。顧問にMitnickがいるだけでなく、CEOのItzhak “Zuk” Avrahamはイスラエル国防軍に3年いた。そこで何をしていたら、Zimperiumのような会社を興せるのか、考えてみよう。

Avrahamが今進めている極秘プロジェクトを自慢するのは、それが、国家の核施設を攻撃するコンピュータワームStuxnetでも、防御できるからだ。

セキュリティ戦争の新しい前線であるモバイルは、セキュリティのプロにとって金鉱でもある。Angel Listには、モバイルのセキュリティを専門とする企業が108社も載っている。でも、そちら(資金)が潤沢になったZimperiumは、強力なビジネスを構築することが次の課題だ。

〔余計な訳注: この記事からはよく分からないが、“逆襲”とは、中間者攻撃に対して中間者攻撃をしかける、という意味か??〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


DatameeerがシリーズDで$19Mを調達, Hadoopとデータ分析/BIの市場は成熟期に入る

データ分析市場のブームが始まっている。Clouderaなどのビッグデータ企業が提供するHadoopディストリビューションが成熟し、またリアルタイムのデータ処理ができるようになって有用性も増した。今では安価な日用雑貨のようなハードウェアを集めてクラスタを作り、データの分散処理を行い、その結果を分析する。そして顧客たちはHadoopとデータ分析を組み合わせたデータハブを作って、それまでのデータウェアハウス技術よりも安上がりな代替技術を備えようとしている。

Datameerは、このようなトレンドに乗じようとしているビジネスインテリジェンス(BI)企業だ。同社は今日、Next World Capital(NWC)が率いるラウンドにより、1900万ドルの資金を調達した。これには、WorkdayCiti Ventures、そしてSoftware AGが新たに参加し、既存の投資家Kleiner Perkins Caufield & ByersRedpoint Venturesも参加した。今回のシリーズDのラウンドにより、同社の獲得資金総額は3660万ドルになった。

Datameerの技術はMapReduceをその内部で利用し、データをノードのクラスタにマッピング、さらにそれを縮小してデータの統合化やデータ分析、データの視覚化などのアプリケーションへ供給する。HadoopはDatameerのデータハブとして機能し、BIのためのプラットホームを提供する。

Searsなどのモデル企業はDatameerのこのようなデータ処理構造を、クレジットカードの不正防止に利用し始めている。また、機械類の予防的メンテナンスや、広告料金の設定の最適化などにも使われている。

これらのユースケースは、Hadoopの真価を実証している。企業はますます、自社独自のデータハブの構築に巨費を投じるようになっている。NWCのパートナーBen Fuは、今週行った電話インタビューでこう語った。

“われわれは、Hadoopの利用が一つの山場にさしかかった、と感じている”、Fuはそう言った。“しかも今のトレンドは、今後数年は続くだろう”。

NWCはヨーロッパで顔を広め、このデータ分析市場に関して企業にカウンセリングを行うアドバイザー組織を構築した。オープンソース製品を幅広く利用していることもあって、同社にとっての機会は急速に開けつつある。

“企業の理解と取り組みのペースは合衆国よりも速い”、とFuは言った。

データ分析とその上のBIの市場は、今ブームになりつつある。したがってDatameerの競合他社もたいへん多い。新進のHadaptKarmasphereなどのほかに、Tableau SoftwareJaspersoft、それにMicroStrategyなども、この分野での競争相手だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


AmazonのリアルタイムデータストリーミングサービスKinesisが公開ベータへ, 問題点も露呈

AmazonのリアルタイムデータストリーミングサービスAmazon Kinesisが、公開ベータに入った。デベロッパがこのサービスを利用すると、クラスタ群の面倒なお世話を自分ですることなく、単純にリアルタイムアプリケーションを構築展開できる。しかし、新しいタイプのリアルタイムアプリケーションプラットホームと喧伝されてはいるものの、11月に行われたAWSのRe:Inventカンファレンスでローンチして以来今日まで、いくつかの欠点も浮かび上がってきた。

AWSのKinesisは、毎秒何千ものデータストリームをストリーミングする。デベロッパは、データの量やデータソースの数を制限されず、必要に応じて自由にスケールアップ/ダウンができる。AmazonのCTO Werner VogelsはRe:Inventのステージで、このプラットホームは、多数/多種類のセンサがいろんなやり方で情報を送信しているようなところでのデータ処理で真価を発揮する、と述べた。彼は、センサを利用してデータを記録するアプリケーションは今後各方面で増えるだろう、と言った。たとえば建設現場では、Kinesisが送ってくるデータを見ながら、コンクリートを基礎に流し込むベストのタイミングを判断できるだろう。

Kinesisは複数の可利用性ゾーンに対応でき、またそれらの複製も可能なので、高い可利用性を提供できる。データを複数のストリームにシャーディングでき、一つの分割単位が毎秒1000回のライト(書き込み)トランザクションと最大20のリード(読み取り)トランザクションを扱える。

下のKinesis入門ビデオは、Dellのクラウド担当シニアディレクターBernard Goldenが先週作ったものだ。

AWSはKinesisを、Hadoopに代わるものと位置づけているが、Hadoopは主に、既存の大量データをバッチで処理するためのフレームワークだ。またHadoopとその周辺には多様な要素から成るエコシステムがあり、たとえばその一員であるYarnは、コンピューティングリソースをクラスタで管理し、リアルタイム処理にも対応するので、リアルタイムアプリケーションのベースになりえる。

またG Gordon Worley IIIはブログで、KinesisはTwitterがオープンソースしているデータ処理ツールStormに似ている、と言っている。〔記事: Amazon Kinesis compared to Storm〕

Kinesisを試用したWorleyは、Kinesisはエラスティックで、負荷に応じて自動的にスケールするからEC2のクラスタを自分で管理する負担がない、と言っている。Amazonの主張どおりなら、KinesisはStormのやや面倒なセットアップに比べて相当簡単に、クラスタの運用ができるだろう、と彼は書いている。

同じくWorleyは、AWSはHadoopのバッチ処理に比べて敷居は低いが、しかし全体的に見てKinesisは、複雑なデータストリームの統合化には向いていない、とも言っている。

しかしKinesisの欠点は、個々のKinesisアプリケーションが単一のプロシジャで成り立っているため、Stormにできるような複雑な処理は、複数のKinesisアプリケーションを互いに接続しないとできないことだ。ぼくには、この点が心配だ。

Kinesisは、データをストリーミングする点で、従来のデータ分析サービスに比べて新しいと言える。しかしAWSは必ずしもその始祖ではないし、またデータ分析分野のリーダーでもない。オープンソースのコミュニティには今でもさまざまなオプションが増えつづけており、それらは、AWSとそのプロプライエタリなインフラストラクチャに、十分代わりうるものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


VMを使わずDocker/LXCコンテナベースで継続的インテグレーションをサービスするShippableが$2.05Mのシード資金を調達

Techstars SeattleでデビューしたShippableは、Linux上のアプリケーションコンテナビルダーとしてこのところ好評の、軽量で可搬性に優れたDockerを使って、継続的インテグレーションサービスを提供するスタートアップだ。同社がこのほど、Founders Co-opChris DeVoreが率いる投資ラウンドにより、205万ドルのシード資金を獲得した。これには、Divergent VenturesやPaul AllenのVulcan CapitalMadrona Venture Group、それに数名のエンジェル投資家も参加した。

このサービスは、ソフトウェアの開発から展開までのワークフローを自動化してデベロッパの納期を短縮する。Shippableという名前は、shipできる、出荷できる、納品できる、という意味だが、同社は最初Linux上の自作のコンテナを使っていた。しかしその処理は、アプリケーションの環境の多様化に伴って次第に複雑になった。DockerはLXCコンテナの管理の部分をオープンソース化していたので、Shippableの処理は多様なアプリケーション環境に対し、より統一されたものになった。

“15人のデベロッパが1年以上かかって作るようなものが、無料で簡単に入手できた”、協同ファウンダでCEOのAvinash Cavaleは、Dockerを統合したことについてこう語った。

DockerはDocker社によるオープンソースプロジェクトで、ワークフローを最初から自動化するので使いやすい。これまでの継続的インテグレーションのプラットホームは、仮想マシンを使ってワークロードを管理することが、前提だった。Cavaleがメールで私に語ったところによると、Shippableは、他の(VMを使う)類似サービスに対し、スピードとシンプルさで大差をつけている、という:

パーシステントなステートを提供しているのは、うちだけだ。新たなビルドをランするたびに、前のステートがそのままある(とくに変えないかぎり)。競合他社の多くは仮想マシンの使用に依存しており、そのコスト構造のゆえに環境をリセットせざるをえない。したがって各ビルドのたびに環境のセットアップを一からやり直さなければならない。ビルドのランに20分かかるとすると、そのうちの12分はそういった準備作業だ。うちのプラットホームでは、セットアップは最初の一回だけでよい。

Dockerは完全な仮想マシンを作るのではなく、アプリケーションが必要とする便宜だけを提供する(“仮想マシンではない”アプリケーションコンテナ)。その点に関して、StackOverflowにこんな投稿がある:

Dockerはアプリケーションの展開に向けて最適化されており、マシンが対象ではない。APIにもユーザインタフェイスにも、デザイン哲学にもドキュメンテーションにも、そのことが現れている。これに対してLXCのヘルパースクリプトでは、コンテナはいわば軽量のマシンそのものだ…つまりそれらは、はやくブートしてRAMを多く使わないサーバだ。アプリケーションが求めるコンテナ、アプリケーションコンテナは、もっといろんなものが必要なはずだ。

どんな市場でも、それがオンラインサービスによってディスラプトされるときには、まずスピードで大差がつく。オンラインのサービスプロバイダは、より高速なやり方で顧客にサービスをサーブする必要がある。たとえば小売企業は、物理店舗に伴っていた各種の経費要因を減らそうと努める。そのビジネスはデータ駆動型のビジネスに変わり、コードがそのイノベーションの基盤になる。

そうやってビジネスが次第にコード指向になっていくに伴い、企業は、全体的なアプリケーションライフサイクル管理(application lifecycle management, ALM)に、より注意を払うようになる。その管理業務は、顧客に競合他社よりもベターな体験を提供するためには何をどうするのか、という視点に立って組み立てられる。

仮想マシンは、ITの時代における物理サーバに代わるものとして理想的だった。HPやIBMなどはこぞって、ALMソリューションの基盤としてVMを多用した。

しかし、Dockerがゲームのルールを変えた。Cavaleによると、AWS上のVMのイメージはその平均サイズが1.5GBぐらいだ。それは、それが配置されている可利用ゾーンの中でしかリストアできない。VMを移動するためには、そのイメージをまた作らなければならない。“ハイパーバイザもいずれコンテナ化されると思うから、その結果、新しいALMのプロセスとプラットホームが必要になる”、とCavaleは言う。“Shippableは継続的インテグレーションとともにスタートしているから、古い世界と、今の新しい世界との橋渡しになる。それはスピードとシンプルさでデベロッパたちの心をつかみつつあり、ソフトウェア開発の新しいパラダイムを育てるだろう”。

今日のクラウドサービスは、その多くがクライアント/サーバシステムの上に構築されている。これらのクラウドサービスはワークロードを仮想化する方法としてハイパーバイザを使用する。継続的インテグレーションのプラットホームの多くはVM上に構築され、使えることは使えるがVMの重さゆえに遅い。

Shippableの競合他社は、CircleCi、CloudBees、Perforce、Atlassianなどだ。Codeshipの協同ファウンダMoritz Plassnigは曰く、うちはVMに依存してないので、ShippableとCircleCiなどの競合他社を比較した場合のようなスピードの差はない、という。

Dockerは、 セキュリティの要件が独特なので、それがShippableの採用を妨げるかもしれない。セキュリティの実装は可能だが、そのためにはLinuxのコンテナ環境に関する知識が必要だ。一方仮想化には、InfoQにも書かれているように、ハイパーバイザが持ち込む隔離の層がある。

(画像提供: Flickr上のMike Baird、クリエイティブコモンズのライセンスによる。)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


FirebaseがZapierを統合: リアルタイムインフラに複数のアプリケーション間通信が加わる

アプリケーションを管理するためのリアルタイムのバックエンドサービスを提供しているFirebase企業プロファイル)に、既存のそのほかのサービス、SendMail、Twitter、Twilioなどなどと接続するためのサービスZapierとの統合が加わった 。これからは、Firebaseのライブラリを使って共有的/コラボレーション的なアプリケーションを開発するデベロッパが、そのアプリケーションから既存のさまざまなアプリケーション/サービスに接続でき、しかもそのためのバックエンドサーバの管理はいっさい不要だ。

Firebaseを利用するユーザは、これまで相当量の作業を要した他のアプリケーションとの統合を、比較的容易に行えるようになる。FirebaseのCEOで協同ファウンダのJames Tamplinは曰く、“この統合により、自分でサーバサイドのコードを書く必要がなくなる”。すなわち、Firebaseのサービスを介してほかのアプリケーションと接続するためには、わずか5行のコードを書くだけだ。それにより、メンテナンスなどの面倒な管理業務もFirebase側でやってくれる。というか、Firebaseに統合されたZapierがやってくれるのだ。

たとえばFirebase~Zapier経由でSendGridというサービスに接続すると、メールとその通知を送れるようになる:

以下は、GTalk(IM)、Twilio(SMS)、MailChimp(メルマガなど)の例だ:

これからのデベロッパはますます、JavaScriptのコードだけを書き、その際Angularのようなフレームワークを使用し、そしてFirebaseのようなプラットホームを統合してバックエンドの管理を任せるようになる。バックエンドの面倒から解放されてアプリケーションの本体だけに集中できる次世代型フロントエンドデベロッパの増加に伴い、Firebaseはますます利用価値を増す。数あるバックエンドサービスの中でもFirebaseの特長は、データストレージに関してもFirebaseのAPIを利用できることだ。しかもそのリアルタイム機能は、ほかのバックエンドサービスプロバイダにはないものだ、とTamplinは主張する。

彼によると、Firebaseのサービスはストレージを(リアルタイムの)syncのパラダイムへ抽象化している。つまりアプリケーションに新たなデータが加わると、エンドユーザはブラウザをリフレッシュしなくてもそれを見る。しかもFirebaseではデベロッパが、シンクのためのバックエンドのタスク…データベース、サーバコードなど…を実装/管理する必要がなく、アプリケーションのロジックのみに集中できる。

APIエヴァンジェリストのKin Laneによると、Firebaseにはこの自動sync機能があるために、ユーザ1名から100万名へのスケールアップが、1行もコードを書き換えずに可能になる:

FirebaseのAPIは最初から、パフォーマンスとスケールを視野に入れて作られている。デベロッパがクライアントレベルでシンクしたいデータを指定すると、Firebaseはアップデートすべき最小のデータ集合を計算して、全ユーザに対するシンクを行う。さらにFirebaseのAPIはすべて、シンクされるデータのサイズに合わせて線形にスケールし、分散クラウド環境でも良好に共有されるよう設計されている。しかもすべてのスケーリングと関連オペレーションを、ユーザの介入なくFirebase自身が行う。したがってあなたのFirebaseアプリケーションは最初のユーザから最初の100万のユーザまで自動的にスケールし、そのためにコードを書き換える必要はない。

ユーザがZapierのサービスを介して接続するアプリケーションの認証も、シンクの機能を利用しながらFirebaseがすべて処理する。そのため、複数のアプリケーション間の通信を実装するという面倒なプログラミングの課題から、アプリケーションデベロッパは解放されるのだ。

(画像提供: Flickr上のColin Dunn, クリエイティブコモンズのライセンスによる。)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


データといえばExcelばっかしの企業に朗報, Host Analyticsが高度なクラウドアプリケーションへの変換をサービス

Host Analyticsがローンチした新しいプラットホームは、これを利用すると、Excelなどのスプレッドシートの形で大量のデータを保有するユーザ企業が、データの取り出しとか加工などの作業がいっさい不要で、スプレッドシートそのままの形でデータをほかの目的やほかのアプリケーションで使えるようにする。

この新しいプラットホームはAirliftXLと呼ばれ、その内部では同社がApplication Transformation Engine(ATE, アプリケーション変換エンジン)とよぶソフトウェアが仕事をする。ATEは、スプレッドシートの複雑なデータを解析して、その公式やフォーマットやデータ構造などをユーザが捕捉してそれらを再利用できるようにする。またデータをそうやって変換する時に起きるエラーを、予防する機能もある。

たとえば顧客企業は、このクラウドサービスを利用してスプレッドシートのデータを、まずAirliftXLのテンプレートとして保存する。次に顧客はそのテンプレートを、元のスプレッドシートのフォーマットを失うことなく、利用できる。Craigslistの競合企業であるOLXは、AirliftXLを使ってExcelのデータから同社の国際展開のための予算計画書のプロトタイプを作っている。そしてOLXは、そのプロトタイプをHost AnalyticsのEPM(Enterprise project management, 企業のプロジェクト管理)スイートに投じて、全社的な会計財務管理業務を一点集中型で行っている(ExcelからEPMへのアプリケーション変換)。

クラウドサービスには柔軟性があるので、Host Analyticsではモデルのアップデートや変更も、ユーザ自身がプログラマを必要とせずにできる。従来、経理や財務の人たちは、Excelからの原始データをほかのアプリケーションで利用しようとして、データの喪失などの問題に悩まされてきた。また、ほかのアプリケーションとの統合を社内でやろうとすると、手作業の部分が多くなり、費用も期間も大きかった。これに対しAirliftXLはExcelのモデルを抽象化することによって、顧客がExcel上で築いてきた公式やフォーマットをそのまま生かそうとする。

Hosted Analyticsのユーザは医療法人が多く、彼らはこのサービスを利用して雑多な報告文書を統合化し、タイミング良く財務情報や経営情報を得ている。今後はAirliftXLを使って(事後報告文書だけでなく)Excelによる企画~計画文書も統合化して、財務計画づくりに活用することも、彼らは考えている。

Host Analyticsは2001年に創業されたが、Excelデータの再利用というサービスは、OracleやSAPといった強敵がいる市場だ。

またHost Analyticsのようなサービスにとっては、モバイル対応化も大きな課題だ。将来的にこれらのサービスは、タブレットを使って…主に外回りで…仕事をしている社員たちのニーズに応える形に、変わらなければならない。一方では、経理、財務、営業日報などの世界は今後も依然としてスプレッドシートを使いつづけるだろう。タブレットではなく、パソコンやラップトップの上で。したがって両社の連携を図るこのようなサービスのニーズは、これからも大きい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


YahooのCEO Marissa MayerがWalmartの取締役だったためブラック企業に抗議するデモに襲われる

Salesforceの例年行事であるカンファレンスがサンフランシスコのMoscone Centerで行われ、ステージでCEOのMarc BenioffとYahooのCEO Marissa Mayerが炉辺談話をやっているとき、Walmartの取締役としてのMayerをねらった抗議のデモ隊がステージを一時的に占拠した。

デモを行った集団はOur Walmartと呼ばれ、ステージでWalmartの苛酷な労働条件と、解雇された80名の救済を訴えた。数分後に集団は会場の外に追い出されたが、その後Benioffは、自分がデモのリーダーなら、複数の集団に複数の方向からステージを襲わせただろう、と軽口を言った。

Our WalMartはWalmartに労働者の基本給~時給を上げるよう、圧力をかけ続けている。同団体は、クリスマス商戦のシーズンが始まる前にも、同様のデモを計画している。

彼らはまた、今夜(米国時間11/19)、Salesforceのパーティーが行われるAT&T Parkでピケを張ることを予定している。このパーティーには、Green Dayと1980年の人気グループBlondieが出演する。

昨日のニュース記事によると、連邦政府はWalmartの慣行を非難して、労働者の待遇が不法だ、と述べた。Walmartはこれを否定し、同社の遵法性(コンプライアンス)は完全である、と反論した。

昨日は、Sean Penn〔マドンナの元旦那〕がハイチの政治に干渉したとされることへの抗議活動の方が、Walmartの一件よりも激しかった。PennもMayer同様、このDreamforceカンファレンスに登壇して、彼の団体の救援活動について語った。

〔訳注: 以下はjpでは表示が不完全なので、原文を見てください。〕

〔関連記事: Walmartは低賃金労働者のための現物食料寄付を社員に募る

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


APIの呼び出しをリアルな条件でテストしてモバイルアプリの品質向上を支援するテスト自動化サービスRunscope Radar

APIのトラフィックをモニタするRunscopeが、APIとバックエンドのサービスのテストを自動化するためのツールを提供して、モバイルアプリのクォリティを向上させようとしている。

そのRunscope Radarと呼ばれる新しいサービスは、今日のAWS re:Inventカンファレンスでローンチし、バックエンドのAPIの変化~変更に対する不安や心配を緩和しようとする。アプリのメンテナはこのサービスを使うことによってバックエンドサービスがアプリが期待するデータを確かに返していることを確認でき、アプリがクラッシュするおそれを回避する。しかしテストは一歩間違えると顧客の体験を損ないかねない脆いプロセスである。そこでRunscope Radarは、アプリのバックエンドサービスが変わってもアプリが壊れない、という設計方針に立っている。つまり、将来的には、顧客の体験を損なわずにサービスを改良する方法を提供することがねらいだ。

Radarを使用するデベロッパは、それにリクエストとパラメータセットのリストを与えて、APIの動作を判定する。リクエストは、アプリに実際に登場するような、リアルなものでなければならない。

テストは、その完了や失敗を顧客に通知する。このサービスはCircleCi、GitHub、Heroku、Jenkins、TeamCityなどを統合して、コミットと、ビルドと、展開の各段階でAPIテストを走らす。

たとえば、あるAPIを消費するデベロッパは、そのAPIがエンドユーザの体験を阻害しないことを確認したい。もしもAPIが壊れたら、通信が妨害される。

RunscopeのCEO John Sheehanは、今日のプレゼンのあとでこう言った: “サービスが壊れたらアプリも壊れる。アプリを駆動している内部的なサービスですら、常時可利用であることが必要だ”。

今ではAPIがデベロッパによって広く利用されているが、その信頼性はまだまだ確立途上だ。API自身は単一でも、それを呼び出すデバイスやプラットホームは千差万別だからだ。

APIの信頼性を管理する方法も、今はまだほとんどない。企業はAPIのプロバイダにチェックを入れることによって、とりあえず安心感を得ているのだ。

Runscopeは、APIの利用が一般化すればするほど需要が増えるサービスを提供している。APIのテストは今もっぱら手作業で行われているから、自動化が急務だ。今後はAPIを提供するスタートアップもアプリケーションはモバイルアプリのみ、というところが増えてくるから、なおさらテストの自動化が重要だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Amazon RDSがついにPostgreSQLをサポート, Oracleの私有物となったMySQL離れに対応

Amazon Web Services(AWS)が、Amazon RDSの上でPostgreSQLローンチし、このオープンソースのデータベースの強さと市場の成熟を遅まきながら追認する形になった。

AmazonのCTO Werner Vogelsが今日(米国時間11/14)のAWS re:Inventカンファレンスのステージに立ち、これでやっと、同社のデータベースサービスが同社のクラウドサービスの提供物のスコープと肩を並べるまでになった、と述べた。Amazon RDS上のPostgreSQLの展開は、最大3TBの容量と30000IOPSの入出力パフォーマンスを提供する(下図)。

PostgreSQLはオブジェクト-関係データベースで、同社のWebサイトによると、Linux、Unix、OS X、Solaris、Tru64、Windowsなどの主要なオペレーティングシステムの上で使える。ACID完全準拠でSQL:2008のデータ型のほとんどをサポートする。また、画像やサウンドやビデオなどのバイナリラージオブジェクトもサポートする。

Amazon RDSは2009年にローンチしてまずMySQLをサポートした。そして2011年にはOracle Database、2012年にはWindows SQL Serverをサポートした。AWSのブログによると、これらのサポートは顧客からの要望に対応したものだ。

PostgreSQLは、OracleがSun Microsystemsを買収してMySQLを手中にして以降、人気が増大している。OracleはMySQLのオープンソースな側面に関心を示さなくなったため、メンテ放棄を恐れたユーザはPostgreSQLへの引越しを開始したのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))