生産性プラットフォーム運営のNotionが個人向け無料アカウントの機能制限を大幅に解除

米国時間5月19日、メモを取ったりWikiを作成したりするための人気アプリ「Notion」が、個人向けの料金プランを変更した。無料プランに課されていた制限の多くが解除され、これまで1カ月5ドル(約540円)のプランで提供していたのと同等の機能を利用できるようになった。

これまでの無料プランでは、利用できるブロック(Notionのコンテンツの単位)が1000までとかなり少ない数に制限され、ゆくゆくは支払いをしないと何もできなくなっていた。記録できるテキストとデータの量の制限が完全になくなったことで、ほとんどの有料プランユーザーは無料のアカウントで必要なことがすべてできるようになる。

Notionは個人向けのプレミアムなアカウントを完全にやめたわけではない。実は、既存の有料ユーザーはこれまでと同じ価格で「パーソナルプロ」アカウントに移行されている。この新しいプランでは、5MBを超えるファイルのアップロードや人数無制限のゲストとの共同作業などを利用できる。そして最も興味深いのは、同社が「まもなく実現する」と語っている待望のNotion APIに今後アクセスできるということだ。2019年9月に同社は学生と教員向けにアプリを無料にすると発表していたが、現在は学生と教員向けにパーソナルプロプランへのアクセスを展開している。

小規模な共有データベースを管理するために複数のアカウントを1つの無料アカウントに紐づけていたユーザーは、今後、自動でチーム向けプロダクトの無料トライアルに移行される。1000ブロックの制限に達したら、チーム向けプロダクトにアップグレードするか、または個人向け無料アカウントでゲストとの共同作業ワークフローにしてニーズに合わせる方法を考える必要がある。

2020年4月にNotionは、20億ドル(約2150億円)という驚異的な評価額で資金調達ラウンドを完了したと発表した。今後の売上は、個人ユーザーから積極的に収益化するよりも、チーム向けプロダクトを拡大していく方針にしたと考えられる。多くのワークプレイス向けツールの企業と同様に、Notionはボトムアップのスケーリングに依存してきた。そのため、個人のワークフローにNotionのプラットフォームを使うユーザーを増やし、その中から今後も長く使いたいと思う一部のユーザーをチーム向けプロダクトに移行することにチャンスがあると見たようだ。

参考記事:職場の生産性プラットフォーム運営のNotionが約54億円調達

[原文へ]

(翻訳:Kaori Koyama)

自社のクラウドストレージAPIをAmazon S3互換にしてAWSに挑戦するBackblaze

Backblazeは米国時間5月4日、同社のB2 Cloud Storageサービスを、AmazonのS3ストレージサービスとAPI互換にしたことを発表した

Backblazeは、手頃な価格のクラウドバックアップサービスとして業務を立ち上げた。ここ数年はストレージの専門知識を活用して、デベロッパー向けにB2 Coloud Storageというサービスを立ち上げてきた。大手のクラウドベンダーの同様の機能よりも、大幅に価格が安いのがウリだ。B2の料金は、1GBあたりで毎月0.005ドル(約0.5円)から。ちなみにAWSのS3は1GBあたり毎月0.021ドル(約2.2円)からとなっている。

ただしデベロッパーは、ストレージの料金が安いというだけでは、プロ​​バイダーを切り替えることができない。複数の異なるシステムをサポートするには、それなりのコストがかかる。

B2をS3に対してAPI互換とすれば、デベロッパーは単にストレージをBackblazeにリダイレクトするだけでいい。大規模なプログラムの書き換えは必要ない。

「ここ数年、多くの企業が、私たちの驚くほど使いやすいクラウドストレージを愛用してきました。それによって信じられないような成果を達成することができたのです」と、Backblazeの共同創立者でCEOのGleb Budman(グレブ・バドマン)氏は述べた。「今回、既存のツールとワークフローをそのまま使えるようにすることで、より多くの企業が私たちのストレージを利用できるようになることに、いっそうワクワクしています」。

現在のB2の顧客には、American Public Television、Patagonia、Verizon’s Complex Networksといった企業が名を連ねる(編注:VerizonはTechCrunchの親会社であるVerizon Media Groupの盟主)。Backblazeによると、B2サービスには合計で約10万の顧客がいる。今回の立ち上げに最初から参加しているパートナーとしてはCinafilm、ファイル転送およびストリーミングサービスを提供するIBMのAspera、ストレージ専門企業のQuantum、クラウドデータ管理サービスのVeeamなどが含まれている。

「パブリックなクラウドストレージは、ポストプロダクションのプロセスにとって不可欠な要素になっています。最新の機能強化により、ベンダーとしての私たちと顧客の双方にとってBackblazeのB2 Cloud Storageへのアクセス性が向上しました」と、Quantumの製品マーケティング担当上級役員、Eric Bassier(エリック・バシエ)氏は述べている。「新しいS3互換APIを使用して、Backblaze B2をStorNext互換のパブリックなクラウドストレージのターゲットリストに追加できます。それにより、ハイブリッドでマルチクラウドなワークフローを実現するための新たなステップを踏み出すことができるのです」。

原文へ

(翻訳:Fumihiko Shibata)

クラウド上の余剰容量を活用する、分散ストレージサービス運営のStorjがエンタープライズに進出

ローコストの分散クラウドストレージを開発したStorjは米国時間3月19日、Tardigrade Decentralized Cloud Storage Serviceと呼ばれるニューバージョンを発表した。

この新しいサービスは、エンタープライズ向けのサービス品質保証(Service Level Agreement、SLA)として、99.9999999%のファイル耐久性と99.95%の可用性を約束しており、Amazon S3と同等と同社は主張している。

同社は、世界中の余剰ストレージ容量を利用するという一風変わったシステムでファイルを安全に保存する。いわば彼らは、Airbnbが空き部屋に対してやってることをストレージで行っており、企業や人々の余剰容量を売って売上を上げている。

ファイルを保存する方法として危険ではないかとの声も当然あるが、しかしStorjの執行会長Ben Golub(ベン・ゴラブ)氏によると「我が社はデータをネットワーク上の複数のドライブに分散する方法を考案したことで、1つのファイルが完全に露出することはない」という。

「これを実現するためにやっていることは、まず第一にデータは顧客が暗号化してからアップロードする。暗号の鍵は顧客が持っているから、他の誰もデータを解読できない。そして次に、ファイルの各部分を80分割し、その中の任意の30片を使って再構成できる。80片の一つひとつはそれぞれネットワーク上の異なるドライブへ行く」とゴラブは説明する。

そこで、仮にハッカーが暗号化されているデータの一片を何らかの方法で入手できたとしても、さらに29片が必要であり、また暗号の鍵がなければファイルは再現できない。「ストレージのノードの提供者にとってもそれは同じであり、彼らが目にするものは単なるゴミであり、ファイルのごく一部にすぎない。だから悪者があなたのファイルを狙っても、彼はたった一つのファイルを入手するために30の異なるネットワークを侵犯しなければならない。もしそんなことができたとしても、暗号鍵がなければそれらはゴミだ」と彼は言う。

余剰容量を買うことによって、Storjは通常のクラウドストレージよりもずっと安くストレージを提供できる。ゴラブ氏によると、同社の利用料金はAmazon s3とその互換ストレージの料金の3分の2から2分の1ぐらいだ。

2014年にローンチした同社には現在、2万のユーザーと10万の分散ノードがある。しかし、その独特なクラウドストレージのエンタープライズバージョンを立ち上げるのは、今回が初めてだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

DigitalOceanがPostgreSQLに続いてMySQLとRedisのマネージドデータベースサービスをローンチ

半年前にPostgreSQLのマネージドサービスをローンチしたばかりの、新進のホスティングおよびクラウドサービスプラットホームDigitalOceanは米国時間8月20日、MySQLとRedisのマネージドデータベースサービスのローンチを発表した

これも含め同社の最近のリリースは、低価格なホスティングサービスというルーツを脱して本格的なクラウドプロバイダーになろうとするDigitalOceanの意欲の表れだ。データベースのマネージドサービスと同社のコアであるホスティングおよびインフラストラクチャに加えて、今や同社はオブジェクトとブロック単位のストレージとKubernetesエンジンも提供しており、とくに後者は今日の現代的なクラウドインフラストラクチャならどれの上でも利用ができ、動かせる。ハイパークラウドと呼ばれる連中に追いつくのはまだかなり先だと思われるが、市場の競争がより激しくなるのは良いことだ。

DigitalOceanのプロダクト担当上級副社長Shiven Ramji(シヴァン・ラムジ)氏は、次のように述べている。「MySQLとRedisを加えたことによって、DigitalOceanは今やもっとも要望の多い3つのデータベースをサポートしている。しかもデベロッパーは、それらの面倒な管理で悩むことなく、アプリケーションを構築し動かすことができる。デベロッパーはDigitalOceanのDNAであるだけでなく、その成功の大きな要因でもある。私たちはこの成功を足がかりとしてさらにデベロッパーのサポートを拡充し、彼らのよりシンプルなアプリケーション開発を可能にしていかなければならない」。

マネージドデータベースサービスの料金体系は、どれを選んでも前と同じだ。

2019 08 19 1553

新しいマネージドデータベースサービスは当面、同社のニューヨークとフランクフルト、サンフランシスコのデータセンターで提供される。そのほかのデータベースエンジンのサポートも、目下開発中だ。2番目3番目としてMySQLとRedisを選んだのはデベロッパーの要望が多いからだが、そのほかのエンジンについても、同じくデベロッパーの要望の多さが選択のベースになるだろう。ただしDigitalOceanの2019年のロードマップに載っているデータベースはMySQLとRedisだけだから、年内に次のサポートが発表されることはないだろう。

関連記事:DigitalOcean launches its managed database service(DigitalOceanがマネージドデータベースサービスをローンチ、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

巨額買収を完了したIBMはRed Hatの翼で飛翔する

IBMの340億ドル(約3.6兆円)という巨額なRed Hatの買収は数週間前に完了し、米国時間8月1日に両社はその最初の成果を発表した。今日の発表の大部分は、あらゆるパブリックおよびプライベートクラウドにプロダクトを持ち込みたいとするIBMの野心の拡大の表れだ。そもそもIBMがRed Hatを買った理由がそれだから何も意外ではないが、多くの業界ウォッチャーにとって意外だったのはその実現の早さだ。

具体的には、IBMはそのソフトウェアポートフォリオをRed Hat OpenShiftに持ち込む。それはRed HatのKubernetesをベースとするコンテナプラットホームで、顧客がRed Hat Enterprise Linuxを使用するかぎりどんなクラウドでもそれを使える。

IBMはすでに100製品を超えるプロダクトをOpenShift向けに最適化し、それらを同社がCloud Paksと呼んでいるものにバンドルした。そのPaksなるものは現在5つあり、それらはCloud Pak for Data、Cloud Pak for Application、Cloud Pak for Integration、Cloud Pak for Automation、そしてCloud Pak for Multicloud Managerだ。これらの技術をIBMの顧客は、AWS、Azure、Google Cloud Platform、そしてほかでもないIBM自身のクラウドで利用でき、そこにはDB2やWebSphere、API Connect、Watson Studio、 Cognos Analyticsなどが含まれている。

今日の発表声明でRed HatのCEO Jim Whitehurst(ジム・ホワイトハースト)氏は「Red HatはコンテナやKubernetesなども含むLinuxベースの技術でイノベーションを駆動しており、それはハイブリッドクラウド環境の基盤的ビルディングブロックになっている。ハイブリッドクラウドのためのこのオープンな基盤により、「any app, anywhere, anytime」(どのアプリケーションもどこでもいつでも動く)というビジョンが実現可能になる。それがIBMの強力な専門的能力と結びつき、意欲的なデベロッパーやパートナーから成る巨大なエコシステムにサポートされれば、顧客は自ら選んだ技術で現代的なアプリケーションを作り、オンプレミスでも複数のパブリッククラウドにまたがるものでも、そのアプリケーションにとって最良の環境でデプロイする柔軟性を持つことができる」と述べている。

IBMは、クラウド上の初期のイノベーションの多くは現代的で顧客志向のアプリケーションを市場化することにあり、主にベーシックなクラウドインフラストラクチャにフォーカスしていた、と主張している。しかしながら今日では、エンタープライズは自分たちのミッションクリティカルなアプリケーションをクラウドで動かすことにも関心がある。そのために彼らは、複数のクラウドにまたがって使えるオープンなスタックを求めているのだ。

さらにIBMは今日、完全な管理を伴うマネージドなRed Hat OpenShiftサービスを自身のパブリッククラウド上でローンチする、と発表した。そのほかに同時に、IBM ZやLinuxONEメインフレームなどIBM Systems上のOpenShiftと、Red Hatに関するコンサルティングおよび技術的サービスの立ち上げも発表された。

関連記事: With $34B Red Hat deal closed, IBM needs to execute now(IBMが340億ドルのRed Hat買収を完了し次は執行だ、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マイクロソフトの「Windows Virtual Desktop」は複数のWindows 10セッションを動かせる

昨年マイクロソフトは同社の仮想デスクトップサービスWindows Virtual Desktop発表した。そのときは非公開プレビューだったが、しかし米国時間3月20日からは、エンタープライズユーザーなら誰でも、Azureのクラウドでホストされる仮想のWindows 10デスクトップがどんなものか試すことができる。

ただしこれは、あくまでも企業のためのプロダクトである。クラウドのどこかにある仮想マシンの上でApex Legends(エーペックスレジェンズ)をプレイするために、使うものではない。このようなサービスのねらいは、エンタープライズがマシンやソフトウェアの管理で苦労することなく、サービスに含まれているOffice 365 ProPlusなどを使えることにある。また規制の厳しい業種では、外回りの社員にセキュリティ完備の仮想デスクトップを使わせて、データの安全を保持できる。

ちょっとすごいのは、ひとつの仮想マシン上で複数のWindows 10セッションを動かせることだ。

なお、このサービスの機能の多くは、マイクロソフトが昨年買収したFSLogixの技術に負っている。具体的にはたとえば、これらの技術によって、ちょこっと短時間使うようなユーザーに、OutlookやOneDriveなどのアプリケーションへの比較的速いアクセスを与える。

Microsoft 365のエンタープライズ顧客にとってこのサービスは、すでに料金を払っているサブスクリプションに含まれている場合が多いが、Azureのサブスクリプションは別途必要になり、クラウドで動く仮想マシンにお金を払うことになるだろう。

目下このサービスは、AzureのUS East 2とUS Centraのリージョンでしか利用できない。でもプレビューが終わったら、サービスの利用域は全リージョンに拡大するだろう。

関連記事: Microsoft’s new Windows Virtual Desktop lets you run Windows 10 in the cloud(昨年秋のWindows Virtual Desktopの発表、未訳)

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

Googleから閉めだされたとき簡単に早く回復する方法

ぼく自身も体験者だが、Googleの自分のアカウントから閉めだされてネット上でほとんど何もできなくなるのは、実に不愉快だ。これからここに書く対策は、アカウントのリカバリを手作業でやるよりずっと早くできる。手作業の方法だと、3-5日以上はかかる。ぼくの場合は、数週間もかかった。

今週、自分の閉め出し経験について書いたぼくの前の記事を覚えていたある同僚が、同じく閉めだされてぼくに相談に来た。ぼくが思い出した解決方法は、実は昨年発見したもので、まだ自分では試していない。でもそれは、今回の彼女の役には立ったから、とりあえずご紹介しておこう。やり方は、とても簡単だ。

Googleのストレージサービスを有料で使ってる人は、次のようにする:

  1. Google Oneへ行く。
  2. 画面上部のCallボタンをクリックする。
  3. 答えてくれる人に自分が閉めだされたことを伝える。すると、彼らが助けてくれるはずだ。

画面上部のCallボタンを押す。

Google Oneのアカウントを持ってない人は、次のようにする:

  1. Google Oneへ行く。
  2. 有料プランにアップグレードする。100GBで月額1ドル99セント(日本なら250円)からだ。
  3. 自分のストレージをセットアップしたら、Callボタンをクリックして閉めだされたことを伝える。

誰にでも有効、とは断言できないけど、ぼくの同僚の場合は完璧で、Google Oneのアカウントを取得したらすぐにGoogleのアカウントを取り戻せた。お金はかかるけど、月額250円で100GBのストレージを使えて、ストレージの問題に限らず、いろんな問題にサポートの人が答えてくれるから、心の平安が得られるよ。

関連記事: That time I got locked out of my Google account for a month…前回の閉め出し体験(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

バックアップサービスのBackblazeが6.0へアップデート、ストレージも容量アップ

Backblazeは元々、消費者向けのバックアップサービスだったが、最近ではクラウドストレージなど、そのほかのサービスも提供している。しかし今日(米国時間1/17)は元のルーツに戻り、Backblaze Cloud Backup version 6.0をローンチした。その同社のメインのサービスは、無制限のストレージとデータ転送をユーザーに提供している。

今回のアップデートにより、最大50%のスピードアップとオーバヘッドの減少が提供され、そしてまた、モバイルのホットスポットを使っているとき、ISPの帯域不足などにより有料のネットワークを使ってしまうことを防ぐ。このほか、Googleのシングルサインオンがサポートされる。

ユーザーはバックアップされるスナップショットをBackblazeのクラウドストレージサービスB2に保存できる。これによりたとえば、古いコンピューターのデータをすべて保存して、新しいコンピューターへ移行できる。また恒久的なアーカイブとして使ってもよいし、すべてのSteamダウンロードをB2に移して自機のスペースを確保するような使い方でもよい。ユーザーが自分のバックアップからファイルをリストアするときと同じく、直接ダウンロードしてもよいし、あるいはUSBドライブにコピーしたものを送ってもらってもよい。

USBドライブといえば、BackblazeはそのUSBキーの容量を256GBに倍増し、ハードディスクは最大8TBを保存できる。8TBで契約しても、そんなに使わなければ返金してもらえる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがBackupをローンチ、完全な管理を伴うバックアップサービスだ

AmazonのクラウドコンピューティングサービスAWSが今日(米国時間1/16)、AWSのサービスからはもちろんオンプレミスのアプリケーションからも容易にデータをバックアップできるツールBackupをローンチした。それは今すでにAWSのユーザーなら誰もが利用でき、最初はバックアップのポリシーをセットアップする。それらはたとえば、Amazon EBSのボリュームやRDSデータベース、DynamoDBのテーブル、EFSファイルシステム、AWS Storage Gatewayのボリュームなどのためのポリシーだ。これら以外のそのほかのサービスも今後サポートされる。オンプレミスのデータをバックアップするためには、AWS Storage Gatewayを使用する。

このサービスによりユーザーは、さまざまなバックアップポリシーやリテンションポリシーを定義できる。たとえば、(EFSなどの)バックアップをコールドストレージに移せるようにするのか、一定の時間後に完全に削除するのか、など。デフォルトでは、データはAmazon S3のバケットに保存される。

サポートされているサービスの多くは、EFSファイルシステムを除き、すでにスナップショットを作る機能がある。基本的にBackupのやることは、その工程の自動化であり、またそのためのルールを設けることだ。というわけでBackupの利用料金は、スナップショット機能の使用料と同じだ(ファイルシステムのバックアップのみGB単位の課金となる)。なお、EFSファイルシステムや、DynamoDBのバックアップからのデータのリストアも、GB単位の課金だ。

現在、BackupはAWSのひとつのリージョンに限定されているが、同社によると年内には複数のリージョンにまたがるバックアップもできるようにする。

AWSでストレージとオートメーションと管理サービスを担当しているVP Bill Vassはこう言う: “クラウドは今や、どんな規模の企業でもデフォルトだから、二つの異なるタイプのビルダーを惹きつけている。ひとつは“いじくり屋”(tinkerers)で、AWSのサービスの全体をいじくり微調整して求めるアーキテクチャを実現する。もうひとつは、やはりAWSの機能性の幅広さと深さに惹かれるのだが、サービスの粒度の一部を犠牲にして、より高い抽象化層でスタートする。それによりビルドがもっと速くなることすらある。AWSのBackupは、後者のタイプのビルダーが対象であり、かねてから彼らは、個々のサービスごとにバックアップをするのではなく、一箇所でバックアップしたい、という要望を寄せていた”。

AWS BackupのアーリーアドプターはState Street Corporation, Smile Brands, そしてRackspaceだが、アドミンの仕事を楽にしてくれるから、ユーザーはとても多くなるだろう。しかしAWSにはバックアップやストレージ関連のパートナーがかなりいるから、AWSのこの市場への進出を喜ばない人たちもいるはずだ。彼らには、AWSのBackupよりも幅広い機能性(クロスリージョンやオフサイトバックアップなど)があることが多いのだから。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

プログラマーのための即席ファイル共有ツールTransfer.shはコマンドラインで使う

今日このごろファイル共有ツールはあまりにもありふれている。Dropboxがあり、Google Driveがあり、iCloudがある。でも、コマンドラインで迅速容易にシェアしたい、と思ったらどうだろう? そこでプログラマーのRemco Verhoefは、Transfer.shを作った。

このサービスは要するにファイルダンプで、curlでtransfer.shにファイルを送ると14日間保存されて、その後自動的に削除される。たとえばぼくは、この画像を、自分の.bashrcにちょっとコードを加えることによってアップロードした。

このシステムは、よくある、必要な仕事だけをしてくれる小さくて巧妙なツールの例だ。Verhoefは、仕事中に簡単にファイルをアップロードしたいから、これを作った。

彼曰く: “ぼくがこのアプリケーションを作ったのは、sshシェルの中から誰かにログのデータをシェアする必要があったからだ。そこでぼくは、コマンドラインを使ってcurlでファイルを簡単にアップロードしたり変えたりできるWebアプリケーションを作った。コンテンツを暗号化したり、それらに対してgrepなどを使ったりもできる。curlは、ほとんど、どんなプラットホームにもあるからね。アプリケーションはオープンソースにしたから、ほかの人たちも使えるし、みんなぜひ、自分のサーバーを動かして使ってほしい”。

“ビジネスモデルなんか、ないよ。今でもサイトを動かしているのは、一種の礼儀だな。でも人気が出てきてユーザーが増えてるから、このまま動かすのは難しい”、とも言っている。彼には自分のデベロッパーショップがあって、ICOのセキュリティなど、いろんなプロダクトを売っている。

Verhoefは、彼のプラットホームのセキュリティは約束していない。単純に便利なツールであるだけだ。彼は、ファイルをgpgにパイプしてアップロードすることを勧めている。

このプロダクトが、善いことだけに使われていないことが、彼のチームの不満だ。

“たくさんの人たちが使っている。ログファイルをアップロードするために使っている人もいれば、隠し撮りビデオを全部エクスポートするやつもいる。マルウェアやボットネットなどの配布に悪用されることもある。でもそれらは、なるべく早く見つけてやめさせている。ポルノサイトがポルノ写真のサーバーとして使ったこともあるが、それを見つけたときは、写真を全部、犬と子猫の写真にリプレースしたよ”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

「ソーシャル・ネットワーク+Evernote」をイメージするMrOwl

ソーシャル・ネットワークとEvernoteが融合したようなアプリケーションが登場してきた。ArvindおよびBecky Raichurによるもので、データの保管や共有を簡単に行うことができるようになっている。しかもあらゆるデータ形式に対応しているのだ。

データは公開ないしプライベートで保管しておくことができる。たとえば当方で、「Rolex」についてのブランチ(MrOwlでは情報をまとめる単位を「ブランチ」と呼んでいる)を作成して公開してある。ここに画像、テキスト、リンクなどの情報を加えていくことができる。人気の公開ブランチには、たとえばシークレット・メニューについてのものなどがある。

アプリケーションの魅力を存分に発揮するには、まだまだ利用者が少ない様子。利用者が増えてくれば、より活発に情報のやり取りが行われることになるだろう。

「コラボレーション機能が、このアプリケーションの大きな魅力です。編集権を公開してブランチを育てていったり、特定の人に対して公開して編集作業を続けるようなことができます。もちろん完全にプライベートなものとして、保管しておくことも可能です」とArvindは述べる。「知識やリソースを、コミュニティ全体の資産として育てていくことができるわけです」。

もちろんソーシャル機能をもつアプリケーションは、世の中に溢れかえっている。しかし大量のデータを友人やコミュニティに、簡単に公開できるMrOwlはなかなかおもしろい試みだと思う。アプリケーションは、まずインドで広まり、現在のデイリー・アクティブユーザーは7500人で、セッション数は70万となっている。これまでに600万ドルの資金調達も行なっている。

「利用者の方々は、MrOwlを指してGoogle、Wikipedia、およびPinterestをつなぐものであると表現しています。面白そうなものを見つけたり、情報を集約するブランチを作成したり、他の人と連携して詳細な情報ハブを構築して行ったり、あるいはまとめた情報を共有することができるのです」。

原文へ

(翻訳:Maeda, H

Dropbox Businessのアドミンダッシュボードがデザイン一新、時間制限など機能を増強

Dropboxは消費者市場でスタートしたが、最近では企業ユーザーにとって使いやすいサービスにするための多大なる努力を傾注している。今やDropbox Businessのユーザー企業は20万社を超え、彼らはそのクラウドストレージサービスの上で社員たちが機密性のあるファイルや情報にアクセスするときのための、より高度でより細かい管理機能とセキュリティをますます求めるようになっている。

今日(米国時間6/13)同社は、アドミンダッシュボード上の機能をさらに増やした。それは同社の、AdminXイニシアチブと呼ばれる大きなプロジェクトの一環だ。このプロジェクトは、アドミンのユーザー体験の向上が目的で、社員のアカウントを作ったり、誰は何にアクセスできる/できないといった細かいコントロールするのが彼らの日常の仕事だ。

最初に同社は、アドミンコンソールのデザインを一新して、シンプルで使いやすくした。その単純さは消費者体験に近いものになり、しかし同時に企業が求める堅牢さとセキュリティを確保した。

またWeb上の(各人の)セッションコントロールにより、ログインしてファイルにアクセスしている時間に制限を設けられるようにした。またアドミンは、一部のチームに対してサブドメインの検証ができるようになった。特定のアカウントやユーザーをサブドメインの下に置くと、企業のDropboxアカウントにアクセスしてよい/いけない人を細かく管理できる。

パスワードの作り方やアップデートの仕方にも、改良を加えた。これからは、ユーザーがパスワードを作ったり変えたりするたびにその“強度”を評価し、弱いパスワードを使わないよう勧めることができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon、クラウドストレージの無制限プランを終了

またひとつクラウドストレージの宴が終わった。Amazonは、Amazon Driveの無制限クラウドストレージ・プランを終了した ―― ただしPrimeメンバーは写真用の無限ストレージを引き続き利用できる。

今日(米国時間6/8)から、Amazon Driveの新規登録で無限クラウドストレージを選択できなくなる。代わりに年間11.99ドルで100 GB、59.99ドルで1 TB(以降最大30 TBまで追加1 TBごとに59.99ドル)のいずれかを選ぶ(従来は11.99ドルで写真を無制限に、59.99ドルであらゆるファイルを無制限に保存できた)。

いずれのプランにも5 GBの無料ストレージがついてくる。1本目のヒットは無料、という意味だと思っておこう。

容量無制限プランは、2015年3月に提供が開始されたばかりだ ―― 当時競争の激化する消費者向けクラウドストレージ市場で果敢な行動と評された。そしてなんと、その2か月後にGoogleは無制限容量の写真サービスをスタートさせた。

2年が過ぎた今Amazonは、金庫にデータを預けた人たちを締めつけ始めた ―― クラウドストレージの世界ではよくある話だ。

写真が例外なのは注目すべきだが、これはライバルのGoogleが無制限の写真ストレージを続けているからというだけでなく、写真は個人データの宝庫だからだ ―― サードパーティーが機械学習技術を使ってデータ抽出できる。つまるところ、ユーザーのパーソナルな写真は大容量のデジタルエンターテイメントコンテンツよりもずっと価値が高いということだ。

従来の無制限容量プランのユーザーは、満了日まで利用を続けられる。その後は、自動更新がオンになっていれば ―― そしてデータが1 TB以下なら ―― 自動的に59.99ドルの1 TBプランに移行される。

自動更新を設定していないユーザー、あるいはデータが1 TB以上あるユーザーは、ストレージの管理ページで、新しい制限付きストレージプランのいずれかを選ぶ必要がある。

新しいプランに切り替える行動を起こさず、かつ無料ストレージの割り当てを越えるデータを預けている人は、利用期間満了後にアカウントが「割り当て超過」状態になる。つまり、それ以上ファイルをアップロードすることができず、コンテンツの閲覧、ダウンロード、または削除しかできなくなる。

Amazonによると、この状態にあるユーザーは、180日以内に、コンテンツを削除して総データ量を無料容量いかにするか、有料プランを契約するかのどちらかを選ぶことになる。180日が過ぎると、Amazonが自動的にデータを削除して割り当て以内におさまるようにする ―― 最近アップロードしたファイルから順番に削除していく(Amazonのデータ保持ポリシー参照)。

プライムメンバーは写真用ストレージについては無制限容量が続くので心配しなくてよいが、写真以外のコンテンツは、プライムメンバーであっても割り当て超過になりうる ―― このためプライムメンバーも一部のデータを救うために行動を起こさなくてはならない場合がある。

Amazonは、Driveのユーザーはいつでもプランを変更できると言っている。Driveに保管したファイルはデスクトップアプリのAmazon Driveを使ってパソコンにダウンロードできる。

【日本語版注:6月8日現在日本向けの無制限容量プランは継続されている】

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebookがデータセンター内ネットワークを新型スイッチとともに40GBから100GBにアップグレード中

front_full-loaded

Facebookは今、同社のデータセンター内の光ファイバーネットワークを40GBから100GBにアップグレードしようとしている。同社のトップ・オブ・ラック・スイッチ(ひとつのラック上のすべてのサーバーを接続するスイッチ)Wedge 100は今日(米国時間11/8)すでにOpen Compute Projectに受諾され、またすべてのラックをデータセンター内で接続する次世代100GスイッチプラットホームBackpackもベールを脱いだ。

FacebookのDirector of Software Engineering for NetworkingであるOmar Baldonadoによると、同社がこの、より高速なネットワーキング技術を必要とする理由はいくつかある。しかしその最大の要因は、ライブと録画双方のビデオのサポートを拡大することだ。さらに、360度の写真やビデオも含まれる。Facebook自身の内部的なデータセンタートラフィックも、ユーザー体験の改善のために、アナリティクスなどのデータへの需要がデベロッパー部門から増えており、それにも対応しなければならない。

しかし100Gは、今でもまだ、高速ネットワーキングの最先端技術だ。もちろん今それに取り組んでいるのはFacebookだけではない。たとえばLinkedInも最近、オレゴン州のデータセンターを将来100Gにする計画を発表した。Facebookが他と違うのは、サーバーの設計やネットワーキング技術、およびそれらを支えるソフトウェアを、業界全体のためにオープンにすることに、コミットしていることだ。

  1. iso_front_1.jpg

  2. iso_back_1.jpg

Baldonadoによると、40Gから100Gへの移行で生ずる問題の一つが、新しいデバイスの“電力大喰らい”癖、そして冷却の困難さだ(彼は、“ゲーム用PCをオーバークロックでずっと使うようなもの”、と言った)。“それだけのハイスピードはどうしても必要だけど、そのためにはスイッチだけでなく、データセンター全体としての対応が必要になる”、と彼は語る。“だから業界のあらゆる部分…サーバーのベンダ、NICのメーカー、光りファイバーのメーカー、などなど…と協働しなくては、これだけのスケールアップは実現できない”。

Backpackの能力が前の“6-pack”スイッチの2.5倍だとしても、その電力消費量も2.5倍なのだ。

Facebookは、BackpackスイッチもOpen Compute Pojectに出す予定だ。それは今、社内テストの段階から徐々に、同社のデータセンターに実装されつつある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftが次世代型クラウドハードウェアの設計をオープンソース化…コミュニティのコラボレーションに期待

80527689-6b4f-4ac8-bb93-25556376560c

Microsoftが今日、同社の次世代型ハイパースケール(hyperscale, 自動スケーリング)クラウドハードウェアの設計をオープンソースにし、それをOpen Compute Project(OCP)に寄贈した。Microsoftが2014年に参加したOCPには、Facebook, Google, Intel, IBM, Rackspaceなど、多くのクラウドベンダがいる。これまでの2年間で同社はすでに、サーバーやネットワーキング、データセンターなどの設計をいくつか寄贈している。

同社がProject Olympusと呼ぶこのオープンソース事業は、完成した設計をオープンソースにして寄贈する通常のやり方と違って、設計がまだ最終的な商用化のレベルに達していない。つまり、設計過程にコミュニティがコラボレーションしていくことを、前提しているのだ。

f07cb659-c3a7-41d0-83d4-e6d5b265a117

Azureでハードウェアインフラストラクチャを担当するゼネラルマネージャーKushagra Vaidが、今日の発表声明で述べている: “私たちは、これまでにも、OCP Foundationやオープンソースコミュニティとの密接な協働関係から、非常に多くのことを学んだ。しかしそこで理解した重要なことは、現在のオープンソースハードウェアの開発が、オープンソースソフトウェアほどアジャイルでもなく、頻繁な反復型でもないことである”。そこで、コミュニティに設計への初期的アクセスを与えることによって、Microsoftは“新製品の市場化までの時間を縮小し、投資費用を縮減する”ことを、期待するのだ。

Project Olympusの設計に含まれるのは、新しいマザーボードと、電池内蔵により高可用性の電源装置、高密度ストレージ拡張能力のあるサーバーシャシー、および、複数の(ときに多様な)マシンを載せるサーバーラック群に行き渡る電源配布ユニットだ。既存のデータセンターとその構成のもとで、すぐに使えるために、モジュール性を重視した設計になっている。

OCP servers at Facebook

FacebookのOCPサーバー

Open Compute Project FoundationのCTO Bill Carterは、今日の声明文でこう述べている: “Microsoftはオープンソースハードウェアの開発に、新しい時代を切り拓いた。コラボレーションと市場化の方法に新しい姿を持ち込んだProject Olympusは、OCPとオープンソースデータセンターハードウェアの、これまでの歴史になかったものである”。

Microsoftは、FacebookなどそのほかのOCPメンバーと同様、自己のデータセンターにおいてOCPのハードウェアを広範囲に利用している。Microsoftによると、同社が購入したサーバーの90%以上は、OCPに寄贈された仕様に基づいている。OCPを創始したFacebookでは、ほとんどすべてのサーバーがOCPマシンだ。Googleも今年初めにOCPに参加したが、クラウドプラットホームのマーケットリーダーであるAmazonは、まずそもそも、未だにオープンソースに向けての動きがなく、今後についても不明である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud Platformにやっと本物のコールドストレージサービスが登場、ストレージ種別は計4種に

Toy Polar bears in freezer

今日(米国時間10/20)ロンドンで行われたイベントで、Googleは同社のクラウドストレージサービスの、二つのアップデートを発表した。中でもいちばん重要なのは、アーカイブ目的のコールドストレージColdlineのローンチだが、ほかにRegionalストレージというサービスも発表された。そして従来のStandardストレージは、“Multi-Region”と名前を変えた(下図)。

すでにGoogle Cloud Storageをお使いの方は、コールドストレージサービスの新たなローンチに驚かれたかもしれない。Googleはすでに、Nearlineという名前で、アーカイブ用ないし災害時復旧用のきわめて安価なサービスを提供しているではないか。ローンチしたときのNearlineは、AmazonのGlacier(氷河)とよく似ていて、きわめて安いストレージサービスだけど、ただしレイテンシ(遅れ)はかなりあるぞ、というサービスだった。でも今年ベータを終えたNearlineは、速度もまあまあになった。3秒から5秒程度のレイテンシはなくなり、データへのアクセスはリアルタイムだ。

今度新設されたColdlineは、これまでNearlineが担っていた、遅れはあるけど安い、という本来のコールドストレージを、あらためて提供する。Coldlineのストレージは月額料金が1ギガバイトあたり0.007ドル(0.7セント)、データの取り出しは1ギガバイトあたり0.05 ドル(5セント)だ。Nearlineの保存料金は月額0.01ドル(1セント)になる。あまり差はないように感じるかもしれないが、膨大な量のデータを保存する場合には、けっこう大きな違いになる。

Googleのスポークスパーソンによると、Coldlineのレイテンシは同社のそのほかのストレージ種別と同じく低い。“Nearlineの低レイテンシが好評だったので、Coldlineの設計でもその特性を重視せざるを得なかった”、そうだ。

Coldlineは、GoogleのSwitch and Save(乗り換えて節約しよう)プログラムに含まれている。企業がこの企画に乗ってデータをGoogle Cloudへ移行すると、100ペタバイトまでは月額のストレージ料金が無料になる。

今回のアップデートで、高速で可用性の高い“standard”ストレージサービスが“multi-regional”と名前を変え、その下に、やや低価格の“regional”サービスが新たに加わる(下図)。

multi-regionalはその名のとおり、冗長性が複数リージョンにまたがる可用性の高いストレージ種別で、あるリージョンがダウンしても、データへのリクエストは別のリージョンへルートされる。その点ではこれまでのStandardストレージサービスと同じだが、multi-regionではその拠点位置がアメリカ、アジア、ヨーロッパの三つになる。

storage-announcement-1-comparison-chart-02

画像提供: Google

つまり既存のStandardストレージで、上記三つの位置のどれかに該当するストレージは、黙っていてもMulti-Regionalに変換され、GoogleのSLAによるとデータの99.95%の可用性が約束される。

そして新たに設けられたRegionalストレージサービスでは、データが単一のリージョンに保存され、SLAによる可用性の約束は99.9%となり、Multi-Regionalよりもやや低い。しかし計算処理とそのためのデータがつねにお互いに至近にあるようなワークロードでは、このやや安いストレージサービスで十分だろう。

ちょっとややこしいのは、既存のDurable Reduced Availability(DRA)ストレージ種別がなくなることだ。それはRegionalにリプレースされるが、しかし既存のDRAユーザーにはサポートが継続する。同社としては、ユーザーのほとんどがRegionalに移行してくれることが望ましいのだ。

以上がGoogleのクラウドストレージの新しい顔ぶれだ。名前が変わっただけ、というものもあるが、総じて今度からは名が体を表しているから、ユーザーにとっても分かりやすいし選びやすいだろう。唯一の新顔のColdlineは、Google Cloud Platform上の初めての本物のコールドストレージサービスだ。それに対して従来からあるNearlineは主に、バックアップやロングテールのコンテンツ*用に使われるだろう。〔*: long-tail content, 種類が非常に多く、個々のアクセス頻度が低いコンテンツ。〕

〔訳注: コールドストレージの“コールド”の本来の意味は、電源が入ってなくて“冷たい”、と言う意味。すなわち、“非常設の”アーカイブ的ストレージ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cloud FoundryがDocker互換のコンテナ管理システムDiegoを立ち上げ、DEAを廃棄へ

steel foundry in Redcar clouds billowing

PivotalとVMwareから孵化したオープンソースのPaaS企業Cloud Foundryが今、新製品のコンテナ管理システムDiegoに力を入れている。同社はこれまで、コンテナの管理にDroplet Execution Agents(DEA)と呼ばれるものを使ってきたが、しばらく両者を並行して使ってみた結果、これからはDiego一本に絞ることにした。この管理システムにより、一つのクラスターの中で最大25万までのコンテナを動かすことができる。

Cloud Foundryのユーザー企業でそれほど大規模にコンテナを使っているところは、まだ少ない。しかし最近のエンタープライズデベロッパーたちは口を揃えて、企業におけるコンテナの採用は多くの人が想像する以上に急成長している、と言う。Cloud Foundry自身の調査でも、今や多くの企業がコンテナを評価中だ。ここ数か月の動向を見ると、実装数はまだそれほど多くはないけれども。

unnamed

Cloud Foundryが目をつけているのは、良質なコンテナ管理サービスにより大規模な展開が容易になれば、企業ユーザーの今後のコンテナの需要とデプロイメントも増え、Cloud Foundry自身の顧客ベースも安定拡大することだ。

しかし、GoogleのKubernetesやDockerのツールなど、既存の(そして比較的よく使われている)コンテナ管理サービスがすでにいくつかある中で、なぜCloud Foundryは、自社製に踏み切ったのだろうか。

Cloud FoundryのCEO Sam Ramjiによると、重要なのは、Dockerによってコンテナが人気者になる以前から同社は、DEAによりコンテナを使ってきた。“しかしそれは標準技術が登場する以前のことなので、かなり癖の強いシステムだった”、とRamjiは語る。たとえば、DEAが前提するコンテナのフォーマットは、独自のものだ。しかしDiegoは、Docker互換だ。つまりそれは、既存のリッチなコンテナエコシステムに、そのまま入っていける。そしてCloud Foundryは、ここ3年ぐらいの間に急速に勃興してきた新しいコンテナ技術の数々を、利用できる。

同社は、DEAの寿命を2017年まで、としている。CloudFoundryの公認ベンダは、それ以降DEAを使ってはならない。しかしこのことは、デベロッパーにはほとんど無関係だろう。Cloud Foundry上でアプリケーションをデプロイするために使うコマンドは、すべて前と同じだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleのクラウドデータベースサービスのすべてがベータを終了、SLA完備、関連ストレージサービスも高速化

cbf_009

Googleが今日、同社のCloud Platformに関するいくつかの発表を行った。その多くは各種のクラウドデータベースに関するものだが、同時に、コールドデータのための安価なクラウドストレージサービスNearlineのアップデートや、ディスクボリュームの高速化、Cloud Storageでユーザー自身の暗号鍵が使えること、などに関する発表も行われた。

全体としてGoogleが訴えたいのは、同社のクラウドコンピューティングサービスが、プロダクション用途に十分使えるほど成熟している、ということだ。

データベースに関するビッグニュースは、Googleのクラウドデータベースサービスのすべてが今やベータを終えたことだ。たとえばクラウド上で容易に利用でき管理もできるMySQLデータベースCloud SQL第二世代バージョンも、9か月のベータを終了して一般公開される。

NoSQLデータベースのCloud Bigtableは、非常に大規模なデータ分析と実動負荷を誇っているが、これもやはり、今日から一般供用される。

datacenter_google

またWebアプリケーションやモバイルアプリから便利に使えるNoSQLデータベースGoogle Cloud DatastoreのAPIも、ベータを終えた。データベース本体はかなり前から一般供用されていたが、デベロッパーはそれを、Google App Engineの一部としてしか使えなかった。でもAPIが使えるようになると、App Engineの外のアプリケーションでもこのデータベースを使える。同社によると、今ではSnapchatなども使っているCloud Datastoreは、毎月1兆リクエストを処理している。

Googleによれば、これらのデータベースサービスにはベータの期間中にいろんな機能を加えてきたが、今現在でユーザーにとって一番重要なのはSLAが提供されたことだろう。たとえばCloud Datastoreは、SLAにより99.95%の月間アップタイムを保証している。

Microsoftの旗艦的データベースサーバーをGoogle Cloudで使いたい人のために、同社はライセンス込みのSQL Serverイメージを提供している(今ベータ中)。既存のライセンスを、そのまま使うこともできる。ただしSQL Serverのイメージを動かすとGoogleの通常のインスタンス使用以上の費用が発生する。それはSQL Server Standardでは1コア1時間あたり$0.1645、SQL Server Webでは$0.011だが、SQL Server Expressは無料だ。

SQL Serverをクラウドで使うならMicrosoftのクラウドを使うのがベスト、という話になりそうだが、しかしGoogleとしては、エンタープライズユーザーを既存のアプリケーションとワークロード込みで同陣営に鞍替えさせるために、このオプションが欠かせないのだ。しかも今や、エンタープライズ顧客のあいだでは、GoogleのクラウドよりもMicrosoftのクラウドサービスの方が人気がある。

なお、ストレージに関する今日の発表では、コールドデータ用の安価なストレージサービスNearlineが速くなった。NearlineはAmazonのGlacier〔氷河!〕ストレージなどと競合するが、低価格と引き換えに可利用性の保証が低い。これまでのNearlineユーザーは、データアクセスにおいて3〜5秒のレイテンシー(遅れ)を我慢しなければならなかったが、これからは、(Googleのスポークスパーソンによると)“ほとんどリアルタイムだ”そうだ。

GoogleのPersistent Diskボリュームも速くなり、最大リード/ライト(IOPS
)が15000から25000にアップした。データベースアプリケーションだけでなく、そのほかのデータの保存にも便利である。

Googleの今日の発表声明文によると、“Google Cloud Platformをみなさまのエンタープライズデータベースワークロードのための最良のパブリッククラウドにしていくための、従来からの弊社の一貫して多大なる献身の継続において、本日は特別に大きな里程標が刻まれたことになります”、だそうだ。Googleが同社のCloud Platformに関してきわめて真剣であることの、証拠はすでに出揃っていると思うが、それでもまだ不満な人は、今日の発表の内容を見るべきかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

DockerがコンテナのオーケストレーションをDocker Engineに統合、単独サービスを不要に

img_20160619_175158

Dockerが今週シアトルで行ったデベロッパーカンファレンスは、事前にチケットが売り切れてしまう盛況だったが、そこでは同社のメインの製品であるDocker Engineに新しい大きな要素が加わった。これまで同社は、コンテナの構築、それらのデプロイ、オーケストレーションなど、主な工程を分割して提供していたが、今回はDocker Engineの中にコンテナのオーケストレーション機能を組み込んだ。

同社はまた、そのツールをMicrosoftのAzureやAmazonのAWSの上で、より容易にデプロイできるようにした。

DockerのCOO Scott John Johnstonによると、これらはすべて、コンテナをもっと使いやすくし、またCEOのBen Golubが今日(米国時間6/20)のキーノートで強調したように、コンテナのオーケストレーションを民主化するための努力の一環だ。コンテナのオーケストレーションは、KubernetesやMesosなど、そのためのフレームワークがすでにいろいろあるにも関わらず、依然としてデベロッパーにとって大きな痛点だ。

docker_engine_swarm_mode

今回Dockerがやったことは、昨年11月にベータを終えたクラスタリングサービスDocker Swarmと、オーケストレーションサービスComposeの、Engine本体中への統合だ。これからは、デベロッパーが”Swarmモード”をonにすると、Dockerエンジンの自己治癒型でお互い同士を発見できるクラスターが作られる。Swarmモードにはオーバレイネットワークのサポートが含まれ、それにより自動的サービス発見とロードバランシングのツールが利用できる。また新たに提供されるService Deployment APIにより、デベロッパーはこれから使うサービスや画像、ポートなどを宣言できる。

Johnstonによると、Dockerの既存のSwarmとComposeツールには何も変更がない。それはユーザーの既存のデプロイを壊したくないからであり、また、サードパーティのツールと併用できるという約束に、違反したくないからだ。同社によると今回の統合化によって“Dockerプラットホームを軸とする構築の機会がさらに拡大され”、またそのプラグイン方式のアーキテクチャにより、今後はネットワーキング、ストレージ、ログ取り、パートナーのモニタリングなど、これらのネイティブなオーケストレーション機能を利用する多方面の進化が期待できる。

docker_swarm-commands

しかしそれと同時に、彼によれば、これらの新しい機能を使いたいと思っているデベロッパーとシスアドミンの両方が、すでに使い慣れている同じDockerコマンドラインを使えるし、アプリケーションをテストしデプロイするために必要なインフラストラクチャをより容易に構成稼働できる。“分散コンピューティングは難しいが、シスアドミンは分散アプリケーションを管理するために学校へ戻るわけにもいかない”、とJohnstonは語る。“これを構築することによって、ノードが複数ある場合にも、必要なことをすべてオーケストレーションツールがやってくれる”。

またDockerの主張によれば、そのシステムは、外部のインフラストラクチャに依存する特定のエラー発生箇所を持つことがない。セキュリティ機能をSwarmモードにも拡張したため、すべてのノードがTLSとDockerのCryptographic Node Identityを使って通信し、アドミンがやることは、ワークロードを信頼できるノードへディスパッチするだけだ。

これらの新しい機能をすべて揃えたDocker 1.12は今、リリース候補(リリースキャンディデート)を利用できる。一般公開は、7月を予定している。その後さらに徹底的なテストを重ねて、Swarmモードなどの新しい機能が商用製品として提供されるのは、今年の後半だ。

IMG_20160620_092304

DockerをAWSやAzureで使う

これらの新しい機能と並行してDockerは今日、Docker for AWSとDocker for Azureを発表した。これにより、Docker Engineをこれら両プラットホームで容易にデプロイできるようになる。Johnstoneは語る、“最近の弊社の拡大した市場には、これまで自分たちが選んで使ってきたインフラストラクチャの上でそのまま、Dockerを使いたい、というユーザーが少なからずおられる”。そこでたとえばDocker for AWSは、AWS自身のインフラサービス(AWS Autoscaling, Elastic Load Balancer, Elastic Block Storeなど)とタイトに統合され、Azureエディションは同様に、Microsoftのクラウドサービスと統合化されている。

ここにGoogleのCloud Platformが抜けていることについてJohnstonは、まず市場の圧倒的多数派に対応した、という。Google Cloudのユーザーは、まだ少数派だ。しかし、複数のクラウドを使いたいというエンタープライズも少なくないので、今後のDocker製品のスケーリングと拡張においては、GoogleやRackspaceなどもサポートしていきたい、と彼は述べる。

IMG_20160620_100449

さらにまた、Docker for OS X(近未来のDocker for macOS?)とDocke for Windowsが非公開ベータを終えて今では公開ベータが提供されている。いずれもDocker体験としては同じだが、AWSやAzureの場合と同様、これらのプラットホーム向けに特別にチューニングされているバージョンだ。

ただしDocker for AWSとDocker for Azureの方は、当面、非公開ベータでのみ提供される。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Dropbox、キャッシュフローが黒字に―CEO、「上場は急がない」

2016-06-15-panzarino-drew-houston-dropbox-8

クラウド・ストレージ・サービス、Dropboxの会社評価額は100億ドルで、たいていの上場企業より巨大だ。しかしファウンダー、CEOのドルー・ハウストンにはDropboxを近く上場する考えないという。

ハウストンは上場の計画について尋ねられ「今のところ全くない」と答えた。サンフランシスコで開催されたBloombergのテクノロジー・カンファレンスでハウストンはDropboxは「目下、成長と人材獲得に集中している」と述べた。

「Dropboxは資金の調達を必要とする状況にはない。〔上場するとすれば〕われわれ自身のスケジュールで行うだろう」とハウストンは述べた。

Dropboxが前回プライベートな資金調達ラウンドを実施したのは2年前になる。投資家にはSequoia、Benchmarkを含む有力ベンチャーキャピタルが含まれていた。ハウストンは財務状況に関するネガティブな報道を否定し、銀行には運営に十分なキャッシュがあることを強調した。

ハウストンはDropboxのキャッシュフローは黒字であることを明らかにし、「投資家の資金ではなく、顧客が支払った料金によってこの重要なステップが達成できたことは、われわれ自身が会社の目的をコントロールできることを意味する」と述べた。

ハウストンはDropboxもいくつかの困難を経験してきたことを認めた。CarouselやMailboxのような新たなビジネスが失敗に終わったことについて尋ねられると、「切り捨てなければならない場合も出てくる。どちらのサービスも100万以上のユーザーを獲得していたが、Dropbox全体の利益には少しもなっていなかった」と述べた。

Fidelityが評価額を大幅に下げるなどいくつかの機関投資家はDropboxの評価額を切り下げている。ハウストンは最近目立っていた「青天井の評価額」に強い懸念を示し、「われわれは『ポスト・ユニコーン』の時代にいるのだと思う」と語った。 「ユニコーン」というのは10億ドル以上の評価額を得たスタートアップ企業のことで、Dropboxの評価額は100億ドルに達しているとはいえ、理論的にはユニコーンだ。

「経済が過熱してくると、企業はファンダメンタルを見失いやすい」と述べたのはあるいはDropboxも財政運営に問題があったことがあったのを認めたのかもしれない。ハウストンは続けて「市場が行き過ぎを修正する局面に入ったら、企業は何をおいても成長の実現に全力を上げねばならない」と述べ、さらに「経営者はコストを厳しくチェックする必要がある。経費は急速に膨れ上がるものだ」と付け加えた。

Dropboxには5億人のユーザーがいるが、同時にこの分野には強力なライバルが充満している。Google、Microsoft、Amazonはすべて同種のクラウド・サービスを提供しているし、エンタープライズ向けクラウド・ストレージのBoxはすでに上場を果たしている

ハウストンによれば Dropboxのエンタープライズ・ユーザーは 15万社もあるということだが、全体としてみれば有料ユーザーの割合は極めて低い。しかしハウストンは「それだけ著しい成長の余地があるということだ」とした。

「この分野を作ったのはDropboxだ。われわれは引き続きこの分野をリードしてく」とハウストンは述べた。

〔日本版〕Drew Houstonの苗字は「ハウストン」という表記が近い。マンハッタンのハウストン・ストリートと同じ発音。Drewはドルー、ドリュー、両方の発音があるが、アメリカ英語では「ドルー」が一般的(母校MITでの卒業式のスピーチのビデオ)。

[原文へ]

(翻訳:滑川海彦@Facebook Google+