GoogleはGoogle Assistantのアプリケーション開発振興のためスタートアップを育てる投資育成事業を開始

Google Assistantのエコシステムをどうしても育てたいGoogleは、ついにそのために自腹を切ることになった。今日(米国時間5/2)の同社の発表によると、Assistantのアプリケーションを作る初期段階のスタートアップに、資金やそのほかのリソースを提供していく新しい事業をこれから立ち上げるようだ。

新製品に関してそのエコシステムを育てたい企業が、こんな事業を発表することはよくある。しかしGoogle Assistantの場合はすでにかなりの数のサービスが開発されているにもかかわらず、同社は“このクリエティビティをもっと鼓舞するために”、新しい事業を立ち上げるのだ、という。

Googleの、検索とGoogle Assistant担当VP Nick Foxも、こう言う: “Google Assistantでは、デベロッパーやデバイスのメーカーやコンテンツでのパートナーたちが新しいユーザー体験を作っていけるための、オープンなエコシステムの育成に力点を置きたい。Google Assistantに関してはすでにデベロッパーたちの多くのクリエティビティが見受けられるが、それをさらに促進するために、初期段階のスタートアップのための新たな投資事業を始める”。

投資だけでなくGoogleは、彼らスタートアップにメンターシップ(個人指導)や、技術者、プロダクトマネージャー、デザイナーなどからのアドバイスを提供する。そしてこの事業の対象になったスタートアップは新しい機能やツールにいち早くアクセスでき、またGoogle Cloud Platformとプロモーションの支援にもアクセスできる。これはまさに、アクセラレーターないしインキュベーターと呼びたいような事業だが、Googleはそう呼んでいない。

Foxによると、投資額に上限はない。“ふさわしいと思われる額を投資して、デジタルアシスタントのアプリケーション(ハードウェアもありうる)開発という、この新しい分野でスタートアップが成功できるように努めていく。しかも資金を提供するだけでなく、これらのスタートアップと積極的にパートナーして、彼らのプロダクトが市場で成功するよう、わが社の強みも生かしていく”。

この事業の対象となる最初のスタートアップGoMomentは、ホテルのためのコンシエルジュサービス、そしてEdwinは英語の個人教授、BotSocietyPulse Labsはデベロッパーツールだ。

これらのスタートアップは、Googleのねらいをよく表しているようだ。Foxによると、Googleが求めているスタートアップは、“旅行やゲームなど、Assistantをおもしろく活用できそうな特定業種をエンドユーザーとする”デベロッパーたちだ。Googleは一部のパートナーシップについてはその関わりをより深めると同時に、一方多くの場合は単純に、Assistantのような技術に関心のあるスタートアップを求めているのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

クラウドホスティングのDigitalOceanもついにコンテナプラットホームを提供

誰もが気軽に使えるクラウドホスティングサービスDigitalOceanが、そのメニューにコンテナサービスを載せた。同社は今でも、安価な仮想プライベートサーバーのホスティングサービスとしていちばんよく知られているが、同社自身はそのうち、クラウドコンピューティングの世界でメジャーになるつもりだ。ホスティングは、そのプランの最初の部分にすぎない。たとえば同社のストレージサービスSpacesは、同社の夢が本気であることを示す一例だ。

しかし今や、コンテナを避けて通れない世の中になっているので、同社が今日(米国時間5/2)、Kubernetesベースのコンテナサービスを立ち上げたのも、もはや意外ではないだろう。

このサービスはまだ初期のプレビュー段階で、ここからサインアップできるが、一般公開は今年の終わりごろだ。

DigitalOceanのプロダクト担当VP Shiven Ramjiはこう述べている: “私たちはいつも、デベロッパーのためのシンプルなソリューションに専心してきた。その最初のプロダクトが、クラウドサーバーDropletsだった。今度のプロダクトも、その例外ではない。デベロッパーは自分のアプリケーションを完成させることに専念でき、複数のアプリケーションにまたがるスケーラビリティの高い安全なクラスターを作って動かすことに伴う、複雑な作業は免除されるのだ”。

そのサービスはDigitalOcean Kubernetesと名付けられ、それによりデベロッパーは、自分のコンテナワークロードをDigitalOceanのプラットホームでデプロイし管理できる。大手のクラウドコンピューティングプロバイダーのほとんどすべてが提供している競合製品と同様に、DigitalOceanのプロダクトも、Kubernetesを動かすことに伴う複雑性の大部分を、抽象化してデベロッパーからは見えなくする。しかし必要ならユーザーは、KubernetesのAPIにフルアクセスして、独自の隔離されたKubernetesクラスターを作れる。

このサービスは同社の既存のサービス、ストレージやファイヤーウォールツールなどを統合している。デベロッパーは自分のコンテナを、DigitalOceanの標準のノードで動かすか、あるいはより強力で計算能力の高いノードで動かすかを、選択できる。また“teams”という機能で、アクセスコントロールができる。さらに、こういうサービスの通例として、通常のパフォーマンスアナリティクスやロギングの機能もある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google MapsがそのAPIの構成と課金方式を抜本的に変えて単純化、月200ドルぶんまで無料

GoogleがGoogle Maps APIを大きくアップデートし、それに伴い名称をGoogle Maps Platformに変えた。

これはこのAPIプラットホームの近年で最大の変化のひとつで、Google Mapsのデベロッパーからの利用を大幅に単純化するとともに、APIの課金方法も変わった。そして6月11日からは、デベロッパーは有効なAPIキーと、Google Cloud Platformの有料ユーザーとしてのアカウントが必要になる。

まず、これまで18に分かれていたMaps APIが三つのプロダクト、Maps, Routes, およびPlacesに統一される。ただし、既存のコードはそのまま無変更で動く。

また課金体系は、これまでのStandardとPremiumという二つのプランに代わり、単一の料金プランになる。サポートはこれまでPremiumプランのみだったが、これからは全域的に無料で提供される。無料プランはないが、月額200ドル相当ぶん*までの利用は無料となる。また、企業顧客向けには特注プランがある。〔*: 上のリンク先に200ドルでどれだけのことができるか、例がいくつか示されている。〕

特定業界向けのMapsソリューションも、既存のものを継続し、今後新たなものをローンチしていく。たとえば今年初めには、Mapsのデータを利用して現実世界を舞台とするゲームを作るゲームデベロッパーのためのプログラムを立ち上げた。そして今日は、アセットトラッキング*とライドシェアリングのための同様のソリューションを発表した。Lyftのアプリは昨年から、このライドシェアリングプロダクトを使っている。〔*: アセットトラッキングサービスの。〕

今日の発表声明は、こう書いている: “われわれのアセットトラッキング提供物は、車両などの資産(アセット, assets)の位置をリアルタイムで追跡し、車両を複雑な行路へルートすることによって企業の効率を改善する。今後はわれわれがインサイトと専門的能力を提供できるようなほかの分野にも、新たなソリューションを導入していきたい”。すなわちGoogle Mapsは今後、そのビジネス利用〜企業利用の本格化多様化に力を入れるようだ。

しかしGoogle Mapsとしてはこれは、正しい方向性だろう。Google Maps APIのアクセスは往々にして、問題を生じてきた。とくに無料利用のレベルを変えたときには、騒動が起きた。今日の変化により、これからはデベロッパーコミュニティからそのようなリアクションが起きることもないだろう。デベロッパーの仕事を、今後長期にわたって楽にしてくれる、と思われるからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

KubernetesをCloud Foundryが本格採用して両社の仲がより密接に

コンテナがソフトウェアの世界を食べている。そしてKubernetesがコンテナの王様だ。そこで、大きなソフトウェアプロジェクトに、とくに企業で関わる人は、いずれこの王様とお近づきになる。今ボストンで、半年に一度のデベロッパーカンファレンスをやっているCloud Foundryも、その興味深い例のひとつだ。

エンタープライズデベロッパーの世界の外にいる人にとっては、Cloud Foundryは馴染みのない名前だが、今ではFortune 500社の約半数がユーザーだ(スタートアップのユーザーはあまりいない)。Cloud Foundryをよく知らない人は、Herokuに似ている、と思ってもよい。ただしそれは商用ユーザーの大きなエコシステムのあるオープンソースのプロジェクトで、そのどんなクラウドやオンプレミス上のインストールでも、そしてどんなに大きなスケールでも、動かすことができる。デベロッパーは自分のコードを(Twelve-Factorの方法論–日本語–に従って)書き、実行に必要なものを定義すると、それが動くためのインフラや、必要なスケーリングについては、すべてCloud Foundryが面倒見てくれる。デベロッパーは自分のアプリケーションをどこで動かすか、どうやってもっと効率的に動かすかなどを、考えなくてよい。

それだけのことを可能にするためにCloud Foundryは、Dockerなどがまだ存在しない、きわめて初期のころからコンテナを導入した。そのころKubernetesはまだなかったので、Cloud Foundryに関わっているさまざまな企業が一緒になって、独自のコンテナオーケストレーションシステムを作った。それは今日のサービスでも利用されている。しかし、コンテナベースの開発が普及するに伴い、Cloud Foundryのエコシステムでも、Kubernetesをサポートせよ、という声が高くなった。昨年Foundationはその方向への第一歩を踏み出し、コンテナを管理するための、KubernetesベースのContainer Runtimeをローンチした。それが、これまでのApplication Runtimeの隣に座る。これによってデベロッパーは、Cloud Foundryを使って、彼らが開発する新しいサービスと並列に、彼らの新旧の一枚岩的なアプリケーションを動かし管理することもできる。

でも、Cloud FoundryではApplication Runtimeのための同団体独自のコンテナサービスをなぜ使い続けるのだろうか? 今ではKubernetesやそのほかの各種プロジェクトが出揃ってきて、それらがコンテナを扱うためのデフォルトになっているから、そんなことをする理由はないはずだ。そこで、当然とはいえ、今では、古いコンテナ管理システムをなくして、それらをKubernetesで置き換えていくCloud Foundryのプロジェクトがある。今やコンテナ管理の部分は、Cloud Foundryの差別化要因ではない。むしろ、Cloud Foundryの最大の差別化要因はデベロッパー体験であり、Cloud Foundryのそもそも中心的メリットは、デベロッパーがインフラストラクチャの内部構造をまったく気にする必要がない、という点にある。

Cloud FoundryのエコシステムがKubernetesに傾くことには、もうひとつの側面がある。Cloud Foundryも同じくソフトウェアだから、それをKubernetesの上で動かして悪い理由はない。だから、SUSEやIBMなど、Cloud Foundryの最大のベンダーたちの一部も、まさにそうしている。

Cloud Foundryの公認ディストリビューションであるSUSE Cloud Application Platformは、どのパブリッククラウドのKubernetesインフラストラクチャの上でも動く。それにはMicrosoftのAzure Container Serviceも含まれる。SUSEのチームによると、その方がデプロイが容易であるだけでなく、リソースの節約にもなる(アプリケーションがより少ないリソースで動く)。

同じくIBMも、今では顧客にKubernetesの上でCloud Foundryを提供している。ただしそれはまだ、実験段階だそうだ。IBMのCloud Developer ServicesのゼネラルマネージャーDon Bouliaが強調するのは、IBMの顧客の多くは自分たちのワークロードを、IBMのそのほかの顧客に共有されない隔離された環境で動かしたがることだ。

Bouliaによれば、多くの顧客に、KubernetesかCloud Foundryか、という視点はない。彼の顧客の多くにとっては、Kubernetesを使うことが即、自分たちの既存のアプリケーションをクラウドへ移すことだ。そして新しいアプリケーションに関しては、Cloud Foundryを動かすことを選ぶ。

SUSEのチームも、同じことを強調している。SUSEの顧客のひとつのパターンとして、彼らはコンテナ環境をセットアップしたくてSUSEにやってくるが、しかしその商談の過程で、Cloud Foundryを実装することを決心するのだ。

というわけで、今週のイベントのメッセージはまさに、KubernetesとCloud Foundryが互いに補完的な技術だ、ということだ。そのイベントのパネルディスカッションで、GoogleのContainer EngineとKubernetes担当技術部長Chen Goldbergも、その点を強調した。

Cloud Foundry Foundationと、KubernetesのホームCloud Native Computing Foundation(CNCF)は共に、Linux Foundationの傘下にある。しかしCloud FoundryはCNCFに比べて圧倒的にエンタープライズユーザーの比重が大きい。そこには何らかの政治が絡んでいるのかもしれないが、でも両団体は互いに十分に友好的で、メンバーも相当重複している。PivotalのCEO Rob Meeは、本誌のRon Millerの取材に対してこう述べた: “うちは半分CNCFで半分Cloud Foundryだ。二つのコミュニティはますますいろんな技術を共有し合っているし、共に進化している。完全に独立でもないし、競争関係もない。関係はもっといろいろ複雑で微妙だ。CNCFとCloud Foundryはどちらも、大きなエコシステムの部分であり、互いに補完し、収束している”。

つまりCNCFとCloud Foundryの技術共有と、もしかしてコラボレーションは、今後も増えるということだろう。CNCFはクラウドネイティブなアプリケーションを作るための、とてもおもしろいいろんなプロジェクトのホームであり、そしてそれらのユースケースの多くはCloud Foundryにもある。

関連記事: Cloud Foundry財団、Alibabaがゴールド会員に――中国のクラウドのオープンソース化加速へ

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

cloud.govの公式参加でアメリカ政府省庁のCloud Foundryの採用が容易になった

ボストンで行われたCloud Foundry Summitで、アメリカ政府のアプリケーションプラットホームcloud.govCloud Foundryの公認プラットホームになり、そのほかの公認プロバイダー、IBM, Pivotal, SAP, そして今日からはSUSEなどとの互換性が保証される、と発表された。これによりcloud.govは、初めてのCloud Foundry公認政府機関になる。

この認定により、Cloud Foundryをサポートするさまざまなプラットホームのすべてが、お互いの互換性を確実に保証される。政府という文脈ではこれは、省庁が容易に彼らのワークロードを複数のクラウド間で移動できることを意味する(それらのクラウドがすべてに政府の証明があるとして)。しかしさらに重要と思われるのは、スキルのポータビリティが確実になることだ。それにより、コントラクター(政府下請)の起用や選択も容易になる。オープンソースのCloud Foundryは民間セクターでも広く採用され、Fortune 500社の半分は利用しているから、アプリケーションを構築するプラットホームを決めるときも、そのことが重要な要素になる場合が多い。

cloud.govは、General Services Administration(米国総務庁)の18階オフィス(18F)が、アメリカ政府の公開Webサイトやアプリケーションを改良するために立ち上げたサイトで、最初からCloud Foundryの上に構築されている。オーストラリアとイギリスの類似省庁も、同じ決定によりCloud Foundryプラットホームに標準化している。Cloud Foundryが認定事業を始めたのは数年前だが、昨年は個々のデベロッパーのスキルを認定するための事業を立ち上げた。

政府のワークロードを動かせるためには、そのクラウドプラットホームは一定のセキュリティ要件を満たす必要がある。Cloud Foundry FoundationのCTO Chip Childersによると、18Fがcloud.govのためにFedRAMPの認可でやった仕事が、アップストリームのプロジェクトのより良いコントロールに役立っている。そして彼は、このプラットホームを採用した政府のすべてが、そのすべてのプロジェクトに貢献してきた、と強調した。

〔参考: Cloud Foundry Wikipedia日本語Wikipedia)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleとNetflixがオープンソースのカナリア分析ツールを共同開発、プロダクションレベルの問題発掘を目指す

【抄訳】
GoogleとNetflixが今日(米国時間4/10)、Netflixが内製したカナリア分析ツールを一般公開することになるオープンソースのプロジェクトKayentaのローンチを発表した。Kayentaは、Netflixで育った継続的デリバリのプラットホームSpinnakerに統合されており、それはパブリックかプライベートかを問わずほとんどすべてのクラウドで使える。今回のリリースはSpinnakerにフォーカスがあるが、しかしKayentaはそのほかの環境にも適応させられる。

カナリア分析は、概念としては単純明快である。その名前が示しているように、サービスやインフラストラクチャを展開またはアップデートしたときの大きな問題を防ぐための早期警戒システムだ。展開やアップデートの対象をユーザーやサーバーやネットワークの一部に絞って行うテスト的実施で、カナリア分析は新しいシステムの振る舞いが正しいこと、あるいは前と変わらないことをチェックする。各ステップでシステムはチェックを実行し、その展開やアップデートが、通常のテストでは問題ないが、もっと複雑なプロダクションシステムに投じられたときにも問題が生じないことを、それら各ステップで確証していく。

GoogleのプロダクトマネージャーAndrew Phillipsによると、すでにそれをやっているデベロッパーは多いけれども、しかしそれはしばしば、非公式に行われている。チームがアプリケーションをビルドすると、いくつかのサーバーにデプロイしてみて数分動かし、ダッシュボードに異状が出ていないかチェックする。そんなやり方は人的エラーにつながりやすいし、偏りもありうる。それに対してカナリア分析ツールは、いくつかの測度の値を求めて、そのコードの完成度を客観的に判定する。コードのテストは多くの企業が自動化しているが、その種のテストではコードをプロダクションに投じたときに起きる問題を捉えられないことが多い。とくにそのプロダクション環境がマイクロサービスの集合から成り、それらが予期せざる対話をし始めたような場合には、お手上げとなる。

【後略】
〔以下、技術的な話題よりも、G社N社共同開発の経緯が中心。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

学費不要で完全な技術者を育てるHolbertonが$8Mを調達して学生数を増やす

ここ数年でHolberton School of Witchcraft and Wizardry Engineeringはもっと総合的なプログラミングスクールとして知られるようになった。二年の教程で完全なエンジニアを育てようとする同校は、今では大学の専門学部の課程と比べて遜色ないと見なされている。今日(米国時間4/9)、サンフランシスコに拠を構える同校は、今後の拡張を支えるシリーズA、820万ドルの資金調達を発表した

そのラウンドは現在の投資家daphniTrinity Venturesがリードした。そして、Omidyar Networkが新たな投資家として参加した。これで同校の資金調達総額は、1300万ドルになる。

Holbertonは現在、約200名の学生を教えている(厳しい入学試験がある)が、それを今後1000名に増やす計画だ。最近同じサンフランシスコ市内で移った大きなスペースは、500名の収容能力がある。アメリカのいちばん大きな大学等でも、コンピューターサイエンスの学生が500名〜1000名もいるところはない。これまでの卒業生はApple, IBM, Tesla, Docker, Dropboxなどに就職している。学生が納めるべき学費はないが、就職後3年間は給与の17%を同校がいただく。

同校は、人種や性別などにとらわれず多様な学生を受け入れることをモットーにしているし、学生ローン等の負債状況も問わない。最近のクラスでは、学生の約40%が女性だ。そして、マイノリティの方がやや多い。残念ながらシリコンバレーでは未だに、こんな学校や企業は珍しい。

協同ファウンダーでCEOのJulien Barbierはこう述べる: “第一級の教育は、誰もが受ける資格がある。Holbertonの学生は、背景がきわめて多様だ。昨日までスーパーのレジをやってた子もいれば、ミュージシャンやポーカーのプレーヤー、高校を出たばかりの子に、金のない人、などなど。しかし全員が、受ける教育だけはアイヴィーリーグ(名門大学)級であるべきだ。Holbertonでは、全員に恵まれた人びとと同じ機会が与えられ、今後の全人生を投ずる価値のあるスキルを習得する。ここの学生たちは、ときにはわずか9〜12か月で、アイヴィーリーグの卒業生たちと競争して就職している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GitLabがGoogleのKubernetes Engineを統合、コンテナアプリケーションのデプロイが超簡単に

今や多くの人が使っているVCSのGitを、独自にホストしているサービスとして人気の高いGitLabが、最近とくに好調だ。わずか2週間前にはGitHubとの統合を発表したが、今日はGoogleのKubernetes Engine(GKE)を統合してクラスターの展開を自動化し、ユーザーであるデベロッパーが自分のアプリケーションをほんの数クリックでデプロイできるようにした。

この機能を作るために同社はGoogleと協働したが、しかしこの統合はGitLabに前からあるAuto DevOpsツールを大々的に使っている。それは、コンテナを扱うためのよく似た機能をすでに提供していた。Auto DevOpsは、CI/CDパイプラインのセットアップやコンテナへのデプロイなど、面倒な仕事をすべて引き受けることをねらっている。

しかし、“GKEを統合する前は、GitLabのユーザーは自分のクラスターを管理するためにKubernetesの深い理解を必要とした”、とGitLabのCEO Sid Sijbrandijは今日の発表で述べている。“Googleとの協働により、われわれのユーザーはGoogle Cloud Platform上に、管理サービスを伴うデプロイ環境をセットアップし、GitLabの堅牢なAuto DevOpsの能力を利用することが簡単になった”。

このGKEの統合を利用するためには、デベロッパーはGitLabから自分のGoogleアカウントに入るだけだ。GKEがクラスターを自動的に管理するので、デベロッパーは自分のアプリケーションを書くことに集中でき、デプロイと管理はGitLabとGoogleにまかせられる。

この新しい機能はGitLab 10.6 releaseの一部として、GitLabの全ユーザーが今すでに利用できる。

〔この記事の日本語訳。〕

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GitLabがライバルのGitHubをサポート、CI/CDで顧客を取り込みたい

おもしろい展開だ。チームがコードを共有するための共有リポジトリを提供するサービス、という点では多くの点でGitHubと競合するGitLabで、その継続的インテグレーションとデリバリ(continuous integration and delivery(CI/CD))の機能がGitHubをサポートすることになった

今日(米国時間3/22)ローンチするその新しいサービスは、GitLabがホストするサービスの一環だ。2019年の3月22日までは無料で利用できるが、その後は、GitLab.comの有料のSilverティアへ行く。

GitHubもやはり、そのコアツールの上の層としてベーシックなプロジェクト管理やタスク管理のサービスを提供しているが、しかしDevOpsのライフサイクルのほとんどの部分はパートナーたちにまかせている。GitLabは、複数のコードリポジトリを統合するなど、もっと完全なCI/CDソリューションを提供しているが、GitLabの人気もけっして低くはないけど、GitHubはデベロッパーや企業による知名度ではGitLabを大きく引き離している。というわけで今回GitLabは、コードをGitHubに保存しているけどより完全なCI/CDソリューションも使いたい、という新しいユーザー、とりわけエンタープライズユーザーを獲得したいのだ。

今度の新たなGitHubの統合により、デベロッパーは自分のプロジェクトをGitLabでセットアップし、それらをGitHubのリポジトリに接続できる。するとデベロッパーがコードをそのGitHubのリポジトリへプッシュするたびに、GitLabがそのプロジェクトのCI/CDパイプラインを動かし、ビルドとテストとデプロイを自動化する。

GitLabのCEOで協同ファウンダーのSid Sijbrandijはこう述べる: “継続的インテグレーションとデプロイメントは現代的なDevOpsの根幹だ。今回の新しいサービスにより、GitHubをコードリポジトリとして使っている企業やオープンソースのプロジェクトは、GitLabの、業界のトップを走る高度なCI/CDサービスを利用できる”。

なおGitLabは、AtlassianのBitBucketの、今回とよく似た統合も提供している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMがローコードプラットホームMendixをIBM Cloudに統合、新しいタイプのユーザー獲得をねらう

IBMが今日(米国時間1/25)、ローコード開発プラットホームMendixとのパートナーシップを発表した。これによりMendixは、IBMのWatsonなど多くのIoT/AIサービスとともに、IBM Cloudにネイティブで統合されることになる。IBM CloudはそれまでIBM Bluemixと呼ばれていたが、すでにそのころから同社とMendixとのパートナーシップは存在している。

この、新たに進化したパートナーシップによって、IBMはMendixをIBM Cloudに持ち込み、同社自身のツールとのより深い統合を行う。IBM Cloud PlatformのゼネラルマネージャーDon Bouliaによると、IBMのプラットホーム上の既存のデベロッパーたちは必ずしもMendixのようなローコード/ノーコード方式に積極的なタイプではないが、しかし今回のパートナーシップによってIBMは、これまで同社のクラウドサービスを活用できなかったデベロッパーや、なるべく早くプロトタイプを作りたいと願っている高度なデベロッパーなど、新しいデベロッパー集団に訴求できるようになる。

Mendixを同社のクラウドに加えることによってIBMは明らかに、その多様なサービスにさらに多くのユーザーを惹きつけたいと願っている。まず挙げられるのが、WatsonのAIサービスとのディープな統合であり、それはたとえば、Conversationサービスによるチャットボットの構築や、翻訳サービス、テキストの音声変換など、またWatson Tone Analyzerによるテキスト中の感情理解、そしてWatson Visual Recognitionサービスなどだ。Mendixのコネクターキットを使えば、IBMのIoTやブロックチェーンサービスにもアクセスできる。

IBMのIoTやブロックチェーンのAPIを扱うようになれば、Mendixのビジュアル開発ツールの枠を超えて、これらのツールをフル活用することになるだろう。

Mendixは、他のすべてのローコードプラットホームと同様に、アプリケーション開発を10倍スピードアップすると約束している。またIBMは、同社のサービスによってデベロッパーが自分たちのアプリケーションを、コンテナやCloud FoundryのようなプラットホームからIBM Cloudへ容易にデプロイできる、と訴えている。

〔参考記事: Mendix日本語解説

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

外出先などでモバイルからVCSのリポジトリを管理できるAssemblaのiOSアプリ

ソフトウェア開発は必ずしも、モバイルに向いている仕事とは言えない。仮想キーボードと小さな画面で誰が一体、コードを書きたいだろうか。でも、コードを管理したり、出先でファイルの更新履歴を確認したいとき、デスクトップやラップトップがなければだめ、では困る。そこで、クラウドベースのエンタープライズ向けバージョンコントロールサービスで、GitHubのコンペティターでもあるAssemblaが今日(米国時間12/14)、iOS用のモバイルアプリ発表した

Assemblaのユーザーはこのアプリを使って、GitやSubversion、PerforceなどのリポジトリをiPhoneやiPadから容易に管理できる。いろんなファイルのリビジョンを比較したり、コード中のテキスト文字列でファイルを検索したり、ファイルの詳細なリビジョン履歴(誰が何をしたか)を調べたりできる。

とくに便利なのは、ファイルがリポジトリに加わったり削除されたり変更されたとき、プッシュ通知が来る設定ができることだろう。SVN(Subversion)のロック操作もモニタできる。

このアプリを利用してコードを書きたいとは誰も思わないだろうが、ざっとコードレビューをしたり、簡単なコミットぐらいなら十分できるだろう。ただしこのアプリは現状ではAssemblaのリポジトリしか管理できないよう、ロックされている。しかし自分のGitHubアカウントをモバイルから管理したければ、そのためのモバイルアプリはいくつかすでにある。でも、Assemblaのプロダクト担当VP Laith Dahiyatが、“ユーザーの要望が多ければ、それを無視することはない”、と言っているから脈はあるね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GitLabがGVのリードするシリーズCで$20Mを調達、ソフトウェア開発〜リリースの総合ソリューションを目指す

デベロッパーのためのコラボレーションとDevOpsのプラットホームGitLabは現在、10万あまりの企業が利用している。同社は今日(米国時間10/9)、GV(元Google Ventures)がリードするシリーズCのラウンドにより2000万ドルを調達したことを発表した。これでGitLabの総調達額は4550万ドルあまりとなる。

新たな資金調達に加えて同社は今日、WordPressの協同ファウンダーMatt Mullenwegが同社の取締役会に加わったことを発表した。

GitLabは、その名が示すように、gitをベースとし、デベロッパーがコードのリポジトリーをセルフホスティングしていくためのオープンソースのツールだ。しかし2014年のローンチ以来同社は、そのほかのDevOps向けサービスをいくつも新設してきた。それらの中にはワークフローツールがいくつかあり、またコードのレビューやリリースを容易にできるためや、アプリケーションのモニタリングのための機能すらある。

そこで同社は、自己のミッションを次のように定義している: “現代のソフトウェアデベロッパーのためのシームレスで総合的なプロダクトを開発し、またKubernetesによるソフトウェア開発のためのアプリケーションになること”

そう。今やGitLabですら、Kubernetesというゲームに深く関わりたいのだ。

GVのゼネラルパートナーDave Munichielloは、今日の声明文の中で次のように述べている: “Fortune 500社は今、互いに競ってワールドクラスのソフトウェア開発組織を作ろうとしており、またそれらに、世界最大のテクノロジー企業なみのスピードと生産性とクォリティを持たせようとしている。これらの組織は高品質で大規模なコードを作るべく努力しているので、最高クラスのツールとプラットホームを必要とする。GitLabのプラットホームは、コラボレーションとオートメーションを強調することにより開発プロセスを加速する。GitLabのハイブリッドでマルチクラウドのソリューションはデベロッパーに好まれており、その分野で巨大なファン層を形成している”。

GitLabの現在のユーザーには、Ticketmaster, ING, NASDAQ, Sony, Intelなどもいる。

新たな資金の使途について同社は、“ソフトウェアのパッケージングとリリース方式と構成とモニタリングに関して新たな機能性を加えたい”、と言っている。

同社の競合サービスはGitHubやAtlassianのBitBucketなどだが、GitLabによると、セルフホスティング型のgit市場では同社が2/3のシェアを占めるそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleがアプリデベロッパーのための新しいデータベースCloud Firestoreを立ち上げ

Googleが今日、アプリデベロッパーのためのプラットホームFirebase用に、新しいデータベースサービスを立ち上げた。そのCloud Firestoreと呼ばれるデータベースは既存のFirebase Realtime Databaseを補完するもので、両者の重複部分も多い。

Firebaseの協同ファウンダーJames Tamplinによると、Realtime Database(RTDB)はつねに、Firebaseプラットホームの旗艦的プロダクトであった。そのサービスは今や、数十万ものデベロッパーに利用されている。そしてTamplinの説では、デベロッパーにそれほど人気があるのは、データベースアクセスがリアルタイムであり、しかも管理やスケールアップ/ダウンはGoogleがやってくれるからだ。

彼によると、しかしそうやってサービスの規模が大きくなると、デベロッパーが不満を感じる部分も出てきたので、それを解決するためにCloud Firestoreを立ち上げた。不満はたとえば、RTDBでは複雑なクエリを扱いにくい。プラットホームのアーキテクチャのせいで、同時接続デバイス数が10万を超えるとシャーディングでデータベースを分割しなければならない。それでは、RTDBの本来の利点がなくなってしまう。

既存のデータベースサービスの改築工事はきわめて困難なので、チームは新築を選んだ。Cloud Firestoreはまったく新たに設計され、さまざまなユースケースをサポートする。たとえば、ローカルなデータベースを併用してオフラインのアプリを作るとか、複数のアプリやユーザー間でデータのリアルタイムのシンクができる、など。

すべてのデータが複数のリージョンにまたがって自動的に複製され、整合性も完璧だ。また、前と同様、スケーリングは自動的に行う。

さらに、Cloud Firestoreのクライアント側SDKにはアプリの認証やネットワーキングのコードもあり、またそのバックエンドは、いくつかのセキュリティルールによりデータへのアクセスを制御し、ユーザーの正当性を検証する。したがってアプリは、ユーザー確認のためのプロキシなどを使わずに、直接データベースにアクセスできる。

そしてもちろん、これらがすべてFirebaseのプラットホームに深く統合されている。したがってGoogleのサーバーレスプラットホームCloud Functionsも使える。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Compute EngineではそのVMインスタンスの上で別の仮想マシンを動かせる、マトリョーシカのように

クラウドコンピューティングの、これからご紹介する機能は、ちょっと変わっているが、でも実用性は十分にある。GoogleのCompute Engineが今日(米国時間9/28)、“nested virtualization”(入れ子状の仮想マシン)と呼ばれる新たな機能を、ベータでローンチした。その名のとおり、VMの中でVMを動かせるのだ。

でも、なんでそんなことを? Compute EngineのプロダクトマネージャーScott Van Woudenbergが、今日の発表声明でこう説明している: “企業がオンプレミスで仮想マシンを動かし、その上にアプリケーションがあるとき、それらをクラウドへ移行するためにはnested virtualizationを便利に利用できる。VMのイメージをインポートして変換する必要がない。dev/test(開発/試験の繰り返し)やCI/CD(継続的インテグレーション/継続的デリバリー)などで、複数の環境でソフトウェアを検証する必要のあるワークロードでは、nested virtualizationが最適である。”

彼によると、これによりクラウドベースの災害復旧ソリューションをより安価に作れるし、教育訓練や資格認定のためにさまざまな仮想環境をセットアップしたい企業にとっても便利だ。被験者の全員に、確実に同じ環境を提供できるからだ。

この機能は、プリエンプティブVMを含め、Compute EngineのどのタイプのVMでも利用できる。唯一の要件は、その(ユーザーの)VMがIntelのHaswell以降のCPUで動くことだ。

実際にどうやるかというと、まず通常のVMをセットアップし、そのインスタンスの上にKVM互換のハイパーバイザーをインストールする。Googleによると、今のところKVM非互換のハイパーバイザー、Xen, ESX, それにMicrosoftのHyper-Vなどはサポートされない。使用するインスタンスも、Linuxインスタンスのみである。Windowsマシンではnested virtualizationを使えない。

なお、Microsoft Azureはすでにnested virtualizationをサポートしている(Hyper-Vハイパーバイザーを使用)。AWSでは、OracleのRavelloのようなツールを使って同様の機能を実現できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft Azureにバースト的なワークロードのための新しいVMタイプが登場

Microsoftが今日(米国時間9/11)、同社のクラウドコンピューティングプラットホームAzureの、新しいタイプの仮想マシンをプレビューで発表した。この、バースト的なワークロードに適しているとされる、その名もBシリーズマシンは、今のところもっともローコストなAzureマシンで、CPUの利用度を目的に応じ選べる(下表)。Webサーバーや小規模なデータベース、開発/試験環境などのワークロードに向いているだろう。

このBシリーズのマシンは、バーストできるパフォーマンスを提供するという意味でAWSのT2インスタンスに似ており、仮想CPUのフルパワーを必要としないときは使わないぶんをクレジットとして築ける点でも同じだ。Googleのf1-microとg1-smallのインスタンスも、ほぼ同じだ。マシンがアイドルのときクレジットを蓄えられるから、通常のVMよりも費用を節約できる可能性があり、しかも必要なときには十分なパワーを利用できる。

Microsoftが提供するこのBシリーズマシンには6つのバージョンがあり、いちばん安いのはシングルコアのVMと1GBのメモリで1時間1.2セント、そして最高は8コア32GBのマシンで1時間37.6セントだ。これらはLinuxマシンの場合の料金だが、Windowsマシンの場合は例によってやや高くなる。プレビューの間は、料金はこれらの半額である。

これらの新しいマシンタイプが提供されるのは、最初はアメリカ(West 2, East)、ヨーロッパ(West)、アジア太平洋(Southeast)のゾーンのみだ。プレビュー期間に利用してみたいデベロッパーは、クォータをリクエストする必要がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがモバイルWebのデベロッパー資格認定事業を開始、4時間の試験を受けるのだ

Googleが今日(米国時間9/5)、モバイルのWebデベロッパーを認定する事業Mobile Web Specialist Certification立ち上げた。デベロッパーは、これまでどうやって学習したかにかかわらず、この認定により自分にモバイルWebの開発スキルがあることを、世の中に対して示せる。この事業は、Androidデベロッパーやクラウドアーキテクト、データエンジニアなど、Googleの既存の資格認定事業の一員になる。

試験は辞書参考書など持ち込み自由で、受験料は99ドル、インドでは6500インドルピーだ。さまざまなコーディング(プログラミング)の問題があり、最後に10分間の面接がある。面接では、試験の問題に対し自分が選んだ解の根拠や理由を述べる。制限時間は4時間で、最大三回までトライできる。問題の範囲は、Webサイトのベーシックなレイアウト、スタイリング、先進的なWebアプリケーション、パフォーマンスの最適化、キャッシング、試験とデバッグなどだ。

Googleはこの試験のための学習案内を提供している。これで、受験勉強をしよう。

試験に合格したらバッジをもらえるので、それを履歴書やソーシャルメディアのプロフィールなどに表示できる(資格証明のため)。説明には、バッジはGoogle+のプロフィールでも使える、と書いてあるるが、いちいちそれを書く理由がよく分からない。もちろんこれは、いわゆるデジタルバッジではない。主な目的は、求職の際などに自分のスキルを強調するためだ。まだGoogle自身のテストを経ていない事業だから、この資格が求職の際の本人評価にどんな影響を及ぼすか、それは現時点ではまだ分からない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonがあらゆるサードパーティデバイスにAlexa機能を持たせるべくSDKを無料オープンソースで公開

Amazonは、同社の仮想アシスタントAlexaを、Echoなど同社自身のハードウェアだけでなく、もっといろんなデバイスに載せたい、と考えている。そこで同社は今日(米国時間8/17)、AlexaのSDKを一般公開することによって、商用デバイスのメーカーたちがAlexa機能のある製品を作れるようにした。そのツールセットAlexa Voice Service Device SDKを利用すれば、各種のデバイスに完全なAlexaの能力を持たせて、音声認識だけでなくメディアのストリーミング、タイマーやアラーム、通知、天気予報、そしてAlexaの‘スキル’と呼ばれている何千もの音声アプリケーションにもアクセスできる。

Amazonによると、このSDKはこれまでのプレビューの間、特別招待のデベロッパーにのみ提供されていた。その間、50社あまりの商用デバイスのメーカーが、自分たちの製品にAlexaを実装した。

Amazonが今朝のデベロッパー向けブログ記事で、そのいくつかを紹介している。たとえばTechnicolorはAlexaを同社のHome Networking GatewayとExtenderに加え、ベルリンのスマートホームデバイスメーカーSenicは、同社のスマートホームハブCOVIにAlexaを加えている。

Amazonはここしばらく、Alexaの機能や、マイクロフォンの配列のような、音声駆動デバイスを構築するための根幹となる技術に、容易にアクセスできるためのやり方を検討してきた。

今回のAlexa Voice Service Device SDKもその努力の一環で、今やすべてのデベロッパーが、GitHub上の無料でオープンソースなライセンスでこれを利用できる。このSDKはその中に一連のデベロッパー支援ツールを総まとめしており、ハードウェア開発キットやAPI、Alexa対応デバイスの作り方が書かれているドキュメンテーションまでも含まれている。

Amazonのこのやり方が結実している製品として、たとえばHuaweiのスマートフォンMate 9が挙げられる。これには単純に、音声アシスタントオプションとしてAlexaがある。またスマート温度計Ecobee4や、インターネットラジオTribyさらにスピーカー目覚まし時計インターコム、そしてスマートウォッチにも、Alexa実装の例がある。

一方Amazon自身もAlexaデバイスの幅を広げようとしており、今度の新しいEchoスピーカーには、カメラ付きのEcho Look、画面付きのEcho Showなどがある。

Alexaを載せたデバイスのすべてが、Echo並に成功するとは限らないが、でもやらないよりはやってみるべきだ。今やAlexaのプラットホームには、音声コンピューティングのためのAndroid OSと呼べるほどの広がりがあり、トップの座、すなわち大きなマーケットシェアと多くのユーザーを、ますます維持確保しやすくなっている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftが完全な管理を伴うイベントルーティングサービスAzure Event Gridを立ち上げ

Microsoftが今日(米国時間8/16)、Azure系列の新製品をプレビューとして発表した。それは、イベントベースのアプリケーションを作りやすくするためのツールだ。

そのAzure Event Gridは、画像やビデオがアップロードされた、ボタンがクリックされた、データベースがアップデートされた、などなどのイベントをAzureの正式のオブジェクトとして扱う。Event GridはMicrosoftの既存のサーバーレス製品Azure FunctionsやAzure Logic Apps(の足りない機能)を補完して、完全に管理されたイベントルーティングサービスへのアクセスを与える。この新しいサービスにより、どんなイベントに対しても、それを受け入れて反応する柔軟性が与えられる。それらは、Azure内部で起きるイベントでも、あるいはサードパーティのサービスや既存のアプリケーションで起きるイベントでもよい。

Event Gridを使うと、イベントを特定のエンドポイント(あるいは複数のエンドポイント)へルートしたりフィルタできる。

“サーバーレス”という言葉は、最初から一貫して誤称だ。たしかにアプリケーションはサーバーを呼び出さないけど、イベントに応じて何かをやるのは依然としてサーバー、というかサーバー上のコードだ。サーバーレスプラットホームの基本的なコンセプトは、このモデルではイベント駆動のアプリケーションを、それを支える低レベルのインフラストラクチャ(サーバーなど)をまったく気にせずに作れる、という点にある。

たとえば、MicrosoftのAzure ComputeのディレクターCorey Sandersによると、Event Gridは、マイクロサービスを作るためのMicrosoftのプラットホームService Fabricの上にあるが、デベロッパーはそのサービスについて何も知る必要がなく、プラットホームがすべての面倒を見る。

Event Gridはwebhookのエンドポイントとして、どんなアプリケーションからでも入力を取れるから、Azure FunctionsやLogic Appsなどよりもやや進んでいる。“目標は、顧客が管理でき操作できる正式のオブジェクトとしてのイベントを提供することだ”、と、Sandersは語る。基本仕様としてEvent Gridは、Azure Blog StorageやResource Manager, Application Topics, Event Hubs, Azure Functions, Azure Automation, そしてLogic Appsをサポートしている。またCosmosDBデータベースサービスやIoT Hubなどの新しいサービスも、年内にはサポートされる。IoTアプリケーションはイベント駆動が定石だから、IoT Hubのリリース時点でイベントのサポートがなかったのが、むしろ意外だ。

標準的なサーバーレスアプリケーションとインテグレーションはLogic Appsがあれば十分かもしれないが、Event Gridを使えばオペレーションのワークフローの一部を自動化でき、たとえば新しい仮想マシンやデータベースの立ち上げなどにも、自動的に対応できるようになる。

Event Gridの料金は処理するオペレーションの数による。最初の10万オペレーションは無料、そしてその後、100万オペレーションごとに60セントだ。現在のプレビューの時点では、30セントとなる。ひとつのオペレーションは、入力処理、高度な数値演算、デリバリの試み、管理タスクの呼び出しなどだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud Speech APIが大幅アップデート、対応言語が増え、言葉にタイムスタンプを付着

2016年にローンチしたGoogleのCloud Speech APIは、話された言葉をテキストに書き起こす。このAPIが今日(米国時間8/14)、大幅にアップデートされた。

中でもいちばんおもしろいのは、これまでの89言語に加えて新たに30の言語が加わったことだろう。ただしこれらの数字には、英語とスペイン語とアラビア語の地域的な変種が複数含まれている。今回新たに加わったのは、ベンガル語、ラトビ(ヴィ)ア語、スワヒリ語などで、Googleによると、それらを話す人は約10億人いる。

重要な新しい機能もいくつか加わった。たとえば、言葉にタイムスタンプが付くこと。これにより元の音声と書き起こしテキストに同じタイムスタンプが付くので、前者から後者、あるいはその逆の、対照ができる。書き起こされたテキストを見た人が、それらの実際の発音を知ることができる。また、このAPIを使って人間が介助する書き起こしや翻訳サービスをしているところは、仕事のスピードアップができる。このAPIを使って1分10セントでインタビューの書き起こしサービスを提供しているHappy Scribeの協同ファウンダーAndré Bastieはこう述べる: “タイムスタンプでオーディオをテキストにマップできるので、書き起こしの校正に要する時間が大幅に短縮できる”。

アップロードできるファイルの大きさは、これまでの80分から3時間になった。もっと長いクォーターも要求できる。

最初の60分は無料、そしてその後は、15秒ごとに0.6セント課金される。

関連記事(未訳)〕

〔新たに加わった言語:

  • Amharic (Ethiopia)
  • Armenian (Armenia)
  • Azerbaijani (Azerbaijani)
  • Bengali (Bangladesh, India)
  • English (Ghana, Kenya, Nigeria, Tanzania)
  • Georgian (Georgia)
  • Gujarati (India)
  • Javanese (Indonesia)
  • Kannada (India)
  • Khmer (Cambodian)
  • Lao (Laos)
  • Latvian (Latvia)
  • Malayalam (India)
  • Marathi (India)
  • Nepali (Nepal)
  • Sinhala (Sri Lanka)
  • Sundanese (Indonesia)
  • Swahili (Tanzania, Kenya)
  • Tamil (India, Singapore, Sri Lanka, Malaysia)
  • Telugu (India)
  • Urdu (Pakistan, India)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Kubernetesによるコンテナクラスターのプロダクションレベルのデプロイを「安全化」するHeptioのオープンソースプロジェクト

シアトルのHeptioは、Kubernetesの協同ファウンダーCraig McLuckieとJoe Bedaが最近立ち上げた会社で、企業におけるKubernetesの本格的な利用(プロダクションレベルでの利用)を、より容易にすることをねらっている。2016年に創業したこの資金豊富な会社はこれまで、鳴り物入りの新製品発表などはまったくなかったが、でも今日(米国時間8/3)同社は、二つのオープンソースプロジェクトArkSonobuoyリリースした

Kubernetesの人気は急成長し、それは今やもっとも人気のあるコンテナオーケストレーションシステムだと思うが、でもその周りにできるエコシステムは、誰もが認めるように、今でも未発達だ。Kubernetesをサポートするサービスやオープンソースのプロジェクトは山ほどあるが、現状はまだまだ、成熟期というより成長期だ。Heptioがその二つのプロジェクトで解決しようとする問題は、Kubernetesのクラスターのステートをバックアップすること(Ark)と、これらのクラスターのテストと診断(エラー検出)だ。

Arkのようなツールの標準的なユースケースといえば、インフラストラクチャやデータが落ちたときの災害復旧だ。同社の今日の発表では、こう言われている: “われわれの顧客がKubernetesのプロダクションユースに向かうに伴い、彼らの多くが、クラスターのバックアップとリストアの管理、という難題に直面する。そんなときデベロッパーは、(etcdで)クラスターのステートの直接的なレプリカからクラスターをリカバリしようとするが、うまく行かないこともある”。そこでArkはすべてのクラスターオブジェクトのバックアップを作り、ボリュームのスナップショットを作らせ、クラスター全体を前のステートへリストアする能力を与える。

一方Sonobuoyは、災害の防止だ。それはデベロッパーとオペレーションのチームが彼らのKubernetesのデプロイをテストし、それらが想定通り動いていることと、正しく構成されていることを確認する作業を支援する。

二つのプロジェクトはどちらもGitHubから入手でき、オープンソースなので多方面からのフィードバックやコードの寄与貢献を歓迎している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))