G Suiteのユーザーが未承認デベロッパーのアプリケーションを使おうとしたら警告画面が出る

Googleはこのところ、G Suiteのセキュリティ対策に熱心で、とくに最近の数か月は 、フィッシング対策ツールOAuthのアプリケーションホワイトリスト機能アプリケーションレビュープロセスの強化など、立て続けに新しいセキュリティ機能を導入してきた。今日(米国時間7/18)はそれらにさらに上乗せして、新しいWebアプリケーションやApps Scriptに対して、警告のための“未承認警告画面”(下図)が出るようになった。

この画面は、OAuthのGoogleによる実装を使ってユーザーデータにアクセスしているアプリケーションが、Googleの承認プロセスを経ていないデベロッパーの作であったときに出る。それによりユーザーは、これから使おうとしているアプリケーションが未承認であり、それでも使うなら自己リスクで使うことになるぞ、と自覚を促される。“続ける”ボタンや“OK”ボタンのような便利なものはなくて、そのまま続行するためにはキーボードからわざわざ”continue”と入力しなければならない。迂闊で不注意なユーザーを減らすための、工夫だ。

一応考え方としては、画面にアプリケーションとデベロッパーの名前が出るのだから、それだけでもフィッシングの危険性を減らせる、と言えるだろう。

Googleによれば、ユーザーはこの、突然お邪魔する画面を無視できるのだから、デベロッパーは承認プロセスを経ずに、もっと簡単にアプリケーションのテストができる。

Googleは今日の発表声明でこう言っている: “ユーザーとデベロッパーの健全なエコシステムを作りたい。これらの新しい警報によって、リスクの可能性をユーザーに自動的に伝え、ユーザーは自分が状況を知ってる状態で、自主的な判断ができる。またデベロッパーは、これまでより容易にアプリケーションのテストができる”。

同様の保護が、Apps Scriptにもかかる。デベロッパーはApps Scriptを書いてGoogle Sheets, Docs, Formsなどの機能を拡張できるが、ユーザーにはやはり、上図のような警告画面が提供される。

今のところ、警告画面が出るのは新しいアプリケーションのみだ。しかし数か月後には、既存のアプリケーションにも出るようになる。既存のアプリケーションのためにも、デベロッパーは承認プロセスを経た方がよいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

サービスメッシュ型コンピューティングの普及に賭けるBuoyantがシリーズAで$10.5Mを調達

Buoyantは、TwitterのインフラストラクチャエンジニアだったWilliam MorganとOliver Gouldが作った企業だが、同社は今日(米国時間7/11)、シリーズAで1050万ドルを調達したことを発表した。このラウンドをリードしたのはBenchmark Capital、これに、女性を中心とするTwitterの新旧役員グループ#Angelsと、これまでの投資家A Capital Ventures, Data Collective, Fuel Capital, SV Angel, そしてWebb Investment Networkが参加した。BenchmarkのPeter FentonがBuoyantの取締役会に加わるが、彼は数か月前にTwitterの取締役会を降りたばかりだ。

Buoyantは誰もが知ってる名前ではないが、オープンソースのLinkerdプロジェクトを作った企業だ。今年の初めにCloud Native Computing Foundationの一員となったこのプロジェクトは、いわゆる“サービスメッシュ”(service mesh)と呼ばれる、新しいインフラストラクチャツールの中で、たぶんもっとも人気のあるシステムだ。サービスメッシュ(サービスの網)とは、今日のアプリケーションを構成するさまざまなサービスを互いに通信/コミュニケーションさせるための、インフラストラクチャ層だ。たとえば、Kubernetesなどのコンテナオーケストレータの上で動く複雑なアプリケーションは、たぶん何百ものさまざまなサービスで構成されているだろう。これらのサービスは、静的とはとても言えないネットワークの上で、互いに通信できなければならない。LinkerdやIstioのようなサービスメッシュは、ロードバランシングとダイナミックルーティングを組み合わせて、それらのサービス間の通信を確保する。なお、Istioは、最近発表されたGoogle/Lyft/IBMのコラボレーションだが、今ではLinkerdと共用できる。

現在のLinkerdのユーザーには、Ticketmaster, Apprenda, NextVR, Houghton Mifflin Harcourt, Monzo(イギリスの銀行スタートアップ)などがいる。

“ソフトウェア産業の全体がクラウドコンピューティングへ移行すると、アプリケーションの作られ方や運用のされ方が大きく変わる”、 BenchmarkのFentonは今日の発表声明でこう述べている。“Buoyantによるサービスメッシュの導入は、マイクロサービスのコンポーネントやクラウドネイティブなソフトウェアと同じぐらい基本的な成分になる可能性がある。ネットワークプログラミングにとって、TCP/IPがそうであったように。そしてLinkerdが昨年思い切ってオープンソースを採用したことによって、そのニーズが企業にとって喫緊のものであることが明白になってきた”。

BuoyantのCEO William Morganによると、サービスの収益化についてはまだ何も決めていない。今度の資金は、エンジニアと製品開発部門の増員に充てられる。今社員は13名だが、エンタープライズユーザーにはすでに有料サポートを提供している。Linkerdを中心とするエコシステムを築くことが先決で、収益化云々に関心を向けるのは時期尚早である。“ある時点で方向を変えてお金を稼がなければならないけど、短期的にはオープンソースの採用が関心の中心になる”、と彼は語る。

企業のアプリケーションの開発が“クラウドネイティブ”型へ移行していくに伴い、Linkerdのようなプロダクトへのニーズもたちまち明らかになってくると思われるが、現時点ではまだ時期が早く、とくに大企業は歩みが遅い。しかしMorganによれば、アーリーアダプタたちの多くは大企業よりむしろスタートアップたちである。“彼らは今すでにクラウドネイティブのスタックへ移行しつつあるし、それには正当な理由がある”、とMorganは語る。“彼らは自分たちのアプリケーションをこのクラウドモデルで運用したいと願っている。それなら、ハードウェアのコントロールがほとんど不要だからだ”。

DockerとKubernetesがこのパズルの一片を解いたが、往々にして一つのソリューションが新しい問題をもたらすのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ConfluentがKafkaによるメッセージングシステムの長年の夢、‘正確に一度だけ’をついに実現

オープンソースの分散メッセージストリーミングツールApache Kafkaの商用化サービス(リアルタイムデータストリーミング)を提供しているConfluentが今週、Kafkaのユーザーにとって嬉しい機能を発表した。それは、Kafkaを使ってメッセージを、“正確に一度だけ”送る能力だ。

それのどこがすごいのか、門外漢には分かりづらいが、Kafkaのような高速メッセージングツールを使っている人たちにとっては、長年の見果てぬ夢だった。コミュニティの人たちは、実現不可能とも思っていた。

通常、メッセージを送る側は、それが届いたという受信確認を待つ。しかしConfluentのCTO Neha Narkhedeによると、Kafkaのような分散メッセージングシステムでは、途中で問題が起きることがある。コンピューターのエラー、ネットワークの障害、などなど。しかしたとえば金融関連のトランザクションなどでは、メッセージは確実に一度だけ送られてほしい。二度以上は、ノーだ。

多くの人びとが“正確に一度だけ”は達成不可能な目標と考えているのは、それを実現するためのスピードと正確さのトレードオフが大きすぎるからだ。しかしNarkhedeによると、同社はこの問題に大量の技術者をつぎ込み、1年がかりでやっと、長年探し求めていた解に到達した。

それを実現している技術的細部はきわめて多い。そしてNarkhedeによると、随所に技術的なトレードオフもあるが、でもみんなが考えるほど多くはない。というか、彼女によると、同社はこの問題を解決しただけでなく、メッセージのスピードを犠牲にすることなくそれを達成したのだ。

“正確に一度だけのモードでも、パフォーマンスのオーバヘッドはほとんど無視できる。そして通常モードでは、パフォーマンスは従来より向上した”、と彼女は語る。

その新しいリリースは、通常の利用で20%速くなり、“正確に一度だけ”の機能を使うと3〜10%のスピードペナルティが生じる。彼女によると、正確に一度だけではつねに多少のオーバヘッドは生ずるが、今後数か月の努力でそれをできるだけなくしていきたい、という。

彼女によると、この機能を眉唾で見ている人がまだ多い。頭がおかしいんじゃないか、と言う人もいる。長年、誰も解決できなかった問題だ。実際にそのとおり動くことを、どうやって確認するのだ? …彼女はコミュニティが抱(いだ)いている疑念を、このように表現した。

“何千時間もテストをした。パフォーマンスにはとくに気をつけた。Kafkaのアーキテクチャを抜本的に再検討し、全体的な高速化を図った。一年がかりで、やっと使えるようになった”、とこれまでの努力を彼女は説明する。

Confluentは3月に5000万ドルを調達し、調達総額は8000万ドルになった。Kafkaは最初、LinkedInで作られ、その後オープンソースのコミュニティへ移った。Confluentは、2014年に創業された。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cloudflareがデベロッパープラットホームとその開発努力を支える1億ドルのファンドを創設

Cloudflareが今日(米国時間6/27)、Cloudflare Appsと呼ばれるアプリケーション開発プラットホームを立ち上げ、またデベロッパーたちのアイデアの実現を助けるためのファンド(当初1億ドル)Cloudflare Developer Fundを発表した。

開発プラットホームは、そこでCloudflareのエコシステムを利用するアプリケーションの構築ができ、それらをCloudflare Appsストアに置いたり、またコーディング不要でWebページにマップやフォームなどの機能を容易に配置できる。

CEOで協同ファウンダーのMatthew Princeは、同社上に開発プラットホームがあることの意味をこう説明する: “今のCloudflareは600万を超える顧客のインターネットプロパティの前に座っている〔CDNや他のリバースプロキシサービスで〕。弊社は世界最大のネットワークを稼働させており、データセンターは世界中に115箇所ある。そのネットワークを毎日大量のトラフィックが通っているが、それらが通るときには、それをいろんな方法で変える/加工する方法と機会がデベロッパーにある”。

今回のデベロッパープラットホームは、Cloudflareが昨年12月にEagerという小さな企業を買収したことが契機だ。今日の発表はその買収の成果だ、とPrinceは説明する。

ひとつの例として、ライブのWebページにGoogleのマップを(コードを書かずに)挿入するやり方がある。Eagerの技術を使うとそれは、Cloudflare AppsストアでGoogle Mapツールをクリックするだけだ。そのあとドロップダウンリストからセレクトして、目的の場所へドロップダウンする。ささいなこと、と思えるかもしれないが、なにしろプロのプログラマーがいなくても、誰でも、地図をWebページに加えることができるのだ。その工程は、とても簡単で早い。

1億ドルのファンドの件は、Princeによると、Cloudflareのアイデアではなくて、投資家たちの提案だ。“彼らはとても熱心だった。NEA、Venrock、それにPelion Venture Partnersらは、人びとがCloudflareのプラットホームの構築と拡張に挑戦すれば、そのスケールとパワーを自分でも納得するだろう、そしてそれが、もうひとつのすごい企業を作る機会であることに気づく、と主張するのだ”、と彼は語る。彼らは、Cloudflareをベースとするアプリケーションを、Cloudflareの新たな分身のように感じている。

NEAのマネージングゼネラルパートナーでCloudflareの取締役でもあるScott Sandellも、同じ意見だ。“このDeveloper Fundでデベロッパーは、Cloudflareのネットワーク上で何千ものエンタープライズや何百万ものユーザーにアクセスできるだけでなく、デベロッパーがビジョンを実現できるための資本も提供されるのだ”、と彼は言う。

Cloudflareは2011年にアプリケーションストアを立ち上げ、約30のアプリケーションをサポートしたが、その後、企業の成長戦略の方が忙しくなって、立ち消えになった。Eagerの技術が使える今は、APIを提供する最初の試みよりもずっとデベロッパーフレンドリーだ。プロトタイプもきわめて迅速に作れる、とPrinceは語る。

Cloudflareは2010年9月のTechCrunch Disruptでデビューし、その後1億8000万ドルあまりを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonがAWS上のユーザープロダクトに翻訳サービスを提供、アプリケーションの多言語化を推進

CNBCの報道によると、デベロッパーがAWSを使ってアプリケーションやWebサイトを作るとき、そのコンテンツを複数の言語に翻訳できる機能を提供しようとしている。クライアントのプロダクトを複数の言語で提供するために使用されるその機械翻訳技術は、Amazonが自社のプロダクト全域で使っている技術がベースだ、とその記事は述べている。

翻訳サービスはクラウドサービスでAmazonと競合するAlphabetやMicrosoftが、Amazonに負けていないと主張できる重要な要素のひとつであり、Googleは最近、ニューラルネットワークで強化した翻訳機能のデベロッパー向け実装を提供開始した。Amazonは2年近く前に機械翻訳のスタートアップSafabaを買収し、それによって実装した翻訳機能でAmazon.comなどのサイトを多言語化している。

最近Amazonは競争力強化のためドイツのハイデルベルク大学と提携して、翻訳結果に対する誤訳の指摘など、ユーザーフィードバックに対応できる機械翻訳プラットホームの開発を進めている。

この件に関し本誌は今、Amazonのコメントを求めている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

クラウドIDEのCodeanywhereがCodebenderを買収して今後はArduino開発もサポート

WebアプリケーションやWebサイトを作るためのクラウド上のIDE Codeanywhereが、Arduinoデバイスを作るための同じくIDE Codebenderを買収した。Codeanywhereにとって初めての買収だが、その価額等は公表されていない。

Codebenderとその関連サービスedu.cobebender.ccとblocks.cobebender.cc は存続し、CodeanywhereがそれらをサポートしてCodeanywhere,Inc.の提供物になる。CodeanywhereとCodebenderを合わせると、ユーザー数は100万を超える。

パロアルトに本社のあるCodeanywhereは、7つの投資家からの3回のラウンドで84万8000ドルを調達しており、テクノロジー方面の逸材の多いクロアチアで創業された。同社と競合するCodenvyは、900万ドルを調達してから今年の5月にRed Hatに買収された。また630万ドルを調達したcloud9ideは、昨年Amazonに買収された。そこで明らかに今、Codeanywhereの立ち位置は良い。

2013年ギリシア生まれのCodebenderはこれまで100万ドルあまりを調達し、約10万のユーザーを惹き寄せ、そのプラットホームで30万以上のプロジェクトをホストしている。Arduinoのエコシステムの中では、最大のコミュニティおよびコードリポジトリのひとつだ。

CodeanywhereのCEOで協同ファウンダーのIvan Burazinは曰く: “Codeanywhereのロードマップには、われわれのビジョンに合うデベロッパーツールの増加があり、Codebenderのプロダクトを加えることはまさにその目標にかなっている。コードの開発は、どこでも、いつでも、誰とでもできなければならない、とわれわれは確信している”。

CodebenderのCEO Vasilis Georgitzikisはこう述べる: “CodebenderがCodeanywhereの中に家を持つことは、全然たいへんなことではない。前から知っているし、今回の話し合いの中で、Codebenderがその家ですばらしい、持続可能なプラットホームに成長しうることが明らかになった。それは、われわれがこれまで、つねに努力してきたことだ”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがTensorFlowによるオブジェクト検出APIをリリース、機械学習のデベロッパー利用がますます簡単に

Googleが今日(米国時間6/16)、TensorFlowのオブジェクト検出APIをリリースする。これによりデベロッパーや研究者は、画像中のオブジェクトを容易に認識できるようになる。Googleは今回とくに、単純性とパフォーマンスを重視している…今日リリースされるモデルはすでにベンチマークの成績も良く、研究用にいつも使われていたものだ。

この検出APIに含まれているひとにぎりほどのモデルは、インセプションに基づくヘビーデューティーな畳み込みニューラルネットワークや、それほど高度でないマシンで使う単純化されたモデルなどだ…そのように最適化されているシングルショットの検出システムMobileNetsは、スマートフォン上でリアルタイムで使用できる。

今週初めにGoogleはそのMobileNetsを、軽量なコンピュータービジョン用のモデルの系統として発表した。これらのモデルは、オブジェクト検出や顔認識、ランドマーク認識などに利用できる。

今のスマートフォンは大型デスクトップやサーバーほどの計算資源がないから、デベロッパーには二つのオプションがある。機械学習のモデルをクラウドで動かすか、または、モデルを単純化することだ。しかし前者にはレイテンシーがありインターネットが必要だから、大衆化は無理だろう。後者は逆に、広範な大衆化のためにパフォーマンスで妥協するのだ。

GoogleとFacebookとAppleは、こういったモバイルのモデルに注力している。昨秋Facebookは、スマートフォン用のモデルを作るためのフレームワークCaffe2Goを発表した。それの最初の大型実装が、FacebookのStyle Transferだった。Googleはこの春のI/Oで、単純化された機械学習フレームワークTensorFlow liteをリリースした。さらにAppleは先日のWWDCで、機械学習のモデルをiOSデバイスで使いやすくするためのシステムCoreMLを打ち出した。

GoogleはFacebookやAppleと違って、パブリッククラウド上でいろんなものを提供しており、コンピュータービジョンもすでに、スケーラビリティのあるコンピュータービジョンサービスとして Cloud Vision APIを提供している。

今日発表されたTensorFlowオブジェクト検出APIはここにある。それを誰でも簡単に試せるし実装できるものにしたいGoogleは、そのキットのパッケージに重みと、Jupyter Notebookを含めている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

大量の既存コードで訓練されたAIがプログラマーにオートコンプリートを提案するCodota、Khoslaが$2Mを投資

GitHubを使うようになってデベロッパーのワークフローは抜本的に変わった。コードをアクセスしやすいプラットホーム上に集積することによって、プログラミングのやり方が急速に変わった。そんな状況を受けてイスラエルのCodotaは、これまで無視されることの多かったデベロッパーコミュニティのワークフローをさらに最適化したい、と考えている…マシンインテリジェンスを利用して。同社の自動補完(オートコンプリート)機能を使えば、良質なコードを短時間で書けるようになる。同社はこのほど、Khosla Venturesから200万ドルのシード資金を獲得したことを発表した。

CodotaはEclipsのようなIDEと併用して、そのインテリジェントなコード補完機能を利用する。それは、「あなたが意図するものはこれではないですか?」と短い例示をくれるのではなく、もっと大きなコード集合をリコメンドできる。

協同ファウンダーのDror WeissとEran Yahavは、GitHubやStackOverflowにあるオープンソースのコードを利用してCodotaを作った。その公開コードのすべてを機械学習のモデルに食べさせて、コードブロック全体の高いレベルの意味を認識できるようにした。

テルアビブの本社におけるCodotaのチーム

プログラミング言語は一般言語と同じ構造を共有している部分が大きい。たとえば、語の限りなく多様な並べ方によって、考えや感情を表現する。また、同じコマンドでもコード中でいろんなやり方で表現できる。だからCodotaにとっては、コードがやってることに関する大局的な理解がとても重要だ。コードのミクロな像ではなく、マクロな像を理解することが重要なのだ。

もちろん、自然言語とコードが似ているのは、あるところまでだ。Codotaのチームが説明してくれたところによると、自然言語処理では、意味は語の近辺の複数の語を見て判断する。それに比べるとプログラムはもっと構造性があり、語がどこにあるかによって語の意味が違うことは少ない。だからCodotaはテキストで訓練するだけでなく、プログラムの動作/振る舞いにもフォーカスした。

Codotaを使うとスピードと正確さが向上するだけでなく、Codota自身の発見や教育にも助けられる。Codotaは何百万ものAPIの実装で訓練されているから、ベストプラクティスをデベロッパーに提示できる。IDEの横にCodotaを開いておくと、コード中のおかしい箇所を高輝度表示し、モアベターな代案を示す。その教えは、ライブラリの原作者のコードから直接引用したものが多い。

同社の収益源は、Codotaの利用を、そしてもちろん自分のコードを、社外秘プライベートにしておきたい企業からの使用料だ。今、対応言語はJavaだけだが、言語は今後すこしずつ増やしていく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Atlassianが全デベロッパーツールをワンセットにしたAtlassian Stackを年会費制でローンチ

Atlassianが今日(米国時間6/13)、Atlassian Stackという、新しい会員制のサービスを立ち上げた。それは、同社がホストしているデベロッパーツールをすべてまとめたサービスで、会費は1000ライセンスにつき年額18万6875ドルだ。これにより企業の調達担当は仕事が楽になり、費用削減にもなる(一見、高いけど!)。個々のプロダクトの会員ユーザーになるよりも、Atlassian Stackの会員になるとデベロッパーツールのすべてを手早く利用できて簡単なのだ。

Stackにはこんなものがある:

  • データセンターバージョン: JIRA Software, Bitbucket, JIRA Service Desk, Confluence
  • サーバーバージョン: JIRA Core, HipChat, Bamboo, FishEye, Crucible, Crowd
  • アドオン: JIRAのPortfolio, JIRAのCapture, ConfluenceのQuestions, ConfluenceのTeam Calendars
  • 有料サポート

デベロッパーがAtlassianの上で仕事をするには、これで十分だろうが、ただしファイヤーウォールの内側で使えるもののみだ。Atlassianのツールのホストバージョンはないが、このようなバンドルに関心のある企業は、自社独自のデプロイをするところがほとんどだろう。

1000ライセンスの料金は一人あたりの月額で15ドル57セントになる。1万ユーザー以上もいる超大企業は、一人あたり月額が6ドル74セントになる。

Atlassian Stackに加えて今日同社はDevOps Marketplaceをローンチした。この新しいストアはAtlassianのユーザーに、200以上のアドオンとインテグレーションへのアクセスを提供する。現在のパートナーはAppDynamics, Splunk, そしてSauce Labsだ。Atlassianにはすでにマーケットプレースはあるが、この新作はDevOpsツールが中心だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

次期iOS App Storeでは評価とレビューを維持できる――インクリメンタルなアップデートが可能に

App Storeのアプリのデベロッパーが新しいージョンにアップデートすると、高い評価も好意的レビューも消えてしまう。この問題が近々解決されそうだ。デベロッパーはアップデートの際に現在の評価とレビューを維持するか消去するか選択できるようになる。

Appleのワールドワイド・マーケティング担当上級副社長、 フィル・シラーは今年のWWDCでジョン・グルーバーがホストするThe Talk Showに登場し、このことを発表した。

レビューを最近のものに限るのは数年前までは理にかなっていた。現在のInstagramアプリは以前とは一変しているので、 2010年のレビューなどは何の参考にもならない。そこでAppleはアプリがバージョンアップするごとにレビューをリセットすることとした。

また以前はアプリのデベロッパーもそう頻繁にバージョンアップを行うことはなかった。これはApp Storeで新たなバージョンが承認されるまでにかなり長い時間がかかったことも一因だ。しかし現在はアプリの承認にはほんの数時間しかかからない。

そこでアプリにバグを発見した場合、修正版を1日ないしもっと短い時間で作成、登録することが可能になった。これはApp Storeアプリの品質向上に大いに役立ったが、同時に評価とレビューがその都度リセットされてしまう仕組みが問題となってきた。一部のデベロッパーはこのリセットを避けるために、バグフィックスをすぐに行わず、メジャー・アップデートを待つようになった。

9月に一般公開されるiOS 11ではデベロッパーはアップデートをためらう理由がなくなる。現行の評価とレビューを維持したまま自由にバグフィックスやマイナー・アップデートが行えるようになる。

デベロッパーがアプリの中心的機能を変更するようなメジャー・アップデートを行う場合は、リセット・ボタンを押してそれまでの評価とレビューを消去することを選べる。というわけで、デベロッパーはApp Storeでもインクリメンタルな改良を行うことができるようになる。最初から完全を目指す必要はない。もしコア機能を変更するv2をリリースするなら評価とレビューを消去してゼロからやり直すこともできる。

〔日本版〕フィル・シラーとクレイグ・フェデリーギが出演したビデオはこちら。1:08:30あたりからWWDCのキーノートでは触れられなかったiOS App Storeの新機能が説明されている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

iPadのiOS 11にドラッグアンドドロップ、ウィンドウ、ファイルシステムが登場

今日(米国時間6/5)のWWDC 2017キーノートの後半でAppleはiOS 11に立ち戻り、iPad用iOS独自の新機能を紹介した。これは疑いもなくiPadの生産性を高めるものだが、同時にiOSとmacOSの差をいっそう縮めることにもなった。

今回iPad用iOSに追加されたのは、通常ノートパソコンで作業する場合に頻繁に用いられるような機能だ。これまでだとモバイルOSでの作業は無理で、ノートパソコンを取り出すことになっただろう。

最初の変更はドックに選択可能なアプリが多数並ぶようになったことだ。これはiMacのスクリーン下部に表示されるドックにそっくりだ。しかもドックはユーザーがどのアプリを使っていてもアクセス可能だ。つまりドックを表示させるためにいちいちホームスクリーンに戻る必要がない。

次は新しいアプリ切り替え機能で、簡単にいえばウィンドウ・システムがiPadにやって来た。 複数のアプリがそれぞれのウィンドウに表示され、ウィンドウ間を移動して作業することができる。スプリット・ビューを利用している場合はそれぞれのウィンドウでそれが維持される。

AppleはまたiOS 11全体にドラッグアンドドロップを導入した。たとえば、ユーザーはiPadにSafariとメール・アプリを半分ずつ表示させ、URLや写真をSafariからドラグしてメールに挿入することができるようになった。

  1. apple-liveblog0928.jpg

  2. apple-liveblog0935.jpg

さらにFilesという新しいアプリが発表された。これは iPad版のファイル管理システムでデスクトップ・スタイルだ。このアプリはデバイスのすべてのファイルを表示可能で、フォルダをネストさせることができる。タグ付け、検索などファイル管理アプリに必要な機能が揃っている。FilesはまたiCloudだけでなく、サードパーティーのクラウドサービス、DropboxやGoogle Driveもサポートする。

Filesアプリの導入は一般ユーザーにとってiPadをあまりに複雑化することなくパワーユーザーのニーズに応えようとした努力の結果だろう。フル機能のファイルシステムをiOSに導入するのは平均的ユーザーにとって負担が大きく、iPadのメリットであるインターフェイスの単純さを損なうことになりかねない。もちろん一方でAppleは、モバイルデバイスは単純であるべきだとはいえ、複雑な仕事をするためにはやはりテスクトップ級のファイル・システムやウィンドウ・システムが必要だということをはっきり認めたことでもある。

iOS 11のデベロッパー向けベータ版は即日公開された。 一般公開は9月になる予定。



[原文へ]

(翻訳:滑川海彦@Facebook Google+

WWDC:Apple、iOS 11を発表

今日(米国時間6/5)のWWDCでAppleがiOSの時期バージョンを発表することは以前から予測されていた。今回のデベロッパー・カンファレンスでiOS 11が紹介されたのは順当といえる。一般ユーザー向けの公開は9月を待たねばならないが、AppleによればiOS 11は以下のようなモバイルOSになるという。

AppleのCEO、ティム・クックはまず「iOS 10は86%のiOSデバイスにインストールずみだ」と述べた。続いてAppleのソフトウェア・エンジニアリング担当上級副社長、クレイグ・フェデリーギがiOS 11の新機能を紹介し、「iOS 11はテクノロジー面で大幅な進歩を遂げると同時に新機能も多数追加された」と述べた。

iOS 11ではスタンプ(sticker)とiMessageがショートカット・ドロワーから簡単にアクセスできるようになった。スタンプを送信するために何度もタップする必要はなくなる。すべての会話は自動的にiCloudに同期される。この同期は以降も維持されるため、ユーザーが一つのデバイスであるメッセージを削除するとすべてのAppleデバイスで削除される。 つまり今後は休暇旅行から戻ってMacを開くと膨大な未読メッセージの雪崩に襲われるということはなくなる。

  1. apple-liveblog0565.jpg

  2. apple-liveblog0470.jpg

  3. apple-liveblog0491.jpg

  4. apple-liveblog0500.jpg

  5. apple-liveblog0516.jpg

Apple Payに関して、他のApple Payユーザーに現金を送ることができるようになった。VenmoあるいはSquare Cashに似た機能だ。この機能はiMessageにビルトインされている。現金を受け取った場合、Apple Pay Cash cardの残高に追加される。この資金はApple Payを通じて支払に充てることができる。自分の銀行口座に振り込むことも可能だ。

SiriもiOS 11で大幅に強化された。 Siriは毎月3億7500万のデバイスで利用されているという。iOS 11ではSiriの発音は改良され、抑揚もさらに自然になったという。またSiriを用いて翻訳も可能になる。中国語、フランス語、ドイツ語、イタリア語、英語が翻訳では最初にサポートされる。

Siriは文脈やユーザーの関心の把握でも改善された。Appleはこれを「Siri知能( intelligence)」と呼んでいるが、iOSのあらゆる場面で利用される。たとえば誰かiMessageで「どこまで行くの?」と尋ねたとすると、iOSはカレンダーを開いてどこに行く予定か調べ、回答の候補を表示する。ユーザーがアイスランド旅行について検索したとすると、iOSはスペルの自動訂正辞書にReykjavik〔アイスランドの首都〕などの単語を追加する。ニュース・アプリにもアイスランドのニュースが表示されるようになる、といった具合だ。

  1. apple-liveblog0543.jpg

  2. apple-liveblog0555.jpg

  3. apple-liveblog0559.jpg

  4. apple-liveblog0571.jpg

  5. apple-liveblog0576.jpg

カメラ・アプリはHEVC(h.265)をサポートする。 このコーデックはビデオの画質を改善すると同時にファイル圧縮にも優れている。画像処理ソフトも改良を受け、既存のカメラで撮影した場合でも画質の向上が期待できるようだ。【略】

コントロール・センターも大幅にアップデートされた。デザインが一新され、多数のボタンが追加された。今後はユ次々にタブを切り替える手数が省かれる。たとえば、ミュージックビデオを再生している場合、輝度調整と一時停止を同一の画面で実行できる。さらに詳細な選択が必要な場合、3Dタッチで即座に機能を呼び出せる。

Apple Mapsのカーナビ機能もiOS 11で強化された。アメリカ内ではショッピング・モールや空港の詳細地図が利用できる。アメリカ人には非常に便利だろう。

iOSは運転中、Bluetoothで車載オーディオに接続していることを認識する。iPhoneのモーション・センサーは自動的に「電話に出られません」モードを起動する。このモードではすべての通知の表示が保留される。メッセージが着信した場合、予め用意した返信が自動送信されるよう設定できる。

AirPlayにもメジャー・アップデートが来た。AirPlay 2ではWiFi経由で複数のスピーカーを接続しiOSデバイスからコントロールできる。Libratone、Devialet、Bose、B&Oその他多数のオーディオ・メーカーがAirPlay 2をサポートする予定だ。それだけではない。AirPlay 2にはデベロッパー向けAPIが用意され、AirPlayを利用したアプリの開発が可能になった。

MusicKit APIの登場にによりデベロッパーはApple Musicの利用ができるようになった。たとえばShazamは(とうとう)Apple Musicのプレイリストに楽曲を自動で追加できるようになる。

  1. apple-liveblog0640.jpg

  2. apple-liveblog0662.jpg

  3. apple-liveblog0687.jpg

  4. apple-liveblog0682.jpg

Appleのフィル・シラーはApp Storeのアップデートについて簡単に触れた。もっとも重要な点はデザインが一新されることだろう。見た目はApple Newsにやや似ている。 ‘Today’タブには個人別にカスタマイズされたお勧めが表示される。ゲームは別に独自のタブが用意される。‘Apps’タブにはApp Storeチームによるお勧めアプリが掲載される。【略】

iOS 11のベータ版は今日から公開されるが、今後夏までに細かいバグ修正が行われるはずだ。一般ユーザー向け公開は9月。アップデートは無料。

アップデート: Appleはさらに多数の機能を発表した。キーノートの最後でフェデリーギがステージに戻り、iPad専用機能を発表した。 iPad画面の下部にはドックが用意され、これまでより簡単にアプリを切り替えられるようになった。Split Viewを用いれば同時に2つのアプリを並べて開くことができる。ドラッグアンドドロップで簡単に実行できる。

Split Viewについていえば、アプリ選択機能が一新された。コントロール・センターを開くショートカットと最近使ったアプリのプレビューが表示される。iOS 10の小さなアイコンのリストよりずっと使いやすい。

新しいFilesアプリはiPad上のファイルとクラウド・サービスを表示する。ユーザーはFilesアプリとメール・アプリ間でファイルをドラッグアンドドロップで移動できる。iPadのアプリは閉鎖的に単独で作動するだけではなくなった。これはAppleとしては画期的な方針転換だ。

ユーザーはApple PencilでNotesアプリに書き込むことができる。Appleは書かれたテキストをOCRを使って処理し検索可能にする。カメラ・アプリにもネーティブで文書をスキャンする機能が追加された。スクリーンショットを撮ると、小さいポップアップが隅に表示される。タップするとスクリーンショットをトリミングし、説明を加えることができる。いちいち写真アプリを開く必要はない。

いろいろな面でiPadのiOSはデスクトップ・コンピュータのOSに近づいてきた。アプリは全画面でなく移動可能な窓で表示できるようになりドックも追加された。AppleはiPadをますます強力にしようと計画している。

iOS 11はiPad Air以降、iPad mini 2以降、第5世代iPad以降、iPhone 5s以降の各シリーズで作動する。

  1. apple-liveblog0889.jpg

  2. apple-liveblog0896.jpg

  3. apple-liveblog0917.jpg

  4. apple-liveblog0928.jpg

  5. apple-liveblog0935.jpg

  6. apple-liveblog0942.jpg

  7. apple-liveblog0948.jpg

  8. apple-liveblog0956.jpg


[原文へ]

(翻訳:滑川海彦@Facebook Google+

MicrosoftのDraftはコンテナ化の面倒を引き受けるクラウドサービス、デベロッパーはアプリケーションのコードをローカルに書くだけ

Microsoftが今日(米国時間5/31)、Kubernetesのクラスターの上で動くコンテナベースのアプリケーションを、より簡単に作れるオープンソースのツールDraftをローンチした。簡単というのは、デベロッパーは自分のアプリケーションにだけ集中すればよくて、DockerやKubernetesについては関知しなくてよい、という意味だ。というか、そもそも、コンテナという技術を支えるこれらのツールは、自分のマシンにインストールされていなくてもよいのだ。

4月にMicrosoftは、コンテナプラットホームDeisをEngine Yardから買収した。今日のリリースは、その最初の果実だ。Deisは、デベロッパーがコンテナを簡単に使えるようにすることを使命とし、買収されるまでWorkflow, Helm, Stewardといったオープンソースのツールをいくつかローンチしていた。Draftは、これらDeisの成果物の一部を利用している。

今日の発表声明には、次のように述べられている: “Draftは、デベロッパーのワークフローの“インナーループ”に集中する。デベロッパーがコードを書き、それをバージョンコントロールへコミットする直前までの過程だ”。Draftを使う場合、デベロッパーは‘draft create’というひとつのコマンドで“Draft pack”というものを作る。Draftは、そのコードが書かれている言語を自動検出し(Python, Node.js, Java, Ruby, PHP, Goをサポート)、検出スクリプトとDockerのファイルとKubernetes HelmのChartを書いて、packをソースツリーへとビルドする。そこから先は、そのコードを既存の継続的インテグレーションに入れるだけだから簡単だ。

もうひとつのコマンドでデベロッパーは、自分のアプリケーションに対する仕事をローカルに開始でき、そのコードが自動的にKubernetesの開発クラスターへ入れられる…それが動いているのはローカルでもリモートでもどちらでもよい。ローカルに加えた変更は、数秒以内にそのクラスター上で可利用になる。“そのため、デベロッパーがコードをローカルに書いも、しかし開発環境はクラウドにあり、そこでアプリケーションの依存性のすべてにアクセスできる”、とチームは説明している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

CoreOSがコンテナプラットホームTectonicをアップデート、Kubernetesの最新バージョンとetcdデータストアをサポート

CoreOSが今日(米国時間5/31)、サンフランシスコで同社のユーザーカンファレンスを開催している。当然ながらそのイベントでは、同社のあれやこれやがたくさん発表された。そしてその多くは、Kubernetesベースのコンテナインフラストラクチャを管理するTectonicプラットホームに関連している。

アップデートの多くは、単純明快だ。たとえばTectonicは今やKubernetesの最新バージョン1.6.4を使っているが、同社によると、エンタープライズ対応のKubernetesプラットホームでその最新バージョンを使っているのはTectonicだけだ、という。ただしそのバージョンは主にバグフィクスが目的で、メジャーバージョンではない。

しかしさらに重要なのは、デベロッパーが今や簡単に、CoreOSで人気のキー-ヴァリューデータストアetcdを導入し利用できることだ…そのためには新たなツールetcd Operatorを使う。etcdを使いたいデベロッパーは、Operatorを使ってetcdを必要に応じてスケールするが、エラーはサービス側がおだやかに処理し、アップデートも自動的に行う。

CoreOSのファウンダーでCEOのAlex Polviによると、同社が今注力しているのはエンタープライズ顧客の獲得だ。彼の主張では、今エンタープライズと呼べるほどの企業は、コンテナによるアプリケーション開発に注目している(そして既存のアプリケーションはクラウドへ)。しかしAmazon, Microsoft, Googleなど特定のベンダーにロックインされたくはない。“でも1年ぐらいそこにいただけで、請求書は屋根を突き抜け、彼らのAPIをすべて使い、そして完全にロックインされる。われわれは、そんなサイクルを終わらせたい”。

Kubernetesは多くの企業にとってコンテナオーケストレーションプラットホームの第一の選択肢だから、CoreOSも、主なクラウドプラットホームすべての上で(そしてオンプレミスでも)その利用を手伝いたいが、主なプラットホームすべてをサポートすることで、そのようなロックインを避けたい。

Polviによると、同社がエンタープライズへの直接的な営業を開始したのはやっと2016年の最後の四半期からだ。最近ではそれがほぼ軌道に乗り、そしてPolvi説ではKubernetesも離陸したから、CoreOSの営業活動のエンジン全開もこれからだ、という。

〔関連記事:Microsoftのコンテナアプリケーション開発ツールDraft(未訳)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftはWindowsの開発にGitを使う、そのための仮想ファイルシステムGVFSをすでに開発済み

Microsoftは今日(米国時間5/24)、これからは同社のエンジニアのほとんど全員が、バージョンコントロールシステムGitを使ってWindowsオペレーティングシステムを開発していく、と発表した。WindowsのGitリポジトリには約350万のファイルがあり、それらをGitにチェックインするとしたら、その重さは約300GBになる。しかしながらGitはそんなサイズのプロジェクト向けには作られていないので、MicrosoftはGit Virtual File System(GVFS)というものを作って、Gitのもっともシンプルなコマンドでも完了まで数時間待つということなく、Gitを使う利点を得られるようにした〔秘かにローカルマシン上ですべての操作を行う〕。

そのGit Virtual File SystemのコードはGitHub上でMITライセンスにより提供され、今後のコミュニティからのコントリビューションを歓迎している。

Gitへの移行には、約3か月を要した。それまでMicrosoftは、Source Depotを使ってWindowsのコードを管理し、それ以外の小さなコードベースを抱えるグループは前からずっとTeam Foundation Serverを使っていた。私の理解では、Source DepotはPerforceプラットホームのMicrosoftによるフォークであり、同社の今日の発表ではWindowsのコードは最初、40あまりのデポに分散していた。

最近の3か月でMicrosoftは、Windowsのデベロッパーの一部をGitのリポジトリへ移してシステムをテストしていた。それから3月には、Windows OneCoreチームの2000名のエンジニア全員にGitを展開した。今日では、Windowsチームのほぼ4000名のエンジニアのうち約3500名が、Gitへ移行している。

なお、Microsoftによると同社は、Git Virtual File System(GVFS)のための、Gitのプロキシソリューションを構築して、世界中に分散しているチームには避けられない帯域の問題を管理している。

さらに今日のMicrosoftの発表によると、AtlassianなどいくつかのGitベンダーがすでにそれをサポート、またTower、GitKrackenなどはサポートを準備中である。GVFSをテストするためには、MicrosoftのVisual Studio Team Services(VSTS)上にレポジトリを作るとよい(そのためにはVSTSのアカウントが必要)。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

マイクロサービスの集まり(単一/複数アプリケーション)を安全に管理するプラットホームIstioをGoogleとIBMとLyftが共同で立ち上げ

マイクロサービス(microservices)は、大きなアプリケーションを小さな部品に分割して、それらがAPI経由で互いに通信し合う、という開発方式だが、今ではとくに、コンテナをベースとするマイクロサービスが、多くのデベロッパーのあいだで最大人気のアプリケーション・アーキテクチャになっている。しかし、小さなサービスの大軍を管理することには、それなりの課題が伴う。デベロッパーとDevOpsたちが彼らのマイクロサービスベースのアプリケーションを管理しその安全を確保できるために、Google, IBM, およびLyftが今日、デプロイしたサービスのネットワークを作れるオープンなプラットホームIstioを発表した。そしてそれには、ロードバランシングやサービス間認証、モニタリングなどのツールが含まれている。

このプラットホームの利用にあたって、既存のアプリケーションの変更は必要ない。その理由として、Istioはネットワークのレベルにいて、ユーザーのマイクロサービス間のネットワーク通信をプロキシを使って捕捉するからだ。使用するプロキシはLyftが開発したEnvoyで、そのほかにサービス発見やロードバランシングのためのツールも含む。

Istioのチームはこう説明する: “一枚岩的なアプリケーションがマイクロサービスの集合に分解されると、分散システムの上で複数のサービスを統合していくことが、新たな課題になる。そしてそのためには、サービス発見、ロードバランシング、フォールトトレランス、エンドツーエンドのモニタリング、機能の実験のための動的ルーティング、そしてとりわけ重要なコンプライアンスとセキュリティを備えなければならない。これらを揃えるにあたって不整合が生じたり、つぎはぎだらけのライブラリやStackOverflowで拾ったコード片を使ったりしていると、複数の言語やランタイムにわたって互換性を欠く、ばらばらなソリューションができあがり、観察性/観測性が劣化し、その結果セキュリティが壊れることも少なくない”。

単一のライブラリに標準化してサービス間の通信を管理することは、理論的には可能だが、実際にはなかなかありえないことだ、とチームは主張する。そこで既存のサービスがそのまま残り、柔軟性を欠くことになる。

Istioはデベロッパーに単一のサービスメッシュを提供し、その中に、ロードバランシングやフローコントロールやセキュリティポリシーの実装に必要なモニタリングサービスがあって、ネットワークの信頼性が落ちてもアプリケーションが動き続けられるようにする。また、複数のアプリケーション間の通信に必要な認証とセキュリティを、TLS接続により提供する。そうするとデベロッパー自身は、証明の管理などの雑務を免除される。

IstioにはGoogleも参加しているから、今のところはコンテナオーケストレーションサービスとしてKubernetesしかサポートしていないが、いずれは他の環境もサポートしていく計画だ。むしろIstioの基本的な考え方は、特定の環境に縛られないことだから、今後はMesosなどもサポート対象になるだろう。またGoogle自身も、同社のユーザーAPI提供/管理プラットホームCloud EndpointsやApigeeをIstio対応にする措置を講じている。Googleは昨年Apigeeを、6億2500万ドルで買収した

ただし、今やKubernetesプロジェクトの‘公共的住処(すみか)’となったCloud Native Computing Foundationにも、Istioに類似したプラットホームlinkerdがある。linkerdはすでに、DockerとMesosphereのDC/OS(データセンターオペレーティングシステム)のサポートを提供している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleからVR用レンダリングツール、Seurat――モバイルでローグワンの世界に

マウンテンビューのショアサイドアンフィシアター野外劇場で開催されたGoogle I/Oデベロッパー・カンファレンスの2日目はVR/ARテクノロジーの紹介が中心となった。Googleはモバイルデバイスのような非力なマシンでも極めて高精細度な描画による没入的VRを可能にする新しいレンダリング・ツール、Seurat〔スーラ〕を発表した。GoogleはSeuratの能力を実証するため、ILMxLABの協力を得てスターウォーズの世界を対話的モバイルVR環境でデモした。このレンダリングは劇場映画の画質で参加者を驚かせた。

上にエンベッドしたのはキーノート中で上映されたILMxLAB(Industrial Light And Magic Experience Lab )制作のビデオで、『ローグ・ワン/スター・ウォーズ・ストーリー』をベースにした場面が含まれている。質感、照明、アニメーションなどすべてのディテールが信じがたいほどリアルに描写されている。ビデオ中で説明されているとおり、Googleのツールを利用することにより、ILMは劇場版映画の画質でモバイルVRをレンダリングすることが可能なったという。

デベロッパーはSeuratを用いてターゲットとなるシーンを特定の視点に制限し、極めて高い比率で圧縮することができる。ユーザーが動き回れる範囲は制限されるが、その内部では非常にリアルなレンダリングが行われる。開発の過程で、バーチャルオブジェクトはまず制限された視点からの何枚かの3Dスナップショットとして高精細度でレンダリングされる。このスナップショットから軽量版VRが再コンパイルされる仕組みだ。しかしヘッドセットを通してユーザーが体験する際にはオリジナルと変わらない精細度に感じられる。VRのレンダリングではモバイルデバイスの能力が大きなネックとなってたが、Seuratはこのハードルを大幅に低くするはずだ。

GoogleはキーノートではSeuratの詳細には踏み込まなかったが、今年中にさらに詳しい情報を公開し、デベロッパーが利用できるようにすることを約束した。GoogleのVRシステム、Daydreamはスマートフォンやスタンドアローン・ヘッドセットなどパソコン接続版に比べて能力が低いモバイルVRハードウェア市場で大きな存在になるだろう。ローパワーのデバイスでハイパワーのレンダリングができることはこの市場における優位性を確保するためのカギになることは間違いない。

〔日本版〕Seuratはフランスの新印象派の画家で点描手法で有名なジョルジュ・スーラから命名された。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのInstant Appsを全ての開発者が利用可能になった

GoogleのInstant Appsは、ネイティブアプリのロード時間を(たとえ携帯電話にインストールされていなくても)ウェブページ並の速度にしようとしている。そうすることでウェブの世界とネイティブアプリの世界の間に橋渡しをしようとしているのだ。同社はこのプロジェクトを、まず昨年のGoogle I/Oカンファレンスで発表し、その後今年になってからもイベントで紹介していたものの、これまでは限られた開発者たちだけが利用可能なものにしていた。

本日(米国時間5月17日)同社は、Instant Appsが一般公開され、全ての開発者が利用できるようになったことを発表した。ユーザーはこうしたInstant AppsにGoogle検索の結果画面からアクセスすることも可能になる。

全ての開発者たちは、Googoleが新しく公開するAndroid Studio 3.0を用いることで、アプリケーションのモジュール化を行いやすくなる。

Googleによれば、既存のアプリを新しい技術に対応させるには通常4、5週間かかるということだ。

[ 原文へ ]
(翻訳:Sako)

Google、KotlinをAndroidアプリ開発言語に選定―I/O会場から大喝采

今日(米国時間5/17)のGoogle I/OでKotlinがサポートされることが明らかになった。Kotlinは静的型付けされたプログラミング言語でJava仮想マシンで作動する。GoogleはAndroidアプリ開発にあたってKotlinを第一級言語の一つに選定した。

Kotlinの主要スポンサーはIntelliJなどのツールで知られるJetBrainsだ。KotlinはJavaと100%互換で、すでにGoogle自身のAndroidアプリ開発の主要言語となっている(もちろんC++も利用されている)。

Googleによれば、今後(JetBrainsと協力して)Kotlinの開発環境を提供していくという。JetBrainsは2012年にKotlinをオープンソース化していたが、1.0がローンチされたのは1年前だった。Google自身のAndroid StudioがJetBrainのIntelliJ Java IDEをベースにしているのは重要な点だ。次世代Android Studio (3.0)はデフォールトでKotlinをサポートすることになる。

KotlinはJava互換なので、 これまでもAndroidアプリを書くことができたが、今後GoogleはKotlinをプログラミング言語として全面的にプッシュするようだ。Kotlinには現在Javaでサポートsれていない機能が多数含まれている

GoogleはキーノートでKotlinのサポートは「追加であり、既存のJavaや C++のサポートを置き換えるものではない」と念を押している。

今日のGoogle I/OのキーノートでKotlinのサポートの発表は聴衆から最大の喝采を受けたことは注目すべきだろう。


[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google I/O: Lensは「たこ焼き」の看板をリアルタイム翻訳―スマートフォンのカメラが賢くなる

今日(米国時間5/17)、Google本社に隣接するショアラインアンフィシアター野外劇場で開幕した Google I/Oデベロッパー・カンファレンスのキーノートで、CEOのスンダー・ピチャイはGoogle Lensという新しいテクノロジーを発表した。

これはGoogleのコンピューター・ビジョンと人工知能を統合し、スマートフォンのカメラからダイレクトに有益な情報を得ることができるシステムだ。Googleの説明によれば、スマートフォンのカメラは単に目に見える情報を撮影するだけでなく、写された対象を理解してユーザーが適切な行動を取るために役立つ情報を提供する。

Googleはユーザーが花を撮影しようとしてカメラを向けるとLensが即座に花の種類を教えてくれるところなどをデモした。

ピチャイはLensは日常のタスクでも役立つ例も挙げた。たとえばスマートフォンでルーターのラベルを撮影するだけで簡単にWiFiに接続できる。 Google LensはルーターのIDとパスワードを読み取り、タップするだけで自動的にそのWiFiに接続するアイコンを表示してくれる。

その次の例では 通りがかりの店舗を撮影すると、Google Lensが店名を読み取り、ウェブを検索して各種のビジネス情報をカード形式で表示する。

このテクノロジーはスマートフォンのカメラを撮影だけでなくモニタに写った対象に関する情報を得ることができるツールに変える。

Pichaiの説明の後、 Scott HuffmanはGoogle Homeのデモ中でGoogle Assistantに組み込まれたLensの能力を示した。Assistantアプリに追加された新しいボタンをタップするとLensを起動し、Assistantを通じてLensと会話し、写真の内容を尋ねることができる。

Scott HuffmanがカメラをStone Foxesのコンサートのポスターに向けるとGoogle Assistantはチケット・セールスを含めてコンサートに関する情報を表示した。Huffmanがオンラインでチケットを購入し「これをカレンダーに追加」と命じるとその通りにスケジュールが設定された。

LensとAssistantの統合は翻訳にも威力

Huffmanがカメラを〔「たこ焼き 6個 130円」という〕日本語の看板に向けて「これは何?」と尋ねるとGoogle Assistantは即座に正しく英語に翻訳した。

 

ピチャイはまたGoogleのアルゴリズムが写真の質を改善することができることも示した。たとえば金網越しに子供の野球試合のシーンを撮影したような場合だ。Googleの人工知能は目障りな金網を自動的に取り除いてくれる。また暗い場所で撮影した場合、Googleはピクセルノイズやブレを補正し、写真を見やすくしてくれる。

GoogleはI/OカンファレンスではLensがいつ一般公開されるか日時は明らかにしなかった。しかし「すぐに」手に入るようになるという。


[原文へ]

(翻訳:滑川海彦@Facebook Google+