I/O:Google Payが全面アップデートへ――新APIでチケット購入、ボーディング・パス発行などに対応

マウンテンビューで開催されたGoogle I/Oデベロッパー・カンファレンスでGoogle Pay(以前のAndroid PayとWalletが統合)の大幅アップデートが発表された。今回Googleがオンライン支払プラットフォームに追加した新しい支払機能にはAPIの利用、P2P送金、チケット購入、ボーディングパス発行などが含まれる。

ブラウザやデバイスのサポートの追加が予定されていることはすでに発表されていたが、アップデートの詳細が明らかになったのは今回の I/Oが最初だ。新機能はGoogle Payプラットフォームに順次公開される。

特に目立った新機能の一つはGoogle PayアプリでP2P送金が可能になったことだろう。この機能は当面アメリカとイギリスでリリースされる。

また支払履歴はあちこち探し回る必要なしに、アプリ内から一箇所で確認できるようになった。

Google Payのプロダクト責任者、Gerardo CapielはI/Oのデモセッションで次のように述べた。

今回アップデートされる新しいGoogle Payでは、Googleを経由するすべての支払が単一のアカウントで処理できるようになる。対応店舗での支払時だけでなく、Playストア、YouTube、サードパーティーの通販会社、Uber、友だちへのP2P送金などすべての支払について全体像が一覧できる。

ユーザーは送金、送金の要請などGoogleアカウントに関連する支払関連の履歴をGoogle PayのiOSアプリでも表示し、確認できる。

I/Oはデベロッパー・カンファレンスなので、こうした新しい機能はデベロッパーが利用できる新しいAPIという形で紹介された。

デベロッパー向けの努力の第一歩としてGoogle Payをサードパーティーのアプリに組み込むための新しいAPIがリリースされた。

「われわれのAPIセットを使えば、サードパーティーのマーチャントはアプリであれウェブサイトであれ(支払情報がGoogle Payに登録ずみの)準備済みユーザーに関しては簡単に支払を処理できる」とCapielは述べた。

Capielによれば、デベロッパーはGoogle Payをサポートすることによって処理の迅速化とコンバージョン率のアップを図ることができるという。

これに加えて楽曲や飛行機のチケットの購入、ボーディングパス発行も、関連する情報をGoogle Pay APIに渡すことで処理できる。この場合、会員カードへのポイント、マイレージの加算
も従来どおりサポートされるという。

これによりiOSアプリ開発のUrban Airshipや送金プラットフォームのDotDashPayなどは顧客企業に提供しているアプリにGoogle Payを利用してチケットや契約をアップグレードする機能を容易に追加できる。

DotDashPayのファウンダー、CEOのSean Ariettaはプレゼンの後でTechCrunchの取材に対して「Google Payがデジタルウォレット機能の強化にこれまで以上に取り組んでいるのは心強い。今回のGoogle PayのアップグレードでわれわれDotDashPayのようなパートナーが提供しているブランドと消費者を結びつける機能がさらにアップグレードされた。支払からNFCによるタップ認証までまでの一連の流れをすべてこなすところがデモされたが、非常に強力だった。Google Payはほぼ完璧な仕上がりになった」と述べた。

Urban Airshipも今週、プレスリリースでアップグレードを発表している。【略】

Google Payがチケット購入をサポートするにあたってのアーリー・パートナー、 Singapore Airlines、Eventbrite、Southwest、FortressGBなどが含まれる。FortressGBはイギリスを始めとする各国でプロサッカーリーグのチケットを扱っている企業だ。

近くGoogle Payを採用する予定の公共交通関係のパートナーにはカナダのバンクーバー、イギリスのバス会社や近くスタート予定のラスベガス、ポートランドの交通機関が含まれる。

今回Google Payの普及度について新しい数字が発表された。それによるGoogle Playストアでのダウンロードは世界18カ国の提供地域で1億回以上となっている。

今回発表されたGoogle Payアプリの新機能の多くは世界で数十億といわれるGoogleユーザー向けに近々公開される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Alexa、Siri、Googleアシスタントは音楽でだませる――UCB、浙江大学等の研究者が超音波ハッキングを発表

Alexa、Siri、Googleアシスタントなどのポピュラーな音声認識アプリを超音波を使ってハッキングする方法がUCB(カリフォルニア大学バークレー校)の研究者によって発表された。超音波のコマンドを楽曲に紛れ込ませることにより、ユーザーに気づかれることなくアシスタントに特定の動作をさせることができるという。

New York Timesの報道によれば、これより前に発見されていたスマート・アシスタントを騙す方法を発展させたものだ。

昨年、プリンストン大学と中国の浙江大学の研究者は音声認識デバイスは人間には聞こえない超音波によって起動できることをデモした。 このハッキングでは最初にスマートフォンをミュートするのでユーザーはスマート・アシスタント側の返事を聞くことができない。

浙江大学の研究者によってDolphinAttackと名付けられたこの攻撃はスマートフォンに悪意あるサイトを訪問するよう命じる。このハッキングはスマートフォンの電話、カメラ、テキスト・メッセージなどを操作できる。ただし超音波の発信源が攻撃対象のデバイスに近くにある必要があるのがDolphinAttackの限界だ。しかし専門家は強力な超音波発信源が用いられる危険性を警告した。

<pこの警告は4月にイリノイ大学アーバナ・シャンペン校の研究者が7.5メートル離れたところから超音波攻撃を成功させたことで現実のものとなった。超音波は建物の壁を透過することはできなかったが、建物の外から開いている窓を通してデバイスを乗っ取ることに成功した。

今回のバークレー校の研究は悪意ある超音波コマンドを楽曲に紛れ込ませてデバイスを乗っ取るというものだ。 この攻撃では楽曲にある種のデジタルノイズが混じるが人間の耳には意味ある音声としては聞こえない。

このハッキングはまだ初期段階だが、音声アシスタントのセキュリティー全般に関してはまだほとんど研究がされていない。音声アシスタントの能力が拡大し、ユーザーがメールやテキストの送信だけでなく、ショッピングやバンキングにもアシスタントを利用するようになってきただけに、こうした攻撃の可能性は懸念を呼び起こす。

最初に考えられる防止策は、デジタル・アシスタントのメーカーがセキュリティー保持にもっと力を入れ、音声認証の精度を高めると同時に音声の本人性に疑念があるときはアシスタントの音声機能をロックダウンすることだろう。.Amazon Alexa、Googleアシスタントは両方とも音声パターンによって個人情報を特定のユーザーのみ利用できるようロックするオプションがある。AppleのiOSの場合、秘密度の高い情報の大部分はアクセス前にデバイスをアンロックしなければならない。

いちおうそうした対抗手段はあるものの、このハッキングがさらに進化すると非常に怖いことになる。メーカー側のすばやい対処とその情報の公開が強く望まれる。Google I/Oデベロッパー・カンファレンスでデモされたDuplexソフトウェアを見ても音声認識アシスタントの能力拡大に力を入れていることが見てとれる。今回Googleが発表したカメラ付きスマート・ディスプレイも音声で操作できるのでやはりこのハッキングに対象となるわけだ。潜在的攻撃対象は急速に拡大しつつある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google、Assistantのおなら対応に即興演芸の技を利用

Google I/Oの2日目も後半に入りみんなが少し疲れてきた。午後遅くのAssistantのデザインに関するセッションで、Googleの主任デザイナー、Ryan Germickは、AIの個性を作るために即興演芸のスキルを活用していることを話した。そして、人生でも難しい質問のひとつに答えた。

Assitantが「みんなが思うよりずっと多く」受ける質問のが、「おならした?」だ。まず、おならはいつも笑える。そして、人間の発する様々な臭いの責任を押しつけられなければスマートアシスタントを使う意味はない。

Germickは、Googleが体験した、おなら質問に対する色々な答を紹介した。たとえば、「もちろん私ではありません。私には体がありません」というのはあまり満足のいく答ではない。代りにGoogleは「巧みにはぐらかす」やり方として、improv[即興演芸]の入門コースを受けた人が必ず教えられる(”yes, but”ではなく) “yes, and”話法を採用した。

というわけで、Google Assitantにおならをしたかと聞いてみよう。おそらく「私のせいにしたいなら、すればいいですよ」といった感じの25種類ほどの答が返ってくるだろう。

もうひとつ、アイザック・アシモフのロボット工学第4の原則を忘れてはならない:くさいと言いだした人が、おならをした人だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google I/O:マップ・アプリにニュースフィード――個人別に情報や提案を配信するようになる

マウンテンビューの野外コンサートホール、Shoreline Amphitheatreで開催中のデベロッパー・カンファレンス、Google I/Oで、Googleマップの新バージョンが発表された。アップデートはこの夏に実施される予定だ。もちろんナビ機能は維持されるが、次世代マップではこれに加えて多数の便利な探索機能が追加される。

Googleマップのシニア・プロダクトマネージャー、Sophia Linは私の取材に答えて次のように語った。

1年ほど前に Googleマップに何を望むかユーザーにアンケートしたことがある。どうしたらもっと役に立てるだろうか、どんな新機能があったら便利だと思うかと尋ねた。
その中で圧倒的に多い答えが、『自分がいる場所についての情報をもっと詳しく知りたい』というものだった。それによって次にどちらに向かったらいいかを決められるという。そこで私たちはどうしたらその方向でユーザーの手助けができるか研究を始めた。

Googleマップの最大の機能はもちろん「行きたいところへ行くことを助ける」点だ。最近、Googleはマップにありとあらゆる機能を追加しているが、多くのユーザーに利用されているとは言えない。私はLinからマップの探索機能を利用しているユーザーのパーセンテージを聞き出すことはできなかったが、今回の新機能は機械学習の適用によりマップを大幅にスマート化しようとするもののようだ。

もちろん GoogleのことなのでAIを利用したユーザー別の個人化もいっそう進歩する。

新しいマップではFor youという専用タブが新設される。簡単に言えば、ユーザーに対し各種の推薦や情報の提供を行うニュースフィード的な仕組みだ。ただし「フォロー」する相手は人間ではなく、ある地域(お気に入りの町、観光地、訪問を予定して場所等々)だ。フォローしている地域で何かが起きて、Googleがそのニュースがユーザーの関心に合致すると判断すると配信されるのはソーシャルネットワークの場合と同様だ。たとえばその地域であるレストランの人気が高まっているとか、有名コーヒーショップのチェーン店がオープンしたなどという情報を教えてくれる。

Linによれば、これまで地域で何か新しいことを発見するのは運任せの面が大きかった。「たまたま道を歩いていて何かを見つけるということはある。しかしたいていの場合はそういう幸運には恵まれない。店が開いてから半年もたって気がつくということも多い。私たちは個人が発信す情報をる匿名化して処理し、ユーザーが関心を持ちそうな地域で何が起きているのかどんなトレンドなのかなのかをリアルタイムで把握できる」という。

アルゴリズムによって収集された情報は「フーディー・リスト」や「今週のトレンド」いったスタイルに整理され、ユーザーにどこに行ったらいいかを教えてくれる。Linによれば、フーディー・リストは匿名化された情報に基づくコホート分析により人々の短期的集散の状況を観察して得られるという。.ある店に新しく人が集まり始めたとすれば、、こうした動きは将来のトレンドの予兆となっていることが多い。一方、トレンド・リストはもっと長期の訪問者の増減を観察する。たとえば夏になるとアイスクリーム・パーラーを訪問する人口が増える、などだ。

Googleマップのニュースフィードではローカルニュースも分析の対象とする。

LinはFor youが目指しているのは大量の情報を集めることではなく「適切な情報をそれに興味を持つ人に適切なタイミングで配信する」ことだと強調した。

For youフィードにはAIテクノロジーをベースにした各種の高度な探索機能が実装される。たとえばマップはミシュランの星つきレストランのリストを作れる。またユーザーのいる場所、時間帯に応じて、たとえば「ファッショナブルなブランチ・スポット」を提案したりする。

新しいマップに予定されているもう一つの大きなアップデートはYour Matchだ。もしレストランその他を訪問する際に星つき口コミを調べたことがあればどの程度の情報が含まれるのか分かると思う。これに対して、新しいYour Matchは個人別の情報を加味してカスタマイズされた評価を示す。これにはユーザーの現在位置からの距離やユーザー自身の好みなどが反映される。

Googleマップにおけるユーザーの好みはマップの利用履歴の他に Googleマップの設定からマニュアルで入力もできるようになるはずだ。ただしユーザーと好みが似た人々によるある場所の評価は個別ユーザーにおけるカスタマイズには反映されないというのは興味ある点だ。

3番目の大きなアップデートではグループ・プランニングだ。デモを見た印象では、チームのツールとしてなかなかうまく作動していた。これはあるグループに対して簡単に提案や推薦ができる機能だ。グループというものの恋人とのディナーという場合でもよい。リストにある場所を長押しするとGoogleマップにチャットアプリのようなバブル形式のチャットヘッドが現れる。チャットヘッドはユーザーが他の場所を見てまわる間も表示が続く。候補先リストの作成を終えるとユーザーはリストを友達のグループなり恋人なりと共有できる。他のメンバーは自分の好みの場所を選んで投票すればよい。

Googleは新しいマップを夏の終わり頃に一般向けにリリースする予定だ。iOS版、Android版双方が準備されているが、どちらが先になるかはまだ決まっていない。当面新機能はすべてウェブ版ではなくモバイル・アプリ向けとなる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google I/O:1日目キーノート重要発表まとめ

Google I/Oデベロッパー・カンファレンスがGoogle本社に隣接するマウンテンビューのShoreline Amphitheatreで開幕した。1日めのキーノートで発表された重要事項をまとめてみた。〔詳細は上記ビデオ、原文、個別記事を参照。以下は要約〕

GoogleはI/O開催に先立って組織を改変――Google AI事業部新設
Google goes all in on artificial intelligence, rebranding its research division to Google AI

Googleアシスタント改良――いちいちOK、Googleと言わなくても会話を続けられる
Google makes talking to the Assistant more natural with “continued conversation”

GoogleアシスタントにPretty Please機能
子供たちに「言葉遣い」も教えるGoogleアシスタント

GoogleフォトにAI適用――モノクロ写真のカラー化ができる
Google Photos gets an AI boost

GoogleアシスタントとYouTubeにスマート・ディスプレイ
Google Assistant and YouTube are coming to Smart Displays

Googleアシスタントがマップにやってくる
Google Assistant is coming to Google Maps

機械学習ハードウェア発表
Google announces a new generation for its TPU machine learning hardware

Googleニュースにも機械学習を適用
Google News gets an AI-powered redesign

モバイルアプリに機械学習モジュールを組み込める
Google I/O: モバイルアプリ向け機械学習モデル登場――iOS、Android開発にML Kit

原文へ
(翻訳:滑川海彦@Facebook Google+

子供たちに「言葉遣い」も教えるGoogleアシスタント

Google Homeへの「言葉遣い」を気にする親も出てきているようだ。そんな中、GoogleはI/Oカンファレンスにて、Googleアシスタントに、Pretty Pleaseなる機能を追加するとアナウンスした。この機能は、子供たちに「優しい言葉遣い」を促すものだ。「優しい言葉遣い」をすれば、Googleアシスタントも丁寧に応対する仕組みになっている。

たとえば、Googleアシスタントへのオーダーに「Please」をつければ、オーダーへの応答を丁寧に返してくれるようになるのだ。

I/Oでは、ごく短いデモが公開された。それを見ると、オーダーに「Please」をつけると、アシスタントの側も「ご丁寧にありがとう(thanks for asking so nicely)」とか、「とても丁寧な方ですね(You’re very polite)」などと返事をするようになっている。

こうした機能は、小さな子供をもつ両親たちの懸念がきっかけに導入されることになったものだ。スマートスピーカーに対して、横柄な態度をとり、そうした態度を実生活でも引きずってしまう子供がいるという声が出てきているのだ。

Amazonも、そうした声に応えてMagic Wordなる機能を加えているところだ。

Googleによれば、Pretty Pleaseの機能は今年後半に実装していく予定であるとのことだ。

原文へ

(翻訳:Maeda, H

GoogleのWebサイト最適化ツールLighthouseが3.0にアップ、パフォーマンスの劣化原因を細かいレベルで突き止める

デベロッパーが自分のWebサイトを最適化したり、そのパフォーマンスを検査したりするためのツール、GoogleのLighthouseが今日(米国時間5/8)、3.0にアップデートされた。

このアップデートの最大の目的は、計測をより精密にして、かつ、それに対して何かができるようにすることだ。たとえばページのロード時間が長くて、それを遅くしている犯人はこのコンポーネントだ、と分かれば、具体的な対策が可能だ。たとえばGoogleには、Webサイトを素早くてなめらかにするGoogle AMPのようなプロダクトもある。すべてのWebサイトが最適化されて動くようになると、全体的なエンゲージメントも上がるから、Lighthouseの今度のバージョンでは、Webサイトで何が起きているのか詳しく分かるようになっている。今日その発表が行われたのは、Google I/O 2018の会場だ。

それは、Googleにとっても重要なことだ。ユーザーのWebサイトがGoogleの検索で上位に出てくるためには、そのWebサイトのユーザー(訪問者、利用者)に最良の体験を与え、人気を高めなければならない。そしてそんなWebサイトは当然、パフォーマンスが重要だ。Googleの検索サービスの人気と信用のためにも、そこで見つかるWebサイトはパフォーマンスが良好でなければならない。だから、多くのWebサイトのパフォーマンスがGoogleの人気や利用度も左右する。〔とくにモバイルでは、ロードの早いサイトがGoogle検索で好遇される。〕

またデベロッパーが調子の悪いWebサイトを調べるときには、小さなコンポーネントをひとつひとつ、そこで何が起こっているのかテストしなければならない。そこでLighthouseはデベロッパーに、どの部分でパフォーマンスの劣化が生じているのか、その犯人を突き止められる機能も提供している。その調べる粒度が小さければ小さいほど、改良すべき箇所もより具体的に分かる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Android Pではスマホの使い方をユーザーがコントロールできる機能を充実

Googleは今日のデベロッパーカンファレンスI/Oで、今度のAndroid Pオペレーティングシステムのための一連の新しいツールを発表した。それらはユーザーが使用時間をよりしっかり管理できるためのツールで、たとえばより強力なDo Not Disturb(邪魔しないで)モードや、アプリの使い方の現状を調べる方法などだ。

最大の変化は、Android Pで初めてダッシュボードが導入されることだ。ユーザーはその上で、自分のAndroidがどんな使われ方/使い方をしているかを一望できる。ちなみにその画面のバナーは“dashboard”ではなく“digital wellbeing”(デジタルの幸福)だ。そこで分かることは、自分のスマートフォンを何回アンロックしたか、通知を何回受け取ったか、どのアプリを何時間使った、などの数値だ。アプリの使われ方に関する情報は、デベロッパーがいろいろ盛り込むことができる。たとえばYouTubeでは、その特定のAndroidデバイスだけでなく、すべてのデバイスでYouTubeを見た合計時間が分かる。

Googleによると、ダッシュボードを導入したのは、デベロッパーたちが“意義あるエンゲージメント”と呼んでいるものを盛り上げるためだ。必ずしも健康的とは言えない、スクリーンのアイドルタイムを減らすこと。これからベッドへ行って寝るためにソファなどから立ち上がったら、お尻の下に自分のスマートフォンがあった、とか。このほか、Android Pでは、こんなことが新しくなる:

  • Do Not Disturbモードで通知を無視できる–スマートフォンを裏返すと自動的にDNDモードになる。このジェスチャをGoogleは“shush.”(シーッ)と呼んでいる。またテキストの通知だけでなく、ビジュアルの通知や電話の呼び出しも減らせる。
  • 寝る前にはスマートフォンを“wind down”モード(うとうとモード)にできるd–画面がグレースケールになり、明るさを徐々に減衰する。スマートフォンをふつうの活性状態のままベッドに持ち込まないための、工夫だ。
  • アプリのタイムリミットを設定できる–設定した時間が近づいたらユーザーに知らせ、実際にタイムリミットになったら画面をグレーにしてそのことを教える。.

これらの機能は以前、The Washington Post紙が報じた。テクノロジーのネガティブな側面への懸念、とくにその依存症的/中毒的な性質を取り上げた記事だ。Googleはすでに、子どものデバイスを管理するFamily Linkというツールを提供している。これはアプリへのアクセスをコントロールしたり、時間制限を設定したり、夜間の使用不能を設定したりできる。AmazonのFireタブレットも強力なペアレンタルコントロールを提供しているし、Appleも今年後半にはiOSのペアレンタルコントロールを強化するようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、Assistantの声にジョン・レジェンドを追加

AlexaとSiriの最近のアップデートに負けじと、今日(米国時間5/8)Googleは、Assistantプラットフォームに6種類の声を追加すると発表した。

同社は今日のI/Oカンファレンスで、もっと「人間の話し方に近い」自然なAI音声を開発中であることを発表した。一時停止を自然にするなどの細かい改善によって、Assistantと「より自然な会話」ができるようになるという

新バージョンのAssistantには男性女性両方の声が実装され、Wavenetという同社が1年半前から取り組んできた機械学習技術に基づいて作られている。Googleは、世界中の方言に対応するさらにカスタマイズされたバージョンを開発している

その一方で、Microsoftはちょっとしたビッグネームをスタジオに迎えて音声のパーソナリティーを付加する。はじめにミュージシャンのジョン・レジェンドが今年中にAssitantに加わり、AlexaのスーパーボウルCMを現実に変えつつある。Alexa、君の番だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

これからはchrootツールを使わなくてもChrome OSの上で正規にLinuxを動かせる

かなり前からデベロッパーたちは、Croutonなどのツールを使ってChrome OSマシンをLinuxベースのデベロッパーマシンとして使っていた。それはちょっと面倒なやり方だが、とりあえず使えた。でも今度からは、それがもっと簡単になる。Chrome OSマシンの上でLinuxアプリケーションを動かしたい人は、Settingsメニューにあるスイッチを切り替えだけでそれができるようになる。それは、今後Googleが、Chrome OSにLinuxの現在の安定バージョンの載ったDebian Stretchが動く、仮想マシンを同梱するからだ。

それは、シェルを使えるだけでなく、グラフィクスも完全にサポートされる。だからたとえば、Visual Studio CodeのMicrosoftによるLinuxバージョンを、Chrome OSマシンで動かせる。あるいはAndroid StudioでAndroidアプリを作り、そのラップトップ上でテストできる。Chrome OSのAndroidアプリのサポートは、昨年実現したから。

Linux on Chrome OSの最初のプレビューはすでにGoogleのPixelbookで試せるが、そのほかのデバイスのサポートは“もうすぐ”ということだ。

GoogleのChrome OS担当プロマネ・ディレクターKan Liuによると、デベロッパーがCroutonを使っていることはもちろん知っていたが、でもそうすると、Googleが提供しているセキュリティ機能がいっさい及ばなくなってしまう。最近ではChrome OSマシンもかなり強力になっているので、そのままLinuxを使いたいという要望も増えている、という。

グラフィクスに関しては、Waylandディスプレイサーバーを使用している。ウィンドウのルックスは、Androidや、Chrome OS上のWebアプリケーションと同じだ。

一般ユーザーにはLinuxの内蔵サポートから得られる利益はあまりないと思われるが、デベロッパーにとってはこれでChrome OSマシンがより魅力的になる。Pixelbookのようなハイエンドマシンでは、とくにそうだろう。Liuは、自分たちのチームが相当な労力を費やしてその仮想マシンを最適化した、と強調している。だから、Linuxアプリケーションを動かすことに伴うオーバヘッドは小さい、と見てよいだろう。あまり強力でないマシンでも、コードエディターを不満なく使えるのではないか。

そのうち誰かがWineエミュレータを持ち込んで、Chrome OS機の上でWindowsアプリケーションを動かし始めるのも、時間の問題だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google I/O: モバイルアプリ向け機械学習モデル登場――iOS、Android開発にML Kit

今日(米国時間5/8)開幕したI/Oデベロッパー・カンファレンスでGoogleはML Kitを発表した。iOS、AndroidアプリのデベロッパーはこのSDKを用いることでGoogleによって開発ずみでの機械学習モデル多数をアプリに取り込むことができる。特に巧妙なのは、これらのモデル(テキスト認識、顔認識、バーコードスキャン、画像タグづけ、外界のランドマーク認識などを含む)がオンライン、オフラインの双方で利用できる点だ。ネットワーク接続の状態とデベロッパーの判断に応じて適切な方を選ぶことが可能だ。

向こう数ヶ月の間にGoogleは現在のベーシックAPIにさらに2組を追加する予定だ。ひとつはInboxやGmailでおなじみのスマート返信機能で、もう一つは顔認識API用の高精度の輪郭認識だ。

ゲームのあり方を根本的に変えるような影響があるのはオフライン・モデルだろう。デベロッパーはGoogleが開発したモデルを自分のアプリに組み込める。しかも利用は無料だ。もちろん制限はある。モデルはローカル・デバイス上で作動できるようサイズを小さくされているため正確性は低い。クラウドベースであればコンピューティングパワーにも記憶容量にも制限はない。したがって大きなモデルを用いて正確性な結果を得ることができる。

機械学習などのモデルをオフラインで利用可能にするのは業界のトレンドだ。たとえばMicrosoftは、今年に入って独自のオフライン・ニューラル翻訳を発表している。このサービスはオフラインでも作動する。トレードオフはGoogleのモデルと同様だ。

Googleの機械知能グループのプロダクトマネージャーでAndroidのカメラ機の責任者、 Brahim Elbouchikhiは私の取材に答えてこう述べた。

多くのデベロッパーは機械学習による推論をアプリ内での予備的な処理の部分に取り入れるだろう。たとえば画像内に動物が写っているかどうかをアプリ内で判定し、写っていればたとえば犬種の判定についてはクラウドの処理に任せるというような方法だ。これは合理的だ。オン・デバイスでのラベルづけはおよそ400種類がサポートされるが、クラウドでは1万種類のラベリングが可能だ。ML Kitはわれわれの標準的なニューラルネットワークAPIを用いる。AndroidでもiOSでも同じ機能だ。

ElbouchikhiはML Kitがクロスプラットフォームである点を特に強調した。デベロッパーは機械学習モデルがAndroid専用、iOS専用であることを嫌う。

Googleがあらかじめ学習させたもの以外の機械学習モデルを必要とする場合、ML KitではTensorFlow Liteをサポートしている。

新しいSDKはGoogleのFirebasemの傘下となる。目的はモバイルアプリの開発者が機械学習モデルを使うことを助けることだ。ただし、当然ながらGoogleも指摘しているとおり、機械学習モデルを使ってアプリを加速するにはデベロッパー側の努力が必要だ。これまでもGoogleは機械学習APIを通じていくつもの学習ずみでカスタマイズも可能なクラウド上のMLモデルを提供してきた。 しかしこれまでのモデルはインターネット接続がなければ動作しなかった。またユーザー体験も十分にFirebase、またFirebaseコンソールに統合されているとはいえなかった。

TensorFlow Liteを使う場合でも、Googleはカスタム・モデルを扱いやすいサイズに圧縮することに努めている。今のところは実験段階だが、興味を抱いたデベロッパーはここからサインアップできる。

ElbouchikhiはGoogleの目標は機械学習の一般へ普及だとして、「機械学習をありふれたもう一つのツールにするのがわれわれの目標だ」と述べた。

<

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Androidの新しいジェスチャーはiPhone Xそっくり

Googleは、Android次期バージョンの新機能の一部をデベロッパー会議で披露した。その中にとりわけ馴染みのある機能があった。Android Pにはアプリ間を行き来するナビゲーションに新しいジェスチャーが加わる。その動きはiPhone Xそっくりだ。

Android Pには、われわれが1年以上前から研究してきた新しいナビゲーション方式を導入する」とAndroidのエンジニアリング担当副社長、Dave Burkeが言った。「新デザインによってAndroidのマルチタスキングは、これまでより使いやすく理解しやすくなるだろう」

おそらくGoogleは新しいマルチタスキング画面を1年間検討してきたのだろうが、Appleをコピーしなかったとは信じ難い。iPhone Xは2017年9月に発表された。

Android Pでは、従来のホーム、戻る、およびマルチタスクのボタンがなくなっている。画面下端の中央には薄い横長のボタンが1つだけある。このボタンを上向きにスワイプすると、マルチタスク画面になって最近使ったアプリの一覧が表示される。画面を左右にスワイプすれば目的のアプリを選ぶことができる

もう一度上にスワイプすると、推奨アプリの並んだアプリドロワーが画面上端に表示される。いつでもボタンをタップすればホーム画面に戻れる。これらのジェスチャーはアプリを使っているときにも機能する。アプリの中では左下隅に戻るボタンが追加される。

薄いボタンを左右にスワイプすると隣のアプリに切り換えられる。これはiPhone Xと全く同じだ。複数のアプリをめくっていくこともできる。指を離すと選んだアプリに移動する。

Android Pベータは何種類かのデバイス向きに今日から入手できる。エンドユーザーには今後数カ月のうちにこの新バージョンがやってくる。

iPhone Xのジェスチャーは驚くほどエレガントで効率的なのでGoogleの選択を責めることはできない —— そしてもちろん、あのPalm Preによく似ていることもわかっている。iPhone Xを使ったあと現行バージョンの動くAndroid機を使うと、最近使ったアプリに移動するのに複数回のタップが必要なためずっと遅く感じる。

変化をもたらしたのはAppleであり、どのスマートフォンもiPhone Xのように動作すべきことは明らかだ。それでもGoogleが何か言われるのは仕方のないことだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

IoTのベースOSとなるAndroid Things、ベータを脱して1.0をローンチ、I/O前日に発表

今日(米国時間5/7)Googleは、同社のIoT開発プラットホームAndroid Thingsがベータを終えた、と発表した。8つのリリース候補のうち、最後のは1か月足らず前にローンチし、そして今やAndroid Thingsは完熟のようだ。ベータのときから何社かが実際に製品を作り始め、またGoogleのAndroidスマートディスプレイのローンチパートナーたちも、このプラットホームがベースだ。

Android Thingsはハードウェアとソフトウェアのデベロッパーに、さまざまなIoTデバイスを作るためのSDKを提供する。またGoogleは、Raspberry Piなどハードウェアメーカー数社とパートナーしてデベロッパーキットを提供しており、さらに、デバイスを管理したり、プロトタイプや本番製品をネット経由でアップデートするためのデベロッパーコンソールも提供している。

つまりハードウェアのメーカーにIoT用のオペレーティングシステムを提供するんだけど、その管理はGoogleがやるので、デベロッパーは自分の製品づくりに専念できる。システムやそのメンテナンスを、気にせずにすむ。Googleは安定性向上のためのフィックスとセキュリティパッチを3年間提供するが、その延長契約も可能だ。

Googleによると、プレビューの段階でSDKは10万以上ダウンロードされた。そしてベータの間には、デベロッパーからのフィードバックが1万あまり得られた。

非商用のユーザーは最大100までのデバイスをAndroid Things Consoleで管理し、製品の市場展開ができる。デバイスが100を超えたり、商用製品を展開することになったら、Googleとの正式な契約が必要だ。

今日のローンチの一環としてGoogleは、二つのSystem-on-Modules for Thingsのサポートを発表した。それらのベースは、NXP i.MX8M, Qualcomm SDA212, Qualcomm SDA624, MediaTek MT8516だ。これらよりも前に、Raspberry Pi 3 Model BとNXP i.MX7Dデバイスはすでにサポートされている。ただし、NXP i.MX6ULのサポートは終了した。

GoogleのデベロッパーカンファレンスI/Oが明日から、というその一日前にAndroid Things 1.0の発表をするのは、なんか変だが、今日から行われるMicrosoftのカンファレンスBuildでもIoTが強調されるらしいから、Googleも発表をできるだけ早めたかったのだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa