AIでお利口になったGoogle NewsアプリがiOSとAndroidに登場

Googleは先週のI/Oイベントで、AIで強化したNewsアプリの新バージョンを披露したが、今日(米国時間5/15)ついにその新装アプリのiOSバージョンAndroidバージョンが127か国でローンチされた。この、設計もデザインも一新されたアプリは、これまでGoogle PlayにあったNewsstandアプリをリプレースする。

ニュースの発見や消費が前よりも容易になり、ユーザー体験を読者がカスタマイズでき、そして各種のメディア刊行物をこのアプリからサポートする。AIが読者の嗜好から学んでその人向けのコンテンツを提供するが、アプリ全体のデザインとレイアウトはきわめてすっきりしている。

アプリを開くと‘For You’(おすすめ)タブがあり、現時点の上位5つの記事や、あなたに向いていると思われるオピニオン、その下の長い読み物などがある。

‘Headlines’(ヘッドライン)というタグは最新のニュース集で、国際、国内、ビジネス、テクノロジー、エンタメ、スポーツ、科学、健康などに分かれている。記事タイトルをクリックすると、関連記事や社説、オピニオン、ツイート、ビデオ、イベントのタイムラインなどのリストが表示される。

  1. google-news-3

  2. google-news-1

  3. google-news-2

ユーザーが設定するカスタマイズには、AIが介入しない。だから好きなトピックやニュースソース、位置などを自由に指定できる。これは良い! 検索や記事を保存しておけるし、それらを一発で呼び出せる。

‘Newsstand’(ニューススタンド)というセクションでは、好きなメディアを指定できる。雑誌は1000種以上に対応しているそうだから、その中から好きなやつをタップして選ぶ。ただしこのセクションは、まだ建設途上のようだ。完成していない。

これもまだ未来形の機能である“Subscribe with Google”(Googleから購読する)では、各種メディアをGoogleのアカウントで有料購読できる。決済情報は、Google上のそれが使われる。それらのコンテンツは、NewsだけでなくGoogle Search(検索)や発行者のWebサイトでも閲読できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleのワイヤレスイヤホン”Pixel Buds” に新機能が追加

I/Oカンファレンスが終わってもGoogleのニュースは止まない。最新の話題はGoogleユニバースの意外なところからだった。同社のほどほどの評価のBluetoothイヤホン、Pixel Budsにちょっとうれていソフトウェアアップデートがやって来た。

今日(米国時間5/15)のブログでGoogleは、このイヤホンを少し賢くする新機能を紹介している。

まず目についたのはBluetoothペアリングの改良。これはハードウェアアップグレードではないので、当初指摘された問題にはまだ遭遇するかもしれないが、同期しているハードウェアの切り替えはずっと簡単になった。接続したコンピューターのドロップダウンメニューでPixel Budsを選べば、ペアリングが切り替わる。

新しいタッチジェスチャーもいくつか加わった。右のイヤホンをトリプルタップするとイヤホンのオン/オフが切り替わり、ダブルタップすると次の曲にスキップする。ただし後者のジェスチャーを使うためにはGoogle Assistantアプリ内のPixel Buds設定で機能を有効にする必要がある。
アップデートは今日からユーザーに公開される。あっと驚くような改訂ではないが、すでにGoogleのワイヤレスヘッドホンに160ドルを投じた人たちは、よりよいPixel Buds体験を得られるだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google Compute Engineに最大3844GBのバーチャルマシン登場

ときおり「もっとRAMが必要だ」という状況に出くわす。メモリーを大食いする巨大エンタープライズ・アプリ、たとえばSAPのHANAデータベースなどを運用しているときだ。 非常に高いパフォーマンスを必要するタスクを実行するときもそうだ。これまでGoogleのクラウド・プラットフォームでCompute Engineを利用する際の最大メモリー割当は624GBだった。しかし今日(米国時間5/15)、メモリー割当の大幅拡大が公式ブログで発表された。新たに導入されたクラスでは最大160台のバーチャルコアに3844GBを割り当てることができる。

新しいクラスはn1-ultramemと名付けられ、既存のn1-megamemクラスの一員となる。n1-ultramemはコアの数によって3種類に分けられている。もちろん高いパフォーマンスを得るにはそれなりのコストが必要だ。いちばん「低い」バージョン、40コア、938GB RAMの場合は月額3221ドルだ。トップエンドの160コア、3844GBのバージョンとなると月額1万2885ドルとなる。

1時間当たりの料金表を下にエンベッドした。

これらの新しいバーチャルマシンの投入でGoogleもハイパフォーマンスのクラウド・コンピューティング市場でAWSプラットフォームと互角にわたりあえるようになった。実際GoogleのほうがAWSよりコンピューティング・パワーがわずかに強力だ。これは新しいプロセッサーを用いており、コアの数自体も多いためだ。

Googleは、当然ながら、n1-ultramemの典型的なユースケースとしてSAP HANAを挙げている。公式ブログには 「クラウドへの移行をためらっている理由が、現在社内で実行しているSAP HANAデータベースのインスタンスをロードできるほど大容量のクラウド・メモリーが見当たらなかったからだとすれば、われわれのCompute Engineをチェックしていただきたい。アプリケーションが次々にクラウドに移行する中、データベースだけをオンプレミスで運用しなければならない理由はなくなった」と書かれている。

新しいultramemマシンが利用できるリージョンは現在、us-central1、 us-east1、europe-west1だが、今後さらに拡大される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GmailのSmart Composeで簡単に英文レターが書ける

Googleは先週のI/Oデベロッパー・カンファレンスで ウェブ版Gmailのアップデートを発表した。われわれもSmart Composeというスマート自動補完機能を紹介した。この機能の実地テストがいよいよ始まった。

Smart Composeは文を書き始めると自動的にその後を補完してくれるAIツールだ。Googleはある書き出しでどういう文が続くかを多くの実例に基づいて推定する。実際に使ってみたところではI/Oで宣伝されたほど完全なものではない。しかしかなり便利なツールで、メール作成の手間はだいぶ減らしてくれそうだ。

この機能を使うにはまずGmailの設定でExperimental Accessを有効にする必要がある。

 

既存のSmart Replyはモバイルデバイスから定形返信をするには便利だが、使うとなにか虚しい気持ちがする。返信パターンもごく限られており、せいぜい数語程度のメールしか作成できない。これでは受け取った相手に「おそろしく不精なやつだ」と思われてしまうのではないか不安になる。しかし私は日頃たくさんのメールに返信する必要があるのでこの機能は時間の節約に効果的だ。新しいSmart Composeはもっと長い文が書けるが、トレードオフは同様だろうと思う。

現在Smart Composeの機能はまだ限られている(英文でのみ有効)が、提案が的中したときはほとんど魔法のようだ。しかし今のところ典型的な文しか作成できない。Googleが想定しているシナリオから外れたメールの場合、延々と文章を書いていても提案が一つもポップしないことがある。

Smart Composeは常套句が大好きで、作成される文は非常に典型的だ。たとえばHi、と打つと宛先人名が補完される。あまり知的な文章にはならないが手数が省けることは間違いない。しかし実験レベルでは初歩的でも、その後長足の進歩を遂げるのがGoogleのプロダクトの常だ。今後の改良が期待できる。

〔日本版〕日本で利用するには設定(歯車アイコン)からまず言語をEnglishに変更して保存しておく必要がある。その後、Settingを開きGeneralからExperimental Accessを有効にする。たとえば、afと入力するとafternoonが提案されるのでtabキーで確定する。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

新しいGoogle One、ストレージ半額でサポートも充実――2TBが月10ドル、24時間年中無休ヘルプなど

今日(米国時間5/14)、Googleは一般ユーザー向けクラウド・ストレージの料金を大幅値下げすると発表した。 新しく月額2.99ドルで200GBのプランが設けられ、2TBのプランは従来の月額19.99ドルから月額9.99ドルに値下げされた(これにともない月額9.99ドルで1TBのプランは廃止された)。またクラウド・ストレージ・サービスのブランドはGoogle Oneに変更された(ただしGoogleドライブのブランドはそのまま)。

またこのアップデートの実施後、ユーザーは契約ストレージ容量を家族最大5人までと共有できるようになる。

最近では4Kビデオや高精細画像が普及したため、100GBくらいはまたたくまに使ってしまう。しかし今回のアップデートにはもうひとつ重要な狙いがある。新しいブランド名のGoogle Oneには、あらゆるGoogleサービスからワンタップでGoogle Expertsにアクセスして援助を受けることができるという意味がある。

Google Expertsを担当するのは人間の専門家で、生半可やAIチャットボットなどではない。Expertsサービスは24時間年中無休、月額1.99ドルで100GBという入門編のプランでも利用可能だ。メールでも電話でも受け付ける。当初はアメリカ市場でスタートするが、Googleによれば「このワンタップ・サポートをあらゆる地域に拡大し、日々改良していく〔のがわれわれの〕目的だ〕ということだ。

GoogleではG Suiteで有料のビジネスユーザー向けに24時間年中無休のサポートを提供しているが、一般向けサービスでのライブ・ヘルプの提供は今回が初めてだ。

なお、15GBで無料というプランはこれまでどおりで内容に変更はない。

契約者はライブでサポートを受けることができるようになるだけでない。Google Oneのディレクター、Larissa Fontaineが私に語ったところによれば、契約者はGoogle検索で発見したホテルの宿泊料金その他Google Payで支払を行う各種サービス、プロダクトについて特別割引を受けることができるという。Fontaineは「カバー内容を次第に拡大していきたい」と述べた。

Google Oneグループのプロダクトマネージャー、Brandon Badgerに取材したところでは、「われわれがユーザーのクラウド・ストレージの利用状況を調べたところ4Kビデオを撮影して家族と共有するという使い方が増えていた。こういう場合、利用するデバイスの数も多くなっていた。新しいプランはこういう利用スタイルに合わせたものだ」という。

またFontaineによれば、クラウドストレージのユーザーは概してGoogleのヘビーユーザーであり、ストレージとヘルプを一体化するのはきわめて理にかなっているという。

ひとつ残念なのは、既存の契約者に対するアップグレードに多少の時間がかかるという点だ。Googleはここ数ヶ月かけて順次既存の契約をGoogle Oneのアカウントに変更していくという。まずアメリカ市場が対象で、以降世界に拡大していく。Googleはクラウドストレージの契約(ファイルではない)を管理するための新しいAndroidアプリを準備している。

今回のアップグレードはクラウドストレージに関するものだが、Google Oneは料金値下げやヘルプサービスの追加だけに留まるものではない。Google Oneは新しい野心的なプランの第一歩であることは間違いない。Google Oneは今のところそのブランド名にもかかわらずストレージという分野しかカバーしていない。新しい総合的なサービスが今後発表されていくだろう。たとえば、Googleのあらゆる一般向けサービス、つまりドライブ、YouTube、Red、Play Music(それにまだ発表されていない新サービス)などを一括して契約、管理できるサービスも考えられる。

〔日本版〕Googleドライブのページにはまだアップグレードに関する発表はない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Clipsがハグやキスなど貴重な瞬間を認識してばっちり撮影する

【抄訳】
AIを山盛りにした“スマートカメラ”Clipsがさらにスマートになったことを今日(米国時間5/11)、Googleが発表した。とくにそれの、‘特別な瞬間’を捉える能力が進化した。たとえば、ハグとかキスなんかだ。ジャンプやダンスなんかも捉える。プライベートな特別な瞬間をすべて、苦労せずに撮っておきたければ、ぜひ利用しよう。

でも、すこし、説明をしたい。

Google Clipsは、画期的な消費者製品というよりも、今の人工知能の能力を写真撮影に使ったらこんなことができる、という概念実証のような製品だ。

両親も犬もいる私なんか、まさにこのカメラのターゲットだ(かわいい犬だよん)。でも私は、撮るのが難しい瞬間を捉えることのできるスマートカメラを欲しいとは思わない。うちの子や犬が、カメラの前でじっとしててくれるとしてもね。

なぜ欲しくないのか、その説明は難しい。写真が自動的にクラウドにアップロードされて公開されるからではない。というか、勝手に自動的にアップロードされることはない。寫眞はカメラ本体の16GBのストレージに保存され、あとで見たりシェアしたり消したりできる。お値段は、最近50ドル値下げされても199ドルとお高いが、欲しくないのは値段のせいでもない。

問題はたぶん、このカメラの‘思想’だ。

ある瞬間を完全にエンジョイするためには、それをカメラで捉えなければならない、という思想。しかしそのためには、生活や仕事をそっちのけにして、カメラやスマートフォンを手に持ち、その瞬間を逃さないようにしなければならない。子どもと遊んでるときも、犬にボールを投げてやっているときも。そしてこの問題への唯一の解が、テクノロジーの屋上屋を架すこと(テクノロジーの過剰)であること。カメラ(やスマートフォン)のことを忘れてもよい、ことであってほしいね。

もうひとつ、いらつくのは、すべての貴重な瞬間を写真やビデオに撮る、というClipsの思想。実際には、一瞬で過ぎ去ってほしい瞬間もある。記憶に残るだけでよいものもある。いろんな瞬間が積み重なって絆(きずな)や愛になるけど、その全部を撮らなくてもいい。

何もかもを写真で残す必要はない。

どうしても撮りたい瞬間、赤ちゃんが初めて歩くときとか、忙しすぎてパーティーのスナップ写真を撮れないときなどは、スマートフォンのカメラを“Google Clips”モードにすればよい。そう考えると、199ドルは高い。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

I/O:Google Payが全面アップデートへ――新APIでチケット購入、ボーディング・パス発行などに対応

マウンテンビューで開催されたGoogle I/Oデベロッパー・カンファレンスでGoogle Pay(以前のAndroid PayとWalletが統合)の大幅アップデートが発表された。今回Googleがオンライン支払プラットフォームに追加した新しい支払機能にはAPIの利用、P2P送金、チケット購入、ボーディングパス発行などが含まれる。

ブラウザやデバイスのサポートの追加が予定されていることはすでに発表されていたが、アップデートの詳細が明らかになったのは今回の I/Oが最初だ。新機能はGoogle Payプラットフォームに順次公開される。

特に目立った新機能の一つはGoogle PayアプリでP2P送金が可能になったことだろう。この機能は当面アメリカとイギリスでリリースされる。

また支払履歴はあちこち探し回る必要なしに、アプリ内から一箇所で確認できるようになった。

Google Payのプロダクト責任者、Gerardo CapielはI/Oのデモセッションで次のように述べた。

今回アップデートされる新しいGoogle Payでは、Googleを経由するすべての支払が単一のアカウントで処理できるようになる。対応店舗での支払時だけでなく、Playストア、YouTube、サードパーティーの通販会社、Uber、友だちへのP2P送金などすべての支払について全体像が一覧できる。

ユーザーは送金、送金の要請などGoogleアカウントに関連する支払関連の履歴をGoogle PayのiOSアプリでも表示し、確認できる。

I/Oはデベロッパー・カンファレンスなので、こうした新しい機能はデベロッパーが利用できる新しいAPIという形で紹介された。

デベロッパー向けの努力の第一歩としてGoogle Payをサードパーティーのアプリに組み込むための新しいAPIがリリースされた。

「われわれのAPIセットを使えば、サードパーティーのマーチャントはアプリであれウェブサイトであれ(支払情報がGoogle Payに登録ずみの)準備済みユーザーに関しては簡単に支払を処理できる」とCapielは述べた。

Capielによれば、デベロッパーはGoogle Payをサポートすることによって処理の迅速化とコンバージョン率のアップを図ることができるという。

これに加えて楽曲や飛行機のチケットの購入、ボーディングパス発行も、関連する情報をGoogle Pay APIに渡すことで処理できる。この場合、会員カードへのポイント、マイレージの加算
も従来どおりサポートされるという。

これによりiOSアプリ開発のUrban Airshipや送金プラットフォームのDotDashPayなどは顧客企業に提供しているアプリにGoogle Payを利用してチケットや契約をアップグレードする機能を容易に追加できる。

DotDashPayのファウンダー、CEOのSean Ariettaはプレゼンの後でTechCrunchの取材に対して「Google Payがデジタルウォレット機能の強化にこれまで以上に取り組んでいるのは心強い。今回のGoogle PayのアップグレードでわれわれDotDashPayのようなパートナーが提供しているブランドと消費者を結びつける機能がさらにアップグレードされた。支払からNFCによるタップ認証までまでの一連の流れをすべてこなすところがデモされたが、非常に強力だった。Google Payはほぼ完璧な仕上がりになった」と述べた。

Urban Airshipも今週、プレスリリースでアップグレードを発表している。【略】

Google Payがチケット購入をサポートするにあたってのアーリー・パートナー、 Singapore Airlines、Eventbrite、Southwest、FortressGBなどが含まれる。FortressGBはイギリスを始めとする各国でプロサッカーリーグのチケットを扱っている企業だ。

近くGoogle Payを採用する予定の公共交通関係のパートナーにはカナダのバンクーバー、イギリスのバス会社や近くスタート予定のラスベガス、ポートランドの交通機関が含まれる。

今回Google Payの普及度について新しい数字が発表された。それによるGoogle Playストアでのダウンロードは世界18カ国の提供地域で1億回以上となっている。

今回発表されたGoogle Payアプリの新機能の多くは世界で数十億といわれるGoogleユーザー向けに近々公開される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google、Assistantのおなら対応に即興演芸の技を利用

Google I/Oの2日目も後半に入りみんなが少し疲れてきた。午後遅くのAssistantのデザインに関するセッションで、Googleの主任デザイナー、Ryan Germickは、AIの個性を作るために即興演芸のスキルを活用していることを話した。そして、人生でも難しい質問のひとつに答えた。

Assitantが「みんなが思うよりずっと多く」受ける質問のが、「おならした?」だ。まず、おならはいつも笑える。そして、人間の発する様々な臭いの責任を押しつけられなければスマートアシスタントを使う意味はない。

Germickは、Googleが体験した、おなら質問に対する色々な答を紹介した。たとえば、「もちろん私ではありません。私には体がありません」というのはあまり満足のいく答ではない。代りにGoogleは「巧みにはぐらかす」やり方として、improv[即興演芸]の入門コースを受けた人が必ず教えられる(”yes, but”ではなく) “yes, and”話法を採用した。

というわけで、Google Assitantにおならをしたかと聞いてみよう。おそらく「私のせいにしたいなら、すればいいですよ」といった感じの25種類ほどの答が返ってくるだろう。

もうひとつ、アイザック・アシモフのロボット工学第4の原則を忘れてはならない:くさいと言いだした人が、おならをした人だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google I/O:マップ・アプリにニュースフィード――個人別に情報や提案を配信するようになる

マウンテンビューの野外コンサートホール、Shoreline Amphitheatreで開催中のデベロッパー・カンファレンス、Google I/Oで、Googleマップの新バージョンが発表された。アップデートはこの夏に実施される予定だ。もちろんナビ機能は維持されるが、次世代マップではこれに加えて多数の便利な探索機能が追加される。

Googleマップのシニア・プロダクトマネージャー、Sophia Linは私の取材に答えて次のように語った。

1年ほど前に Googleマップに何を望むかユーザーにアンケートしたことがある。どうしたらもっと役に立てるだろうか、どんな新機能があったら便利だと思うかと尋ねた。
その中で圧倒的に多い答えが、『自分がいる場所についての情報をもっと詳しく知りたい』というものだった。それによって次にどちらに向かったらいいかを決められるという。そこで私たちはどうしたらその方向でユーザーの手助けができるか研究を始めた。

Googleマップの最大の機能はもちろん「行きたいところへ行くことを助ける」点だ。最近、Googleはマップにありとあらゆる機能を追加しているが、多くのユーザーに利用されているとは言えない。私はLinからマップの探索機能を利用しているユーザーのパーセンテージを聞き出すことはできなかったが、今回の新機能は機械学習の適用によりマップを大幅にスマート化しようとするもののようだ。

もちろん GoogleのことなのでAIを利用したユーザー別の個人化もいっそう進歩する。

新しいマップではFor youという専用タブが新設される。簡単に言えば、ユーザーに対し各種の推薦や情報の提供を行うニュースフィード的な仕組みだ。ただし「フォロー」する相手は人間ではなく、ある地域(お気に入りの町、観光地、訪問を予定して場所等々)だ。フォローしている地域で何かが起きて、Googleがそのニュースがユーザーの関心に合致すると判断すると配信されるのはソーシャルネットワークの場合と同様だ。たとえばその地域であるレストランの人気が高まっているとか、有名コーヒーショップのチェーン店がオープンしたなどという情報を教えてくれる。

Linによれば、これまで地域で何か新しいことを発見するのは運任せの面が大きかった。「たまたま道を歩いていて何かを見つけるということはある。しかしたいていの場合はそういう幸運には恵まれない。店が開いてから半年もたって気がつくということも多い。私たちは個人が発信す情報をる匿名化して処理し、ユーザーが関心を持ちそうな地域で何が起きているのかどんなトレンドなのかなのかをリアルタイムで把握できる」という。

アルゴリズムによって収集された情報は「フーディー・リスト」や「今週のトレンド」いったスタイルに整理され、ユーザーにどこに行ったらいいかを教えてくれる。Linによれば、フーディー・リストは匿名化された情報に基づくコホート分析により人々の短期的集散の状況を観察して得られるという。.ある店に新しく人が集まり始めたとすれば、、こうした動きは将来のトレンドの予兆となっていることが多い。一方、トレンド・リストはもっと長期の訪問者の増減を観察する。たとえば夏になるとアイスクリーム・パーラーを訪問する人口が増える、などだ。

Googleマップのニュースフィードではローカルニュースも分析の対象とする。

LinはFor youが目指しているのは大量の情報を集めることではなく「適切な情報をそれに興味を持つ人に適切なタイミングで配信する」ことだと強調した。

For youフィードにはAIテクノロジーをベースにした各種の高度な探索機能が実装される。たとえばマップはミシュランの星つきレストランのリストを作れる。またユーザーのいる場所、時間帯に応じて、たとえば「ファッショナブルなブランチ・スポット」を提案したりする。

新しいマップに予定されているもう一つの大きなアップデートはYour Matchだ。もしレストランその他を訪問する際に星つき口コミを調べたことがあればどの程度の情報が含まれるのか分かると思う。これに対して、新しいYour Matchは個人別の情報を加味してカスタマイズされた評価を示す。これにはユーザーの現在位置からの距離やユーザー自身の好みなどが反映される。

Googleマップにおけるユーザーの好みはマップの利用履歴の他に Googleマップの設定からマニュアルで入力もできるようになるはずだ。ただしユーザーと好みが似た人々によるある場所の評価は個別ユーザーにおけるカスタマイズには反映されないというのは興味ある点だ。

3番目の大きなアップデートではグループ・プランニングだ。デモを見た印象では、チームのツールとしてなかなかうまく作動していた。これはあるグループに対して簡単に提案や推薦ができる機能だ。グループというものの恋人とのディナーという場合でもよい。リストにある場所を長押しするとGoogleマップにチャットアプリのようなバブル形式のチャットヘッドが現れる。チャットヘッドはユーザーが他の場所を見てまわる間も表示が続く。候補先リストの作成を終えるとユーザーはリストを友達のグループなり恋人なりと共有できる。他のメンバーは自分の好みの場所を選んで投票すればよい。

Googleは新しいマップを夏の終わり頃に一般向けにリリースする予定だ。iOS版、Android版双方が準備されているが、どちらが先になるかはまだ決まっていない。当面新機能はすべてウェブ版ではなくモバイル・アプリ向けとなる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Niantic、ARマップ作成にクラウドソーシングを活用

Nianticが単なるカジュアルゲームとは違う広大なプランを持っていることは明らかだ。Google傘下のスタートアップが2016年に公開したタイトル、ポケモンGOはAR(拡張現実)がメインストリームになる大きなきっかけを作ったとされている。このたび同社はさらに一歩先を目指して、その膨大なユーザー基盤を活用して大規模なARマップを作ろうとしている。

計画が最初に明らかになったのは今日午前のReutersの報道で、Niantic CEO John Hankeとの会話に基づく内容だった。Hankeは、「プレーヤーたちには自分たちの遊びたいゲームボードを作って欲しい」と語り、そうやって世界を作ることは「新しいタイプのソーシャル行動」を育むだろうと付け加えた。

スケジュールは何も決まっていない。また、そのマップがポケモンから来るのか、同社待望の続編であるHarry Potter: Wizards Uniteからなのかも不明だ。しかしはっきりしているのは、Nianticが最近買収したEscher Realityの開発したAR技術を利用して、公園などの公共空間を手がけようとしていることだ。

計画の狙いはサードパーティーが利用できる大規模プラットフォームを作ること。Apple、Googleという主要モバイル企業がARKit、ARCoreというツールを通じてデベロッパーにARアプリ開発を推進していることから、需要が高まることは間違いない。

Nianticを当初から見守ってきたGoogleは、今週のGoogle I/Oでマップ内の歩行ナビゲーションを発表するなどARへの強い意気込みを改めて表明している。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google I/O:1日目キーノート重要発表まとめ

Google I/Oデベロッパー・カンファレンスがGoogle本社に隣接するマウンテンビューのShoreline Amphitheatreで開幕した。1日めのキーノートで発表された重要事項をまとめてみた。〔詳細は上記ビデオ、原文、個別記事を参照。以下は要約〕

GoogleはI/O開催に先立って組織を改変――Google AI事業部新設
Google goes all in on artificial intelligence, rebranding its research division to Google AI

Googleアシスタント改良――いちいちOK、Googleと言わなくても会話を続けられる
Google makes talking to the Assistant more natural with “continued conversation”

GoogleアシスタントにPretty Please機能
子供たちに「言葉遣い」も教えるGoogleアシスタント

GoogleフォトにAI適用――モノクロ写真のカラー化ができる
Google Photos gets an AI boost

GoogleアシスタントとYouTubeにスマート・ディスプレイ
Google Assistant and YouTube are coming to Smart Displays

Googleアシスタントがマップにやってくる
Google Assistant is coming to Google Maps

機械学習ハードウェア発表
Google announces a new generation for its TPU machine learning hardware

Googleニュースにも機械学習を適用
Google News gets an AI-powered redesign

モバイルアプリに機械学習モジュールを組み込める
Google I/O: モバイルアプリ向け機械学習モデル登場――iOS、Android開発にML Kit

原文へ
(翻訳:滑川海彦@Facebook Google+

子供たちに「言葉遣い」も教えるGoogleアシスタント

Google Homeへの「言葉遣い」を気にする親も出てきているようだ。そんな中、GoogleはI/Oカンファレンスにて、Googleアシスタントに、Pretty Pleaseなる機能を追加するとアナウンスした。この機能は、子供たちに「優しい言葉遣い」を促すものだ。「優しい言葉遣い」をすれば、Googleアシスタントも丁寧に応対する仕組みになっている。

たとえば、Googleアシスタントへのオーダーに「Please」をつければ、オーダーへの応答を丁寧に返してくれるようになるのだ。

I/Oでは、ごく短いデモが公開された。それを見ると、オーダーに「Please」をつけると、アシスタントの側も「ご丁寧にありがとう(thanks for asking so nicely)」とか、「とても丁寧な方ですね(You’re very polite)」などと返事をするようになっている。

こうした機能は、小さな子供をもつ両親たちの懸念がきっかけに導入されることになったものだ。スマートスピーカーに対して、横柄な態度をとり、そうした態度を実生活でも引きずってしまう子供がいるという声が出てきているのだ。

Amazonも、そうした声に応えてMagic Wordなる機能を加えているところだ。

Googleによれば、Pretty Pleaseの機能は今年後半に実装していく予定であるとのことだ。

原文へ

(翻訳:Maeda, H

Waymo、Google I/Oで降雪時の自動運転について紹介。機械学習でセンサー情報から雪を除去

eng-logo-2015自動運転車は、ルーフや車体各部に取り付けた各種センサーで路上や周囲の情報を読み取り、それをコンピューターがリアルタイムに分析して自動車の操縦を行います。しかし、ひとたび雪が積もってしまえばセンターや路肩のライン、停止線などはは見えなくなり、場合によっては道路標識も雪に覆われて判別不能になってしまいます。

そんな一般のドライバーでも運転が難しい状況で自動運転車を走らせたらどうなるか、Googleの自動運転車開発を受け持つWaymoがその様子を5月9日の開発者会議Google I/Oで発表しました。

まず、自動運転車からみた降雪(や降雨)は、基本的にはセンサーノイズとして認識されます。画像を見てもわかるように、画面いっぱいに紫の縦スジが出ているのはすべて降り落ちる雪です。

これをすべて障害物と認識していてはまともに走ることはできません。Waymoは、マシンラーニングを利用してセンサー情報から雪を「ろ過」するようにし、路上駐車やその他の障害物をうまく認識させるようにしました。

すでに積もってしまった雪の下に隠れる車線を、自動運転車が認識できるかは明らかにされませんでした。またスリッパリーな路面を安全に走れるだけのドラテクを、自動運転車が備えているのかにも不安は残るところですが、すくなくともGoogleの説明ではこの状態でも何かにぶつからずに自宅を目指すことができるとのことです。

この技術は、地図にない田舎の道路を走る自動運転技術とともに、自動運転車の実用化のためには不可欠です。世界の大陸、巨大都市の多くが高緯度の場所にあり、冬場には当然雪も降ります。そのような地域への対応が、実は自動運転車の普及に大きく影響するかもしれません。

Engadget 日本版からの転載。

Google I/Oについて会話をした(誰と?)

〔*印のある記事は、日本語訳です。〕

やあ、Google、今日のGoogle I/Oは何があった?

人工知能。

そうか、あまり具体的じゃないね。今日はAndroid Pがリリースされたそうだけど、何が新しいの?

人工知能

ふーん。Androidの電池寿命を長くする機能を、何か加えたのかな?

人工知能

じゃ、次行こう。明るさの設定はどうなの? それにも新しいものがあるらしいけど?

人工知能

明るさと人工知能とどんな関係があるんだい? なぜ、一つのことしか言わないの? 別のアプリの話をしよう。Google Mapsは何が新しくなった?

人工知能

Photosは?

人工知能

Lensは?

人工知能

Newsは?

人工知能

Gmailは?

人工知能

Gboardは?。

人工知能

きみはこれまでで最悪のアシスタントだね。そもそもGoogleはAssistantをアップデートしたの?

人工知能

ひぇーっ! Googleは今日、開発ツールをたくさんリリースしたそうだね。ML Kitはどうなの?

*人工知能

Duplexは?

人工知能

それにテンソルの処理は…おっと、もういいよ。だいたい分かったから。ところでGoogle Researchは今でもGoogle Researchだよね?

人工知能

違うよ、Google Researchだろ。

人工知能

なんだ、名前が変わったの。きみはまるで、PR用のおしゃべりロボットだね。

人工知能。

ちょっと待って、きみは人間じゃないよね?

人工知能。

きみは、チューリングテストに合格だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Android Pではスマホの使い方をユーザーがコントロールできる機能を充実

Googleは今日のデベロッパーカンファレンスI/Oで、今度のAndroid Pオペレーティングシステムのための一連の新しいツールを発表した。それらはユーザーが使用時間をよりしっかり管理できるためのツールで、たとえばより強力なDo Not Disturb(邪魔しないで)モードや、アプリの使い方の現状を調べる方法などだ。

最大の変化は、Android Pで初めてダッシュボードが導入されることだ。ユーザーはその上で、自分のAndroidがどんな使われ方/使い方をしているかを一望できる。ちなみにその画面のバナーは“dashboard”ではなく“digital wellbeing”(デジタルの幸福)だ。そこで分かることは、自分のスマートフォンを何回アンロックしたか、通知を何回受け取ったか、どのアプリを何時間使った、などの数値だ。アプリの使われ方に関する情報は、デベロッパーがいろいろ盛り込むことができる。たとえばYouTubeでは、その特定のAndroidデバイスだけでなく、すべてのデバイスでYouTubeを見た合計時間が分かる。

Googleによると、ダッシュボードを導入したのは、デベロッパーたちが“意義あるエンゲージメント”と呼んでいるものを盛り上げるためだ。必ずしも健康的とは言えない、スクリーンのアイドルタイムを減らすこと。これからベッドへ行って寝るためにソファなどから立ち上がったら、お尻の下に自分のスマートフォンがあった、とか。このほか、Android Pでは、こんなことが新しくなる:

  • Do Not Disturbモードで通知を無視できる–スマートフォンを裏返すと自動的にDNDモードになる。このジェスチャをGoogleは“shush.”(シーッ)と呼んでいる。またテキストの通知だけでなく、ビジュアルの通知や電話の呼び出しも減らせる。
  • 寝る前にはスマートフォンを“wind down”モード(うとうとモード)にできるd–画面がグレースケールになり、明るさを徐々に減衰する。スマートフォンをふつうの活性状態のままベッドに持ち込まないための、工夫だ。
  • アプリのタイムリミットを設定できる–設定した時間が近づいたらユーザーに知らせ、実際にタイムリミットになったら画面をグレーにしてそのことを教える。.

これらの機能は以前、The Washington Post紙が報じた。テクノロジーのネガティブな側面への懸念、とくにその依存症的/中毒的な性質を取り上げた記事だ。Googleはすでに、子どものデバイスを管理するFamily Linkというツールを提供している。これはアプリへのアクセスをコントロールしたり、時間制限を設定したり、夜間の使用不能を設定したりできる。AmazonのFireタブレットも強力なペアレンタルコントロールを提供しているし、Appleも今年後半にはiOSのペアレンタルコントロールを強化するようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、Assistantの声にジョン・レジェンドを追加

AlexaとSiriの最近のアップデートに負けじと、今日(米国時間5/8)Googleは、Assistantプラットフォームに6種類の声を追加すると発表した。

同社は今日のI/Oカンファレンスで、もっと「人間の話し方に近い」自然なAI音声を開発中であることを発表した。一時停止を自然にするなどの細かい改善によって、Assistantと「より自然な会話」ができるようになるという

新バージョンのAssistantには男性女性両方の声が実装され、Wavenetという同社が1年半前から取り組んできた機械学習技術に基づいて作られている。Googleは、世界中の方言に対応するさらにカスタマイズされたバージョンを開発している

その一方で、Microsoftはちょっとしたビッグネームをスタジオに迎えて音声のパーソナリティーを付加する。はじめにミュージシャンのジョン・レジェンドが今年中にAssitantに加わり、AlexaのスーパーボウルCMを現実に変えつつある。Alexa、君の番だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

これからはchrootツールを使わなくてもChrome OSの上で正規にLinuxを動かせる

かなり前からデベロッパーたちは、Croutonなどのツールを使ってChrome OSマシンをLinuxベースのデベロッパーマシンとして使っていた。それはちょっと面倒なやり方だが、とりあえず使えた。でも今度からは、それがもっと簡単になる。Chrome OSマシンの上でLinuxアプリケーションを動かしたい人は、Settingsメニューにあるスイッチを切り替えだけでそれができるようになる。それは、今後Googleが、Chrome OSにLinuxの現在の安定バージョンの載ったDebian Stretchが動く、仮想マシンを同梱するからだ。

それは、シェルを使えるだけでなく、グラフィクスも完全にサポートされる。だからたとえば、Visual Studio CodeのMicrosoftによるLinuxバージョンを、Chrome OSマシンで動かせる。あるいはAndroid StudioでAndroidアプリを作り、そのラップトップ上でテストできる。Chrome OSのAndroidアプリのサポートは、昨年実現したから。

Linux on Chrome OSの最初のプレビューはすでにGoogleのPixelbookで試せるが、そのほかのデバイスのサポートは“もうすぐ”ということだ。

GoogleのChrome OS担当プロマネ・ディレクターKan Liuによると、デベロッパーがCroutonを使っていることはもちろん知っていたが、でもそうすると、Googleが提供しているセキュリティ機能がいっさい及ばなくなってしまう。最近ではChrome OSマシンもかなり強力になっているので、そのままLinuxを使いたいという要望も増えている、という。

グラフィクスに関しては、Waylandディスプレイサーバーを使用している。ウィンドウのルックスは、Androidや、Chrome OS上のWebアプリケーションと同じだ。

一般ユーザーにはLinuxの内蔵サポートから得られる利益はあまりないと思われるが、デベロッパーにとってはこれでChrome OSマシンがより魅力的になる。Pixelbookのようなハイエンドマシンでは、とくにそうだろう。Liuは、自分たちのチームが相当な労力を費やしてその仮想マシンを最適化した、と強調している。だから、Linuxアプリケーションを動かすことに伴うオーバヘッドは小さい、と見てよいだろう。あまり強力でないマシンでも、コードエディターを不満なく使えるのではないか。

そのうち誰かがWineエミュレータを持ち込んで、Chrome OS機の上でWindowsアプリケーションを動かし始めるのも、時間の問題だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google I/O: モバイルアプリ向け機械学習モデル登場――iOS、Android開発にML Kit

今日(米国時間5/8)開幕したI/Oデベロッパー・カンファレンスでGoogleはML Kitを発表した。iOS、AndroidアプリのデベロッパーはこのSDKを用いることでGoogleによって開発ずみでの機械学習モデル多数をアプリに取り込むことができる。特に巧妙なのは、これらのモデル(テキスト認識、顔認識、バーコードスキャン、画像タグづけ、外界のランドマーク認識などを含む)がオンライン、オフラインの双方で利用できる点だ。ネットワーク接続の状態とデベロッパーの判断に応じて適切な方を選ぶことが可能だ。

向こう数ヶ月の間にGoogleは現在のベーシックAPIにさらに2組を追加する予定だ。ひとつはInboxやGmailでおなじみのスマート返信機能で、もう一つは顔認識API用の高精度の輪郭認識だ。

ゲームのあり方を根本的に変えるような影響があるのはオフライン・モデルだろう。デベロッパーはGoogleが開発したモデルを自分のアプリに組み込める。しかも利用は無料だ。もちろん制限はある。モデルはローカル・デバイス上で作動できるようサイズを小さくされているため正確性は低い。クラウドベースであればコンピューティングパワーにも記憶容量にも制限はない。したがって大きなモデルを用いて正確性な結果を得ることができる。

機械学習などのモデルをオフラインで利用可能にするのは業界のトレンドだ。たとえばMicrosoftは、今年に入って独自のオフライン・ニューラル翻訳を発表している。このサービスはオフラインでも作動する。トレードオフはGoogleのモデルと同様だ。

Googleの機械知能グループのプロダクトマネージャーでAndroidのカメラ機の責任者、 Brahim Elbouchikhiは私の取材に答えてこう述べた。

多くのデベロッパーは機械学習による推論をアプリ内での予備的な処理の部分に取り入れるだろう。たとえば画像内に動物が写っているかどうかをアプリ内で判定し、写っていればたとえば犬種の判定についてはクラウドの処理に任せるというような方法だ。これは合理的だ。オン・デバイスでのラベルづけはおよそ400種類がサポートされるが、クラウドでは1万種類のラベリングが可能だ。ML Kitはわれわれの標準的なニューラルネットワークAPIを用いる。AndroidでもiOSでも同じ機能だ。

ElbouchikhiはML Kitがクロスプラットフォームである点を特に強調した。デベロッパーは機械学習モデルがAndroid専用、iOS専用であることを嫌う。

Googleがあらかじめ学習させたもの以外の機械学習モデルを必要とする場合、ML KitではTensorFlow Liteをサポートしている。

新しいSDKはGoogleのFirebasemの傘下となる。目的はモバイルアプリの開発者が機械学習モデルを使うことを助けることだ。ただし、当然ながらGoogleも指摘しているとおり、機械学習モデルを使ってアプリを加速するにはデベロッパー側の努力が必要だ。これまでもGoogleは機械学習APIを通じていくつもの学習ずみでカスタマイズも可能なクラウド上のMLモデルを提供してきた。 しかしこれまでのモデルはインターネット接続がなければ動作しなかった。またユーザー体験も十分にFirebase、またFirebaseコンソールに統合されているとはいえなかった。

TensorFlow Liteを使う場合でも、Googleはカスタム・モデルを扱いやすいサイズに圧縮することに努めている。今のところは実験段階だが、興味を抱いたデベロッパーはここからサインアップできる。

ElbouchikhiはGoogleの目標は機械学習の一般へ普及だとして、「機械学習をありふれたもう一つのツールにするのがわれわれの目標だ」と述べた。

<

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Androidの新しいジェスチャーはiPhone Xそっくり

Googleは、Android次期バージョンの新機能の一部をデベロッパー会議で披露した。その中にとりわけ馴染みのある機能があった。Android Pにはアプリ間を行き来するナビゲーションに新しいジェスチャーが加わる。その動きはiPhone Xそっくりだ。

Android Pには、われわれが1年以上前から研究してきた新しいナビゲーション方式を導入する」とAndroidのエンジニアリング担当副社長、Dave Burkeが言った。「新デザインによってAndroidのマルチタスキングは、これまでより使いやすく理解しやすくなるだろう」

おそらくGoogleは新しいマルチタスキング画面を1年間検討してきたのだろうが、Appleをコピーしなかったとは信じ難い。iPhone Xは2017年9月に発表された。

Android Pでは、従来のホーム、戻る、およびマルチタスクのボタンがなくなっている。画面下端の中央には薄い横長のボタンが1つだけある。このボタンを上向きにスワイプすると、マルチタスク画面になって最近使ったアプリの一覧が表示される。画面を左右にスワイプすれば目的のアプリを選ぶことができる

もう一度上にスワイプすると、推奨アプリの並んだアプリドロワーが画面上端に表示される。いつでもボタンをタップすればホーム画面に戻れる。これらのジェスチャーはアプリを使っているときにも機能する。アプリの中では左下隅に戻るボタンが追加される。

薄いボタンを左右にスワイプすると隣のアプリに切り換えられる。これはiPhone Xと全く同じだ。複数のアプリをめくっていくこともできる。指を離すと選んだアプリに移動する。

Android Pベータは何種類かのデバイス向きに今日から入手できる。エンドユーザーには今後数カ月のうちにこの新バージョンがやってくる。

iPhone Xのジェスチャーは驚くほどエレガントで効率的なのでGoogleの選択を責めることはできない —— そしてもちろん、あのPalm Preによく似ていることもわかっている。iPhone Xを使ったあと現行バージョンの動くAndroid機を使うと、最近使ったアプリに移動するのに複数回のタップが必要なためずっと遅く感じる。

変化をもたらしたのはAppleであり、どのスマートフォンもiPhone Xのように動作すべきことは明らかだ。それでもGoogleが何か言われるのは仕方のないことだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

IoTのベースOSとなるAndroid Things、ベータを脱して1.0をローンチ、I/O前日に発表

今日(米国時間5/7)Googleは、同社のIoT開発プラットホームAndroid Thingsがベータを終えた、と発表した。8つのリリース候補のうち、最後のは1か月足らず前にローンチし、そして今やAndroid Thingsは完熟のようだ。ベータのときから何社かが実際に製品を作り始め、またGoogleのAndroidスマートディスプレイのローンチパートナーたちも、このプラットホームがベースだ。

Android Thingsはハードウェアとソフトウェアのデベロッパーに、さまざまなIoTデバイスを作るためのSDKを提供する。またGoogleは、Raspberry Piなどハードウェアメーカー数社とパートナーしてデベロッパーキットを提供しており、さらに、デバイスを管理したり、プロトタイプや本番製品をネット経由でアップデートするためのデベロッパーコンソールも提供している。

つまりハードウェアのメーカーにIoT用のオペレーティングシステムを提供するんだけど、その管理はGoogleがやるので、デベロッパーは自分の製品づくりに専念できる。システムやそのメンテナンスを、気にせずにすむ。Googleは安定性向上のためのフィックスとセキュリティパッチを3年間提供するが、その延長契約も可能だ。

Googleによると、プレビューの段階でSDKは10万以上ダウンロードされた。そしてベータの間には、デベロッパーからのフィードバックが1万あまり得られた。

非商用のユーザーは最大100までのデバイスをAndroid Things Consoleで管理し、製品の市場展開ができる。デバイスが100を超えたり、商用製品を展開することになったら、Googleとの正式な契約が必要だ。

今日のローンチの一環としてGoogleは、二つのSystem-on-Modules for Thingsのサポートを発表した。それらのベースは、NXP i.MX8M, Qualcomm SDA212, Qualcomm SDA624, MediaTek MT8516だ。これらよりも前に、Raspberry Pi 3 Model BとNXP i.MX7Dデバイスはすでにサポートされている。ただし、NXP i.MX6ULのサポートは終了した。

GoogleのデベロッパーカンファレンスI/Oが明日から、というその一日前にAndroid Things 1.0の発表をするのは、なんか変だが、今日から行われるMicrosoftのカンファレンスBuildでもIoTが強調されるらしいから、Googleも発表をできるだけ早めたかったのだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa