Androidのユーザー数は25億

GoogleのデベロッパーカンファレンスI/Oで米国時間5月7日、今やAndroidが25億あまりのデバイスを動かしていると発表された。それは2年前(2017年)の発表では20億だった。

これはAndroidの全体的な成長ペースが鈍っていないことを意味しているが、加速はしていない。2015年9月から2017年5月までの間に世界のAndroidデバイスは約4億増えたが、さらに5億台増えるために、同じく2年を要している。

でも過去2年間では、Androidが最も人気の高いモバイルオペレーティングシステムであり続けた。この間にGoogleは、Mozillaの失敗作Firefox OSから派生したKaiOSに投資したが、Google I/Oでその名前が聞かれることはない。でもGoogleが今すでに市場として十分に意識している開発途上国でインターネットのユーザーが増えれば、このような軽量オペレーティングシステムがますます重視されてくるだろう。

関連記事(2017年): Androidの月間アクティブユーザーは20億人、Googleフォトは5億人

画像クレジット: TechCrunch

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google I/Oの会場上空に飛行機による抗議のバナー広告が出現

ちょっとした騒ぎがなくては、Google I/Oではないね。米国時間5月7日、Google I/Oのキーノートの真っ最中に会場の円形野外劇場のまわりを飛行機が飛び、抗議のバナー広告を流した。そのバナーには、「Google control is not privacy #savelocalnews」(Googleによるコントロールはプライバシーを保護しない、#ローカルニュースを救え)というメッセージが。

それは、Googleにとって初めてだ。会場の中での抗議もたまにあったが多くは外だった。Google I/O自体が屋外だから、この種の抗議に対して無防備だし防ぐ方法もない。しかも、このあたりの空域には飛行制限がない。

もちろんGoogleもI/Oの会場の上空に飛行船を飛ばして、Google Glassを宣伝したことがある。ただし今回ではない。今日はその飛行機がキーノートが終わるまで会場上空を旋回した。

飛行機でバナーを流すという高くつきそうな方法で抗議するなんて、やや異様だが過去に例はある。バナーのテキストも、プライバシーの懸念とローカルニュースの保護が混じってておかしい。でも、言いたいことがたくさんあったんだろうね、たぶん。

関連記事: Guild members stand united on World Press Freedom Day(#savelocalnewsの活動グループ)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleがiFrameに代わる遷移タグPortalsをデモ、サイト間の連携を大幅強化へ

米国時間5月7日、GoogleはPortalsと呼ばれるChromeウェブブラウザ用の新しいページ遷移タグを発表した。このテクノロジーはGoogleがしばらく前から開発を続けてきたもので、機能自体はiFrameとほぼ同様だ。

Googleは「Portalはナビゲーション可能なiFrame」と説明している。従来のiFrameではページ内に別サイトのビューを表示するが、Portalsでは実際にそのウェブサイトにアクセスする。

Googleはレシピを集めたサイトを例にしてPortalsがどのように使われるかデモした。サンプルのサイトは他のサイトに掲載されたレシピを多数引用していたが、iFrameで引用した場合、調理の手順、材料などレシピの内容を詳しく確認するにはビューをクリックして引用先のウェブサイトにジャンプする必要がある。

これに対してPortalsで引用した場合は、元のレシピサイトに留まったままそうした詳細を見ることができる。また保存したいレシピがあった場合、Portalsによる引用から直接保存ができる。例えば、元サイトで「共有」ボタンをクリックするとポップアップ窓から引用先サイトの当該ページを読み込める。ユーザーは元サイトを離れることなく、レシピを好みのSNSに投稿できる。

Google I/OではNom NomというダミーのSNSにレシピを投稿する過程がデモされた。ユーザーが「共有」ボタンをクリックするとPortalsを使った窓の中にNom Nomのドメインがオープンした。その間も元のレシピサイトはバックグラウンドで待機しており、ユーザーはドメインを移動せず直ちに戻ることが可能だった。

こうしたことが可能になるのはPortalsタグの窓に引用先サイトが実際に開かれるためだ。つまりPortalsタグは単ににビューを表示するのではなく、本当の意味でポータルの役割を果たすわけだ。

レシピがNom Nomに投稿され、保存されるた後、ユーザーがPortals窓をクローズするとそのまま元のレシピサイトに戻り、サイトのブラウズを続けることができた。

Portalのもうひとつの有用な機能は元サイトからPortalsで共有されたサイトに情報を送れることだ。レシピサイトの例で説明すると、ユーザーが実際に調理したいレシピを見つけた場合、Portalsの中からオンライン通販サイトを開き、食材情報を送って購入することができる。こうしたデスティネーションサイトをロードする間、Portalsはオリジナルサイトにアニメーションを表示してユーザーに読み込み中を知らせる。これはユーザー体験を改善するために効果があるだろう。

Googleによれば、Portals APIはCanary版Chromeの#enable-portalsで確認できるという。Googleではデベロッパーコミュニティーからフィードバックを待っている。


原文へ

(翻訳:滑川海彦@Facebook

GoogleのCloud TPU Podsの最新世代はMLモデルの訓練を短時間化

Googleは米国時間5月7日、Cloud TPU Podsの第2世代と第3世代を発表した。このクラウドベースのスケーラブルなスーパーコンピューターは、最大1000基の同社特製のプロセッサ、Tensor Processing UnitsTPU)を使用する。それを本日からは公開ベータで一般に利用できる。

最新世代のv3は特に強力で、プロセッサーは水冷されている。一つ一つのポッドが最大で100ペタFLOPSの演算能力を持ち、Googleによれば、世界のスーパーコンピューターの5位以内に入るそうだ。ただし、このTPUポッドはあまり高い演算精度を望めないだろう。

TPU Podは、その全体を使わなくてもいい。Googleはこれらのマシンのスライスをレンタルで提供している。しかし、いずれにしても極めて強力なマシンであり、ResNet-50の標準的な画像分類モデルをImageNetの(100万を超える)画像データセットで訓練する処理を2分で終える。

TPU v2のポッドはコア数が最大512で、v3よりやや遅い。例えば、265基のTPUを使用した場合、v2のポッドはResNet-50のモデルを11.3分で訓練するが、v3ならわずか7.1分だ。ちなみにTPUを1個だけ使うと302分かかるだろう。

当然だが、Googleによればポッドは(料金がどんなに高くても)モデルを早く訓練したいときや、ラベル付きの標本が数百万という大きなデータセットで高い正確性が必要、あるいは新しいモデルのプロトタイプを素早く作りたい、といったユースケースに向いている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Androidアプリはアップデートを各ユーザーに強制できる

半年前のAndroid Dev SummitでGoogleは、アプリのデベロッパーがユーザーに、新しい機能や重要なバグフィックスなどのアップデートを強制する方法を発表した。でも、その機能をデベロッパーが実際に利用できるのは、なんと米国時間5月7日のGoogle I/Oからだ。これまではGoogleのごく一部のパートナーが使えるだけだった。

さらにまた、Googleの動的アップデート機能も本日でベータを終える。この機能を使うと、アプリを構成する一部のモジュールを後からプッシュできるので、最初のインストール時のファイルサイズを小さくできる。

Androidのチーフアドボケイト(Chief Advocate)であるChet Haase氏はこう語る。「これまでは、自動更新を利用したり、ユーザーがPlay Storeにわざわざ行ってアップデートを確認したり、デベロッパーがユーザーに通知したり、という方法しかなかった。しかし、セキュリティや決済などの問題ですべてのユーザーに早急にアップデートしてほしいときは、どうするか?」。

今度の新しい機能はInline Updatesと呼ばれ、デベロッパーが新しいAPIにアクセスしてユーザーにアップデートを強制する。強制の方法は、ユーザーが今やってることをブロックする全画面のメッセージを出したり、バックグラウンドでアップデートを強制インストールしたり、ダウンロードが完了したらそのアプリをリスタートしたり、デベロッパーが独自に作ったカスタムのアップデートフローを使ったりする。

関連記事: Android developers can now force users to update their apps(Androidデベロッパーはアプリのアップデートをユーザーに強制できる、未訳)

画像クレジット: TechCrunch

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleはKotlinをAndroidアプリ開発の推奨言語に格上げ

Googleは米国時間5月7日、プログラミング言語Kotlin(コトリン)をAndroidアプリデベロッパーの推奨言語にすると発表した。

Googleの本日の発表によると「Android上の開発は、今後ますますKotlinファーストになっていく。Jetpackの新しいAPIや機能も、最初はKotlinで提供される。新しいプロジェクトを始めるときは、それをKotlinで書くべきだ。Kotlinで書くとコードの量が相当少なくなり、コードをタイプし、テストし、メンテナンスする量が軽減される」とのこと。

わずか2年前のGoogle I/O 2017でGoogleは、Android Studio IDEでKotlinをサポートすることを発表した。Androidアプリの開発では長年Javaが推奨言語だったから、それはやや意外だったが、その年のGoogle I/Oでは最大の喝采を浴びた発表だった。その後の2年間で、Kotlinの人気は高まる一方だった。Googleによると、今ではプロのAndroidデベロッパーの50%以上がこの言語でアプリを開発しているとのこと。そしてStack Overflowが最近行ったアンケート調査では、Kotlinが4番人気のプログラミング言語だった。

というわけで、GoogleがKotlinのサポートを強調するのも当然だ。Androidのチーフアドボケイト(Chief Sdvocate)のChet Haase氏は「次の大きな一歩は、全面的にKotlinファーストにしていくことだ」とコメントした。

さらに続けて「現状はまだ、全員がKotlinではないけど、そのうち誰もがKotlinファーストになるだろう。いまC++やJavaを使っている人にはそれなりの正当な理由があるから、それらの言語が消えていくことはないけどね」。

関連記事: Google、KotlinをAndroidアプリ開発言語に選定―I/O会場から大喝采

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

新Googleレンズは外国語を読み取って翻訳結果を合成音声で読み上げてくれる

米国時間5月7日に開幕したGoogle I/O 2019カンファレンスでは、強力なGoogle翻訳をさらに強化する機能がいくつも発表された。その1つがGoogleレンズのアップデートだ。スマートフォンで外国語のメニューや標識の写真を撮ると、Googleレンズがユーザーが指定する言語に翻訳してくれるデモが披露された。

この機能の一部はGoogle翻訳アプリにすでに組み込まれているが、今日はさらに機能が追加された。「聞く」ボタンをタップすると、Googleレンズは翻訳されたテキストを合成音声で読み上げる。また読み上げている箇所がハイライトされるのでユーザーはどの箇所なのか知ることができる。

レンズ開発チームはインドでベータテストを実施し、このテクノロジーが比較的能力の低いデバイスでも作動できるよう軽量化に務めてきた。Googleによればこの機能はわずか100KBで実装されているという。この機能はまだ一般公開されていない。

公開時期が不明なのにデモしたのかという不満も聞こえてきそうだが、ま、これがGoogle I/Oだ。

原文へ

(翻訳:滑川海彦@Facebook

Google I/Oはアクセシビリティ強化に全力、聴覚障害者にも電車でYouTubeを見るにも便利

マウンテンビューの本社に隣接するアンフィシアターで開幕した今年のGoogle I/Oでは驚くほど長い時間がアクセシビリティの改善に関連する発表に振り向けられた。ライブキャプションなどの新機能はすべて発話とテキストを相互変換するテクノロジーの改善をベースとしている。

テクノロジーとして特に注目すべきなのはこうした音声ベースの自然言語処理の一部が、クラウドとデータをやり取りすることなく、デバイス上で直接実行できるようになった点だ。

Androidの新しいアクセシビリティ機能は聴覚などに障害を持ったユーザーの生活の質を大きく改善するはずだ。ライブトランスクリプションは音声による発話を認識してリアルタイムでテキストに起こす機能だ。また逆に音声合成によりテキストをリアルタイムで音声化することもできる。

音声入力機能はGoogleが以前から重点項目として挙げていた。機能として単純だがスピードと精度が高くなれば非常に役立つツールとなる。 現在でもAndroid上でアプリを起動しマイクのアイコンをタップすると音声を聞き取ってテキスト表示してくれる。

現在でもOne Miniなど音声入力、音声出力による機械通訳デバイスが利用できるようになっている。昨日のMicrosoftのBuildカンファレンスでもミーティングの内容をテキストに起こすアプリが発表されていた。こうした機能の必要性ははっきりしており、むしろなぜもっと早く実現しなかったのかというほうが興味ある問題だ。

実は自然言語認識システムはかなり以前から実用化されていたが、特定のユーザーが静かな環境かつ一定のボキャブラリーで話す内容の聞き取りにとどまっていた。これに対して不特定多数のユーザーが雑音の多い駅やカフェで友だちと自由に会話するのを認識するのは非常に困難な作業だった。リアルタイム通訳となれば当然複数のユーザーの話す内容を聞き取らねばならない。出力も自然な音声合成が必要となる。これらを商品として実用に耐えるレベルにまで改善するのは控え目に言ってもチャレンジだった。

今回のアップデートでは音声認識にさらに新しい機能が追加された。これはライブキャプションといい、上に述べた音声認識テクノロジーをビデオに適用してリアルタイムで字幕を表示できるものだ。ユーザーはYouTubeビデオを見ながら登場人物が何を言っているのかリアルタイムで字幕で見ることができる。これはビデオメッセージ、ボイス・メッセージにも利用できる。

この機能は聴覚にハンディキャップがある人々に便利なのは当然として、対象言語の聞き取り能力が不足しているが音声をテキスト化してもらえば判読できるという何千万人ものユーザーにとっても朗報だ。あるいは職場や交通機関内で音声をミュートしてビデオを見るときにも使える。ベッドでビデオを見ながら眠ってしまいそうなときも音を消して字幕にしてしまえれば好都合だ。リアルタイムで自然言語を認識しテキスト化する能力が使える場面はこれ以外にも無数に考えられる。

Gif showing a phone conversation being captioned live.

サンダー・ピチャイCEOによれば通話へのライブキャプションの適用は「まだ開発途上」ということだったが、「ライブリレー」というデモがステージで披露された。ユーザーが聴覚にハンディキャップがあるか、いろいろな理由でうまく発話できない場合、通常の音声通話はほとんど意味ないものとなる。しかしライブリレーが実用化すれば着信ないしマイクで入力された音声をライブでテキスト化して表示、あるいは送信できるようになる。

ライブキャプションはAndroid Qの機能として実装される。デバイスによって機能の一部に制限が生じる可能性はある。ライブテキスト化は現在でも利用できるが、まだベータ段階だ。ライブリレーは上述のように未公開だが、デモの完成度から判断すると公開される時期はそう遠くないはずだ。

【Japan編集部追記】ソースネクストから販売されているリアルタイム翻訳デバイス、ポケトークは複数の音声認識エンジンを利用しており、日本語/英語翻訳のエンジンはGoogle翻訳をカスタマイズして利用している。

原文へ

(翻訳:滑川海彦@Facebook

Googleの低価格機Pixel 3a XLがすでにBest Buyの店頭に登場

Pixel 3aが来週のGoogle I/Oにやってくる。それはもう、一種の決まり文句みたいだったが、そのハンドセットがすでに、オハイオ周辺のBest Buyに出回っていると聞けば、今ならそれは本当だろうなと思うしかない。

Googleの旗艦機Pixelの廉価版は、マウンテンビューで行われる5月7日のキーノートでステージに登場するだろう。でも、オハイオ州スプリングフィールドのお店でそのボックスを見た、というAndroid Policeの読者のおかげで、ひと足先にお目にかかれることになった。

その写真からは、Googleがその愚かしい色の名前の慣習に固執していることが分かる。「Purple-ish」(薄紫)とか「Just Black」(真黒)という言葉が見える。前者は新色で、パッケージの写真からは、紫色の電子製品と本当に言えるのか、微妙なところだ。箱の側面に印刷されているスペックは、われわれがすでに知ってることを確認している。XLバージョンではディスプレイが6インチで、ストレージは64GBだ。

このハンドセットはPixel 3のリリースからまだ半年、という時期に出る。今週の決算報告では旗艦機の売上不振対策が発表されたが、その目玉がI/Oで登場するハードウェアだった。昨年までのI/Oにはなかったことだ。しかしGoogleによるこの製品の位置づけはどうなるのか。もともとソフトウェア企業であり、MLやAIにフォーカスしている同社は、今後どんな方向へ同機をアップグレードしていくのか。

来週マウンテンビューには何が登場するのか。その予測記事がここにある。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Android Qは「キッシュ」?来週のGoogle I/O 2019の発表を予想

デベロッパーカンファレンスの季節がやってきた。FacebookのF8の後は、Google I/O 2019が来週予定されている。会場はマウンテンビューの本社に隣接する野外劇場だ。今年のGoogle I/Oはビッグイベントになりそうだ。今週の第1四半期決算のカンファレンスコールでCEOのサンダー・ピチャイ氏が今年のデベロッパーカンファレンスに言及し、さまざまなプロダクトの発表があると示唆したからだ。

現在流れている各種情報8も合わせて考えるとマウンテンビューのアンフィシアターからAndroid OS、アシスタント、ハードウェアに至るまで数多くのホットなプロダクトがお披露目されそうだ。以下に「何が発表されそうか?」を簡単にリストアップしてみた。

Android Q

次世代Android OSはベータ2がリリースされているが、ニックネームは何になるのだろう?キッシュ?キンジン?後者は初めて聞く名前だったのでググってみた。どうやらブラジルで人気があるココナツ入り焼プリンみたいなものらしい。

ともあれ、I/Oではまだニックネームは発表にならないだろうが、Android Pieの後継OSについてもっと詳しく知ることができるのは間違いない。毎年、Androidはカンファレンスのセンターステージを占めてきた。夏にリリースされるというスケジュールを考えれば、Android v10の製品版に近い新しいベータを見ることができると思う。

現在わかっているのはプライバシーと認証の改良、Bubblesを利用したマルチタスクなどだ。Android Qのベータ2で公開されたBubblesはFacebookのチャットヘッド風の通知アイコンだが、I/Oではさらに新機能が紹介されるだろう。感圧型タッチ機能やダークモードの拡大などが噂されている。

折り畳みディスプレイを展開

フォームファクターの画期的改善に役立つはずだった新テクノロジーはやっかいな逆風に悩まされている。その原因はなんといっても大々的に宣伝された後でつまづいたGalaxy Foldだ。 しかしカンファレンスコールではGoogleは折り畳もディスプレイに関して強気な姿勢を崩さなかったが、そうせざるを得ない事情もあった。沈滞ぎみのスマートフォン市場にカツを入れるためには、Androidを折り畳み式にするのが近道だと考えているのだと思う。

当面棚上げになってしまったGalasy Foldだが、再リリースのスケジュールを早く知りたい。フォルディングスマートフォンはHuawei(ファーウェイ)のMate Xをはじめ、Motorola、Xiaomi(シャオミ)、TCLなどのメーカーが発表を予定している。Googleでは折り畳みディスプレイを次世代Androidのメインにしたいはずだ。

低価格のPixel

I/Oはもともとデベロッパーカンファレンスなので消費者向けデバイスの発表の場所としては不向きだった。しかし来週はこの点に変化があるかもしれない。サンダー・ピチャイ氏は四半期決算の記者会見でPixel 3aの発表を予告した。 当初Pixel Liteと呼ばれていたこのモデルはGoogleのスマートフォンのフラグシップ、Pixel 3の低価格版だ。

噂ではこのモデルの定価は500ドル前後になり、ヘッドフォンジャックが復活するという。Bluetoothヘッドフォンの価格が高すぎて低価格版Pixelで広く利用されるのは無理という判断のようだ。【略】

ゲーム

Googleは3月のGDCで新しいゲーム配信プラットフォームとしてStadiaを発表して注目を集めた。ライブストリーミングテクノロジーによってハードウェアやOSと無関係にゲームがプレイできる可能性を開いたことがGDCでStadiaに強い関心が注がれた理由だ。しかしGoogleはGDCではテクノロジーの詳細の発表を控えた

ピチャイCEOはカンファレンスコールでStadiaについても触れ、I/Oで何らかの発表があることを匂わせた。

スマートホーム

Google Hardware Event 2018

スマートホームはビジネスとしてなかなか難しい局面だが、GoogleアシスタントはAmazon Alexaより機能面で優っている点が多い。Home Mini、Hubの売れ行きも好調だ。I/Oでアシスタントのアップデートが発表されるのは間違いない。おそらくAI、機械学習に関連した機能となるだろう。

またハードウェアとして廉価版PixelとともにNest Hub Maxが発表される。リーク情報によればこのデバイスは名前のとおり大型で、10インチ画面を備え、スマートホームのハブの役割を果たすという。

その他.

AR(拡張現実)構築ツールのARCoreについても発表があるだろう。今週アップデートされたWear OSAndroid Automotive、 ChromeOSなどにも時間が割かれるはずだ。ただしこの方面で驚くような発表は期待していない。

我々は来週マウンテンビューのアンフィシアターからライブでイベントを報告するのでご期待いただきたい。

原文へ

(翻訳:滑川海彦@Facebook