アプリストアのデベロッパー虐待でフランスがAppleとGoogleを提訴へ

フランスの経済相Bruno Le Maireが、AppleのApp StoreとGoogleのPlay Storeのやり方をめぐって、両社を批判した。彼によると、GoogleとAppleはアプリのデベロッパーに対して揮う権力があまりにも強大すぎる。Le Maireはその判断を法廷に求め、必要なら巨大テクノロジー企業に罰金を課すつもりだ。

“デベロッパーがアプリを開発してそれらをGoogleやAppleから売ろうとすると、それらの企業が価格を決め、一部のデータを取得し、デベロッパーとの契約を一方的に変更することもある”、とLe MaireはRTLで述べている。“これらはどれも、受け入れられない。これは、われわれが望む経済ではない”。

フランスの政府高官がApp StoreとPlay Storeを問題視するのは、これが初めてではない。先月はARCEP(電子通信郵便規制庁)のSébastien Soriano総裁が、ネット中立性はキャリアとISPだけにとどまるべきでない、という記事を共有した。大手テクノロジー企業も、インターネットの中立性に関して責任がある、というのだ。

Sorianoはそのとき、“スマートフォンのユーザーが直面しているすべての制約を初めてリストアップした”、と述べている。“ユーザーの意味は、消費者と、アプリをストアへ提出するデベロッパーの両方だ”。

デベロッパーには、App StoreやPlay Storeのルールに従う以外の選択肢はない。AppleやGoogleに売上の30%(会員制のアプリなら会費収入の15%)を払う以外の選択肢はない。

AppleやGoogleがストアからアプリを削除しても、事前の契約があるから法に訴えることはできない。ただし契約内容を、交渉によって変えられる可能性はある。

“GoogleとAppleを虐待的事業実践の罪でパリ商業裁判所に訴えるつもりだ”、とLe Maireは言っている。罰金はおそらく数百万ユーロぐらいだから、GoogleとAppleにとっては痛くも痒くもない額だ。しかし、公的訴訟としてはなかなかおもしろい。

大手テクノロジー企業に対するEUの徴税計画は、Le Maireによると2018年の終わりごろに発効する。今月初めに彼は、数週間後に詳細を発表する、と述べた

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、マップを使ってあらゆるゲームを地球規模の大作に変える

ビデオゲームがリアル世界にぐっと近づこうとしている。GTA V(グランド・セフト・オート5)でドライビングのスリルを味わったり、ロサンゼルスのランドマークを覗き見している人なら、ゲームのプレイ中にはるかに多くのことを感じられるようになるだろう。

Googleは、マップAPIをビデオゲームデザイナーに使いやすくした。リアル世界の位置データや形状データが利用できるようになり、1億種類の3D建造物、ランドマークなどが開発者のデザインレパートリーに加わる。ゲーム会社はこのマップを使って作品のデジタル環境の基盤を作る。あらゆるモデルをUnityゲームエンジンのGameObjectに変換して細かい修正をしたり新たなテクスチャーを貼り付けられるようにする。

開発者はニューヨーク市を中世の都市に変えたり、テクスチャーを塗りかえたり、すべてを広大なエイリアン世界に変えたりする。マップAPIにゲーム要素が加わることで、広大な帝国を作り上げる開発者の仕事が大いに軽減される。

「Googleマップの世界基盤の上にゲームを作ることで、レスポンス時間は短く、迅速なスケーリングが可能になり、ゲームがちゃんと動くという安心感が得られる」とGoogleのブログ記事に書かれている。

この改訂は、拡張現実(AR)ゲームの開発者にとっても大きな意味を持つ。通常はゲーム世界でユーザーを案内するのに地域マップを使うのが普通だ。ARCoreを使っている開発者は、このアップデートによって自分の作る世界を地域マップ上に展開して、ユーザーがどこにいる場合でもカスタマイズ可能な体験をもたらすことができる

Googleはすでにゲームスタジオ数社と協力して、マップを新タイトルに組み込む作業を進めている(Walking Dead: Your WorldJurassic World Aliveなど)。来週サンフランシスコで行われるGDC(ゲーム・デベロッパーズ・カンファレンス)では、システムのしくみについてさらに情報提供するものと思われる。

[原文へ]

(翻訳:Nob Takahashi / facebook

ライトフィールドの捕捉と再現がリアルなVRのための重要な鍵、Googleが試作的な無料アプリケーションを発表

写真にとって、ライティングはとても重要だ。ユーザーがその中を動きまわる仮想現実の静的な環境に関しては、ライティングの重要性がさらに大きい。

今日(米国時間3/14)Googleは、VRのユーザーが“ライトフィールド”(light fields)を感取経験できるための、VRデバイス用のアプリケーションをリリースした。このアプリケーションに関連する研究について、ブログ記事も発表している。

ライトフィールド(光線空間)の実際的な意味は、空間内の一つの点からのさまざまなパースペクティブ(見え方)のことで、見る角度によってライティングの見え方も変わる。スマートフォンのスクリーンに映っている画像がリアルに見えるとしたら、それはその画像が実際のライトフィールドを写し込んでいるからだ。物理的なオブジェクトの多くは、そのまわりの世界を映すクリアーな鏡を提供しているわけではないが、それでもたとえばあなたの皮膚は、見る人の角度によってテクスチャーが大きく変わる。それも、ライトフィールドの現れの一つだ。

ゲームエンジンが描画する世界では、コンピューティングの十分なパワーさえあれば、そこらのありとあらゆるものを巧拙さまざまに写し込むことができる。また、ライトフィールドをカメラで捉えるとしたら、Googleなどの企業は複数のカメラを使ってオブジェクトの複数のパースペクティブを捉え、それらのレンズの間にあるパースペクティブを計算で求める。そうやって捉えたオブジェクトのパースペクティブ集合は、頭にライトをつけたあなたが動きまわるときの、あらゆる角度と距離からのオブジェクトの見え方を表すことができる。

ライトフィールドについてもっと詳しく知りたい方は、Googleがこのアプリケーションについて書いた“Welcome to Light Fields”(ライトフィールドへようこそ)という記事とそのページを見てみよう。仮想現実の世界が本当に本物っぽくて快適な世界であるために、ライトフィールドが重要な技術であることが分かる。そのアプリケーションには、実際にユーザーが歩き回れる世界のデモが、いくつか含まれているようだ。

このアプリケーションを利用できるのは、HTC ViveとOculus Rift、そしてWindows Mixed Reality platformsだ。かんじんのGoogleのDaydreamに対応していないのは、ライトフィールドを正しく模倣〜再現するためには3Dの位置追跡機能が必要だからだ。Daydreamがその機能を持つのは、Lenovoのスタンドアロンのヘッドセット6DoFからだ。それを待つしかないね。

ライトフィールドは、それを捉えることだけでなく、ほかにもさまざまな技術的問題をデベロッパーにもたらす。そのトップが、帯域だ。空間内の、あらゆる点からの、あらゆる角度と距離の、正しいライティングによる像をVRがあらかじめ用意するためには、膨大な量のデータとストレージを要する。Googleがこのアプリケーションで捉えているのは、写真のような静止画像の世界だが、これがビデオになればほんの数分の動きのために数テラバイトを消費するだろう。それは今のところ、考えて理解するだけ、の世界だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、仮想通貨の広告を全面禁止へ

Facebookが広告ポリシーを改訂して仮想通貨の広告を全面禁止してから一月あまり、Googleもあとに続くことを発表した。2017年に「悪質広告」32億件を削除したことを報告して間もなく、検索の巨人は広告ポリシーページを改訂し、以下の項目の禁止を明確に表明した。

  • バイナリーオプションおよび類似製品
  • 仮想通貨関連コンテンツ(ICO、仮想通貨交換所、仮想通貨ウォレット、および仮想通貨取引のアドバイスを含みこれらに限定されない)

同社は、この決定に至ったのは、明らかに投機的と認められる分野に対して十分な注意を払うためであると指摘している

「われわれは仮想通貨の未来を予言する水晶玉を持っていない」とGoogleの広告担当幹部、Scott Spencerが昨日報じられたインタビューでCNBCに語った。「しかし消費者への危害はすでに発生しており、その可能性を含め、われわれが細心の注意を払うべき段階に来ている」

こうした警告の一方、新たな規則は6月まで適用されない。それでも、すでに影響は及んでいるようだ。この発表直後、Bitcoin価格は9000ドルを下回った。1月にFacebookが同様の発表したあとも、この最もよく知られた仮想通貨は12%下落した。

一部の野心的企業は意図的なミススペリングによってFacebookの広告ポリスの目を逃れようとしているという報道もあるが、Googleはその問題にも取り組んでいるとBloombergに伝えた

新しいポリシーが発効するこの夏には対応も完了すると思われる。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleがUbisoftと協働でオープンソースのゲームサーバーホスティングシステムAgonesをローンチ

クラウドコンピューティングといえば、ドキュメントをクラウドで編集したり、CRMシステムをアップデートしたりするための大規模なサーバーファームを連想する人が多いだろう。でも嬉しいことにクラウドには、遊びの側面もある。マルチプレーヤーゲームも、すべてどこかのクラウドで動いている。ゲーム企業は、これらのサーバーを動かすためのシステムを自分で作ることが多いが、しかしGoogleとUbisoftは今日(米国時間3/13)、マルチプレーヤーゲームのサーバーを管理しホスティングするためのオープンソースのシステムを提供する新しいプロジェクトを発表した。

そのプロジェクトの名前Agonesは、ギリシア語で“コンテスト”という意味だ。それはGoogleが育てたコンテナプロジェクトKubernetesを、マルチプレーヤーゲームサーバーの艦隊をオーケストレーションしスケーリングするための中核的なツールとして使用する。ユーザーが自分が好きなマルチプレーヤーゲームをプレイするときには、そんな大軍のゲームサーバーがあるおかげで、島にいる自分以外の99名のマニア的プレーヤーと互いに相手を見つけたり対戦したりできる。サーバーはゲームだけでなく、いかさまを見抜くためのソフトウェアを動かすこともある。コンテナがこの種のシナリオにとって理想的なのは、ゲームの個々のセッションは短時間で終わるものが多く、ひとつのコンテナでひとつのセッションを表せば、デプロイもシャットダウンも迅速にできるからだ。

Ubisoftの開発部長Carl Dionneは、こう書いている: “プレーヤーがゲームに集中できるためには、クォリティの高い、最高にシームレスなサービスを提供しなければならないし、そのための方法をたえず改良していく必要がある。Agonesが備えている柔軟性により、専用のゲームサーバー群を最適なデータセンターで動かすことができ、われわれのチームに、彼らが必要とするリソースのより強力かつ詳細なコントロールを与える。両社のコラボレーションによって、Kubernetesの大規模デプロイに関するGoogleの専門的能力と、われわれのゲーム開発パイプラインと技術に関する深い知識を、結びつけることができる”。

Agonesは要するに、ゲームサーバーを動かすために必要なツールでKubernetesを拡張したものだ。そのツールには、ゲームサーバーのためにカスタム化されたKubernetes Controllerと、同じくカスタムのリソース定義が含まれる。Agonesのチームによると、デベロッパーは、ペアのゲーマーを互いに引き合わせるデベロッパー独自のマッチメイキングサービスと標準のKubernetes APIsを容易に統合して、ゲームサーバーを始動できる。

Googleとしてはデベロッパーが自分のゲームをGoogle Kubernetes Engineでホストしてくれると嬉しいところだが、しかしAgones自身はクラウドを特定せず、どんなクラウドでも、あるいはオンプレミスでも、使用できる。

今日のリリースは、あくまでも初期的な形だ。しかしv2に向けてのロードマップはすでに作成中であり、チームによると、そこではゲームサーバーの集合体(Fleets)のような新しい機能や、ゲームサーバーのパフォーマンス分析、ノードの自動スケーリングなどが導入される予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleアシスタントがiPadにやって来た――すでに日本版のダウンロードが可能

今日(米国時間3/13)、Google AssistantがiPadで使えるようになった。ユーザーは通話やメッセージ送信、カレンダーの確認、リマインダーのセットを始めとしてアシスタントのあらゆる機能がiPadから利用できる。GoogleアシスタントはGoogleのスマートフォン、Pixelを始めとするAndroidデバイス向けがリリースされた後、2017年の Google I/OでiOS版が発表された。

ただし当初は英語版でiPhone向けのみだった。Googleによれば、今日のiOSアプリのバージョンアップで英語だけでなく、フランス語、ドイツ語、イタリア語、日本語、ブラジル・ポルトガル語、スペイン語が利用できるようになった。

iPad版は基本的にiPhone版と同機能だが、表示面積が拡大されている他、分割画面でのマルチタスクなどiPadのみの機能に対応している。

Amazon Echo、Google Home、そして最近のAppleのHomePodなど、音声対話が可能なスマートスピーカーの普及が話題になっているが、モバイル・デバイスのスマートアシスタントはさらに影響が大きい。そのためGoogle AssistantやAmazonのAlexaは自社のハード、つまりAndroidやFire タブレットだけでなく、あらゆるプラットフォームに対応しようとしている。

特にiPadへの対応は各方面からの注目を浴びていた。

事実、Amazonは昨日、Alexaのタブレット対応を発表している。これにはiPadも含まれ、アップデート版ではAlexaによる通話やメッセージ送信機能がサポートされている。

もちろんiPadでGoogleアシスタントやAlexaにアクセスするのはiOSのデフォールトのアシスタントであるSiriを使うほど簡単ではない。Siriならホームボタンを長押しするかHey Siriと呼びかけるだけでよい。

とはいえ、Googleのアシスタントに慣れていてiPadを持っているユーザーはアップデートを歓迎するだろう。

Googleアシスタントにメッセージの送信や電話をかけることを頼むと、アシスタントはiOSの連絡先を検索しようとするのでまず許可する必要がある。アシスタントは音声によるテキスト入力、リマインダーの設定、カレンダーの表示、音楽の再生、スマートTVへのビデオのキャスト、検索、等々さまざまなな能力を備えている。

新しいアシスタント・アプリはiOS 10.0以降で作動するが、特にiOS 11を搭載している場合、マルチタスクに対応する。Googlによれば、一つの窓でカレンダーのチェックなどを命じておき、別の窓でアシスタントと会話するというようなことが可能だという。また縦横どちらの向きでも利用できる。

iPadアプリ〔日本版〕はAppleのApp Storeから入手できる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Assistantの独自のアクションを各種デバイスに組み込める、そのためのSDKを発表

今年のSXSWの呼び物というほどでもないが、Googleは自分の製品にGoogle Assistantをあっと驚くアイデアで組み込みたい、と考えているデベロッパーのために、ちょっとした素敵なアップデートを提供する。製品に特定のファンクションを加えるためのAssistantのSDK、それがそのCustom Device Actionsだ

ブログの記事でGoogleは、Assistantを搭載した洗濯機が色を次々と変える例を示している。Assistantの開発キットにはすでにBuilt-in Device Actionsというものが最近提供されたが、デベロッパーはこれでデバイスに何らかの特徴を持たせることができる。そして今回のCustom Device Actionsは、それの後輩だ。

スマートホームデバイスはますます市場が混み合ってきたから、メーカーはなんとかして自社製品を目立たせないといけない。この開発キットは、そのために役に立つだろう。Googleはデモ用として、洗濯物分類ロボット(下図)とビール注文システムを作ったようだが、どちらもSXSWではAssistant Fun Houseと名付けたコーナーで実際に試せる。

この前のCESやMWCと違って、今度のGoogleの展示場には嬉しいことに屋根がある。でも、二度ある悪天候は三度あるというから、テキサスはみぞれかもしれない。このActions開発キットには登録会員のための通知機能があって、新しいアクションが追加されたらAndroidスマートフォンの画面に音楽とともにポップアップする。

もっと詳しいことは、5月初旬のGoogle I/Oカンファレンスで分かるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

雪の大館市で三頭の秋田犬がGoogleストリートビューを撮影

このたびGoogleがストリートビューのチームに新たに加えたのは、三匹の、とっても毛むくじゃらの、とってもいい子たち、AkoとAsukaとPuukoだ。日本の大館市の雪におおわれた街路を撮るために同社は、三頭の秋田犬の背中に360度カメラをくくりつけた。彼らはこの国の、寒くて山の多い地方の出身だ。

同社はこの可愛らしい地図作成のイノベーションを、Dog Viewと呼ぶかPup Viewと呼ぶか決めかねた〔pup == 子犬〕。その会議の様子を、ぜひビデオに撮りたかったね。ぼくなら、Akita Viewを提案しただろう。

AkoとAsukaとPuukoは、革製のハーネスに一般市販のカメラを取り付けてが市内を歩きまわり、その景観や、たくさんある犬の大好きな場所、秋田犬博物館やハチ公の銅像を撮った。Googleによると、ハチ公とは、“レジェンドとなった犬で、オーナーが亡くなってから何年も、毎日忠順に東京の渋谷駅に通(かよ)った”。

通常のストリートビューの画像には、撮影者は映らないが、犬の場合は必然的にダーティー・ショット(撮影者が部分的に入り込む画像)になり、ぬいぐるみのようなふわふわの耳がフレームに入り込む。三頭の、人類の最良の友たちの、とても良い仕事だとわかるから、楽しいね。

犬たちの目線によるストリートビューは、ここで見られる。

〔関連記事: Google日本語ブログGigazine

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

これからは人気ミュージシャンもGoogleにPostingができる、将来的には誰でも?

これまでの2年間、Googleは徐々に(とっても徐々に!)、セレブや政治家やスポーツチーム、美術館、地域の企業などがその検索結果のページへ直接、ソーシャルメディアのようなアップデートをポストできる機能(Posts, Posting)を提供してきた。そして今日(米国時間3/8)は、昨年のいくつかの市場でのテストに基づいて、この機能をアメリカのミュージシャンにも提供することになった。

つまりこれからは、Kygo, Lorde, Steve Aoki, Sia, Son Little, Sofi Tukker, Shakiraなどなどで検索すると、そのアーチストの(パブリシティ担当者の?)アップデートがサイドバーに出るかもしれない。アップデートには、テキストだけでなくビデオやGIF、他のサイトのリンクなどがあってもよい。

[Lordeのツアーの宣伝]

この機能を使いたいユーザーや企業などはGoogleに申し込む必要があったが、今日のアップデートにより、そのプロセスがかなり簡単になった。利用したいミュージシャンは自分の名前で検索し、そのアーチストの情報を収めるサイドバーパネルKnowledge Panelにあるサインアップのリンクを探す。検索してもKnowledge Panelが出なかった人は、まだあまり有名でない、という意味だから、あきらめよう。

サインアップも簡単だから、Googleはたぶん今後この機能をすべての人が使えるようにするのではないか。でも最初に述べたようにこれまでのPosting機能も展開が迅速でなかったから、‘一般化’はまだ先の話だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

新惑星の発見に貢献したNASA/Googleの機械学習システムAstroNetをあなたも利用できる

おぼえておられると思うが、昨年12月に、NasaのデータとGoogle Brainの脳力を利用する機械学習により、二つの新しい惑星が見つかった。あなたがそれと同じことをやってみたいなら、そのシステムを作ったチームが今日(米国時間3/8)、その天文学的偉業の達成に使われた、AstroNetと呼ばれるプログラムのコードをリリースしたから、試してみたらどうだろう。

NASAのKepler宇宙望遠鏡は、銀河系を何年もかけてスキャンし、惑星サイズのオブジェクトが星の前面にあって、そこだけやや暗くなってるところ(上図)を観察した。

そのデータセットは、機械学習のシステムにとってすばらしい遊び場だ。量が膨大でノイズも多いため、微妙な変異を単純な統計学的方法や人間による精査では見つけることができない。そのような、データの泥沼からおもしろい結果を取り出すためには、畳み込み式ニューラルネットワークが格好のツールだった。

しかし例によってAIは、人間がやった先例に従わなければならない。そのニューラルネットワークは、すでにラベルがついていて惑星か非惑星かを検証されている何千ものKeplerのスキャンデータで訓練された。この訓練されたモデルが、Kepler-90iとKepler-80gの発見に貢献した。

研究者たちによると、プロジェクトのソースを公開したことによってそれがさらに正確になり、研究がもっと早いペースで進み、また新しいデータセットも取り入れることができる、と期待される。ドキュメンテーションを読んでコードをフォークしてみたい人は、GitHubへ行ってみよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが国際女性デーを記念して企業の属性に“women led”(女性が経営者)を加えた

国際女性デー(International Women’s Day)を記念してGoogleは、Google My Business上の企業リストでオーナーが自分の企業に“Women led”(女性が経営)という属性をつけられるようにした。これをつけておくと、Google Mapsや検索で、そのほかの属性と共に、“Women led”というネームのついた女性記号やバッジが表示される。バッジの場合は、クリックするとそのほかの情報(Wi-Fi使えます、駐車場あり、など)も見られる。

Googleのスポークスパーソンは本誌にこう語った: “世界中の情報を、差別や排除のない形で編成するよう努めている。昨年は、Prideの時期に合わせて“LGBTQ-friendly”(LGBT歓迎)という属性を加えた。今年は“Women led”の属性を加えて、女性が経営する企業を盛り上げ、ネット上でも成功するよう願い、またGoogle Mapsや検索を使ってそれらの企業を見つけたり訪ねたりできるようにした”。

(“Women led”属性のある企業が本当に女性経営者の企業であるようにするためにGoogleは、経営者がGoogle My Businessの検証過程で自分を証明する仕組みにしている。そうやって証明されると、Google Mapsや検索などのサービスに載る情報を管理できるようになる。)

今日の発表の一環としてGoogleは、三つの女性経営者企業を特集ページで紹介している: それらは、イタリアのベロナのテキスタイル企業Progetto Quid(女性を積極的に雇用)、ベトナムのホイアンの障害者支援ネットワークReaching Out Teahouse(就活支援など)、そしてシカゴのメキシカンなヨーグルトバーYogolandia Yogurt & Botana Bar(マイノリティ女性の活躍)だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Mapsのストリートビューでアメリカのディズニーランドを歩き回れる

Googleの、子どものための機能は、もちろん子どもの親にとっても重要だ。これからはGoogleの上で、ディズニーランド訪問の計画を立てられる。お金は一銭も使わない。Google MapsのStreet View機能のおかげで、11のDisney Parks※を訪ねられるのだ。

この機能はまだアメリカだけだが、それでも、思い出に浸ったり、初めて行くところを調べたりできる。

Google Mapsがこうやって、観光のためのツールにもなるのは、おもしろい。とくにアジアでは、各国政府とその観光局がGoogleと協力して、人気の高い文化的遺跡などを同社のサービスに載せている。しかし西側諸国では、プライバシーの侵害としてGoogle Mapsは敬遠されている。実際に2010年には、GoogleのStreet Viewの撮影車が個人情報を拾ったことがあった。

ディズニーのいろんなパーク(“〜ランド”や“〜シー”などなどを含む)は、世界的な奇観でもないし、文化遺産でもない。でもそれらのパークがGoogle Mapsで見られるのは、とっても良いことだ。

心配はご無用。本誌TechCrunchの編集長Matthew Panzarinoに近い、信頼できる筋によると、彼は今後も、iPhoneの最新機種の現用テストのために、年に一度はディズニーランドへ行くそうだ。そう、あそこには、デジタル化できないものがいっぱいあるからね。

〔※: ディズニーの屋外エンタテイメント施設とその事業部門の総称は“パーク&リゾート”(公園とリゾート)、その中の遊園地っぽいのを、ディズニーランドと呼ぶ。この記事の原タイトルは、“ランド”ではなく“パーク”だった。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのビデオチャットアプリDuoに留守電ビデオ/ボイスメール機能がついた

メッセージングに関するGoogleの戦略は今も混乱してる、と感じる人が多いと思うが、Hangouts, Hangouts Meet, Hangouts Chat, Allo, Duoとたくさん並べたGoogleが考えているのは、Allo/Duoは消費者用、Hangouts Meet/Chatは企業ユーザー用、という分け方なのだ。Hangoutsそのものはどうなるのか、それは今やぼくにも分からないが、たぶんGoogle自身にも分からないだろう。しかしはっきりしているのは、AlloとDuoは立派なメッセージングとビデオチャットのアプリなのに、ユーザー数が伸びないことだ。でも、もしかしてDuoのユーザーかもしれない読者には、今日(米国時間3/7)良いニュースがある。電話をして相手がいない(または出ない)ときには、音声とビデオでメッセージを残せるのだ。

Duoのユーザーは30秒のメッセージを残せるし、相手はそれをDuoアプリで見られる。そして折り返し相手がかけてきたときには、ふつうに出てもよいし、ビデオメールを送らせてもよい。

Googleによるとすべてのメッセージはエンドツーエンドで暗号化されており、今回のアップデートは今日からAndroidとiOSのユーザーへ展開され、数日後には全世界のユーザーに行き渡る。

GoogleのAllo/Duoという二本立て戦略が有効だとは思わないし、メインストリームのユーザーはそもそも無関心だと思うが、ビデオチャットアプリとしてはDuoは良くできており、おもしろい機能もいくつかある。しかし、Alloと同じく、ぼくの友だちはだれ一人として使っていないし、ビデオチャットならHangoutsにすでに完璧なオプションがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIで視覚的に情報検索「Google Lens」が全Android端末に対応。iOS版も間もなく

eng-logo-20152017年5月のGoogle I/Oで発表され、その後Pixel端末でのみ利用可能となっていたGoogle Lens。それが他のAndroid端末でも使えるようになります。

AIで世界を認識する新技術Google Lens発表。被写体の情報をその場で調べ、AR表示やアクションを実行

Google Lensはカメラで写したものをAIが認識し、それに関連する情報を検索して表示したり、文字を認識してテキストとして取り込むことができる機能。

発表時には、カメラで写したものをリアルタイムに認識するとアピールされていましたが、現状では撮影したものをGoogleフォトで開いてから認識する必要があります。ただ、Google Lensはまだプレビュー版とのことで、現在も機能追加や改良がおこなわれている最中です。最近では、動物や植物の種類の違いを認識できるようにもなりました。今後さらに使いやすくなっていくと考えられます。

そのGoogle Lensが、Googleフォトアプリの最新版でPixel以外のAndroid端末でも利用可能になるとのことです。Googleの新機能展開ではよくあることですが、ユーザーごとに段階的に有効化をしており、いまこの時点で使えなくても、今後数日のうちには利用可能になるはずです。

気になるのは、日本語でも利用できるのかどうかです。先日のARCore 1.0を発表したGoogleのブログ記事では、「すべてのGoogleフォトの英語ユーザー」が利用可能になるとされていました。このため、日本語設定では利用できない可能性もあります。ただし、Pixel 2のGoogle Lensは日本語でも利用できるので、日本でも使えるようになることを期待したいところです。

なお、iOS版への対応も近々に実施されるとのことです。

Engadget 日本版からの転載。

Googleのキーボードアプリ、Gboardが中国語、韓国語等に対応

サードパーティー製キーボードアプリへの消費者の関心が薄れる中、Googleはモバイル端末向けキーボードアプリのGboardを今も開発している。今日(米国時間3/6)同社はGboardの対象範囲を大きく広げ、新たに20言語に対応した —— とりわけ、中国語の繁体字および簡体字と韓国語が加わった点が注目される。新しい言語はまずAndroid版Gboardアプリに追加される。

昨日同社は、iMessageの新しいアプリ拡張機能を利用したGoogle検索のiMessageへの統合を発表したばかりだ。Gboardの対象ユーザーの拡大や、iOS版SafariとGoogle検索の密な統合も含め、Googleがモバイルユーザーにもっと検索エンジンを広めたいという意図がはっきり見て取れる。検索アプリをインストールしていないユーザーや、使用頻度の低いユーザーにもGoogle検索を使わせようとしている

この20言語を加えて、Android版Gboardの対応言語は300を超えたとGoogleは言っている。世界人口の74%をカバーしたという意味でもある。同社は広く使われている言語だけでなく、マン島語やマオリ語などの少数民族言語にも取り組んでいることを付け加えた。

これは、Googleの新興国市場戦略とも一致している。同社はアプリの低帯域幅バージョンとして、YouTube GoGmail Go(プレインストール済み)、Files Go、Google Go、Googe Maps Go、Google、およびAssistant Goを提供している。Googleは世界の次期モバイルユーザー層をAndroidに呼び込むために、オフラインでも電波の弱いところでも使えてバッテリー消費の少ないアプリでニーズに答えようとしている

Googleが新言語の対応でGboardを優先することは理にかなっている。デスクトップでGoogleを使ったことのない初めてのモバイルユーザーでも、Gboardの翻訳などの機能が役立つだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

画像検索エンジン、Google LensがAndroidのGoogleフォトにやって来る

Googleのビジュアル検索エンジン、Google Lensは写真をスキャンして「何が写っているのか」を認識する。たとえば名刺をカメラで撮影するとLensは自動的に内容を認識し、連絡先に追加したりできる。

このGoogle LensがAndroidのGoogleフォトのユーザーに公開された。これはGoogleにとって最初の本格的なLensの普及の試みだ。これまでLens機能は最新のPixelスマートフォンでしか使えなかった。PixelではGoogle Assistantを通じてLensが利用できたが、他の機種のAndroidユーザーはアクセスできなかった。

GoogleではiOS版のGoogleフォトでもLensが「近々公開される」としているが、正確なスケジュールは明らかになっていない。

Lensは非便利であることもあれば、失望させられることもある。絶対に必要なツールかといえば今のところそこまでの完成度はないが、うまく作動するときはすばらしい能力を見せる。もちろんエッフェル塔の前に立っているときにGoogleレンズが「エッフェル塔です」と認識してくれても(時差ボケがよほどひどくない限り)それ自身ではあまり役に立たない。しかしいちいち文字を入力しなくても即座にエッフェル塔に関する詳細情報、歴史とか開館時間を知ることができるのは非常に便利だ(Googleマップからの検索でも有用な情報を手早く知ることができる)。

一方名刺スキャン能力はビジネスに大いに役立つ(相手が名刺の代わりにLinkedInのプロフィールで済ませている場合はダメだが)。

個人的にはLensの能力が不可欠だったという経験はまだしていない。最初は面白がってもやがて存在を忘れてしまいそうだ。しかしGoogleのことだから日々能力が改良されていくに違いない。やがて世界のどこで何を撮っても、名所であれレストランであれ、即座にそれが何であるか検索できるようになるのだろう。

画像: nurphoto/Getty Images

〔日本版〕右側のカット写真はサンフランシスコのテレグラフヒル地区の名所、コイト・タワー。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのBristleconeプロセッサーは同社を量子超越性へ一歩近づけた

今では大手テクノロジー企業のすべてが、コンピューティングの次の大きな飛躍的技術革新として、量子コンピューターに着目している。Googleでも、Microsoftでも、IntelやIBMでも、そしてさまざまなスタートアップや学術研究機関が、量子超越性(quantum supremacy, 量子スプレマシー)を自分が最初に実現しようとしのぎを削っている。量子超越性とは、これまでのコンピューターでは逆立ちしてもできなかった複雑なアルゴリズムの計算が、量子計算機だからこそできた、と言える瞬間のことだ。

Googleによると今日(米国時間3/5)は、同社の最新の量子プロセッサーが同社を未来の量子超越性へ向かう道程上に乗せた、と信じられるという。Bristleconeの目的は、Googleによれば、同社の研究者たちが、“同社の量子ビット(qubit, キュービット)技術のシステムエラーレートとスケーラビリティ、および量子計算によるシミュレーション最適化, そして機械学習などのアプリケーションを研究”していくための、テストベッドを提供することだ。

すべての量子コンピューターにとって大きな問題のひとつが、エラーレートだ。量子コンピューターはふつう、数ミリケルヴィンという超低温と、環境に対する遮蔽を必要とする。今日の量子ビットはまだ極端に不安定で、ノイズによるエラーを起こしやすいからだ。

そのために、現代の量子プロセッサーの量子ビットは単一のqubitではなく、複数のビットを組み合わせてエラーに対応する。目下のもうひとつの限界は、これらのシステムの多くが、自分の状態を100マイクロ秒未満しか維持できないことだ。

Googleが以前デモしたシステムは、読み出しで1%のエラーレートを示し、単一のqubitでは0.1%、2qubitのゲートでは0.6%だった。

Bristleconeチップは、1基が72 qubitsだ。業界の一般的な想定では、量子超越性を達成するためには49 qubitsが必要、と言われている。しかしGoogleは用心深く、量子コンピューティングをqubitだけで云々することはできない、と言っている。“Bristleconeのようなデバイスを低いシステムエラーで運用するためには、ソフトウェアと制御用電子回路とプロセッサー本体に関わるすべての技術の調和を要する”、とチームは今日書いている。“それを正しく達成するためには、細心のシステムエンジニアリングを何度も繰り返して実践する必要がある”。

Googleの今日の発表は、実用レベルの量子コンピューターの開発に取り組んでいるそのほかのチームにプレッシャーを与えるだろう。業界の現状でおもしろいのは、だれも彼もがそれぞれ違ったアプローチをしていることだ。

Microsoftは、そのチームがまだqubitを作り出していない、という意味でやや後れているが、しかしそのアプローチはGoogleなどとまったく異なり、qubitを作れるようになればすぐに49 qubitsのマシンを作れてしまうだろう。Microsoftはまた、量子コンピューティングのためのプログラミング言語も作っている。

IBMの研究所には今50-qubitのマシンがあり、デベロッパーたちはクラウド上のシミュレーションで量子コンピューターを動かしている

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが検索結果ページのスニペット(ミニ情報)を拡張して多義的な質問にも対応

数年前からGoogleの検索結果の最上部に強調スニペット(featured snippets)という小さなコラムが出て、そこにWebページからの情報が“お急ぎ回答”として表示されることがある。そこに今度からは、質問の意図がGoogleにとって明確でなかったような場合に、複数の答が表示されるようになった(下図)。

Googleはブログの記事で、いろんな意味に解釈できる質問がある、と説明している。たとえば下図の、“garden needs full sun?”(庭は完全な太陽を必要とするか?)という質問は、“完全な陽光を必要とする庭の植物は何か?”とか、“どれくらいなら完全な太陽と言えるか?”など、いろんな意味に取れる。Googleの今度の多面的強調スニペット(multifaceted featured snippets)では、これら両方の質問の答が表示される。

この機能は当初、複数の意味に取れる質問だけを対象とする。たとえば“tooth pain after a filling”(詰めものの後の歯痛)は、「歯痛の理由を知りたい」と「どれぐらい長く痛むか」の意味に取れる。

しかしGoogleの計画では、今後この多面的強調スニペットのカバー範囲を広げ、ガイダンス(指導)を求める質問にも対応する。このタイプの質問では、複数のいろんな要素について答が求められている。たとえば、“is it worth fixing my foundation?”(私の財団を立て直す価値があるか)という質問には、コストやそのプロジェクトの所要期間、仕事のやり方、財務への影響など、いろんな知りたいことが含まれている。こんな質問にも、将来の多面的強調スニペットは答えていく。

スニペットに関する実験は今年1年をかけて行い、カバー対象を広げていく、とGoogleは言っている。

スニペットは、必ず役に立つとは限らない。今年初めにGoogleはこの機能を手直しして、間違いや偏りを減らす努力をした。それは、思わず笑ってしまうほどありえない情報や正しくない情報が多い、と指摘されたからだ。たとえば、“women are evil”(女性は悪である)とか、Obama was planning a coup(オバマはクーデターを計画していた)などだ。Googleは問題の修復について詳しく述べたとき、このことを認めた。

Googleによると、珍しい質問や瑣末な質問では権威ある結果が得られないことがある、という。そして十分な情報が得られないときは、やや近い答を使ってしまう。するとそれらは、間違った答に見えてしまう。同社は、検索の質の格付けシステムを変え、スニペットのアルゴリズムを改良することによって、これら二つの問題に対応した。そのときGoogleは、今回の多面的スニペットの近々のローンチを予告した

スニペットの今回の変更によってGoogleは、不正な情報を載せる同じ間違いを犯さないことを期待している。もしも、おかしな結果などをGoogleにフィードバックしたければ、検索結果のページにあるフィードバックリンクから提出してほしい、とGoogleは言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの簡易作曲システムSong Makerで曲作りを簡単に楽しく

GoogleがChrome Music Labに、新しい楽器Song Makerを加えた。その名のとおり、Song Makerは曲を作る。それは基本的には使いやすいシーケンサーで、ユーザーはブラウザーの中でメロディーを作る。ただしそれには、Music LabのMelody Makerツールのような自動化の機能はない。

それは本格的な作曲ソフトFL Studioではないが、楽しいし、ピアノやストリングス、木管楽器、シンセ、マリンバなどの中から楽器を選べる。小さなリズムセクションもあるから、曲にドラムスをつけられる。このほか、コンピューターにMidiキーボードをつけて楽器を演奏したり、歌を音符に翻訳してくれるレコーディングの機能もある。

Googleによると、Song MakerはMusic in Our Schools Monthのコンサートでローンチする。それはNational Association for Music Education(全米音楽教育協会)が企画した行事だ。

あなたの名曲ができたら、Song Makerがパーマリンクをくれるので、簡単に世界中と共有できる。この機会に、Music Labのそのほかの楽器も見てみよう。ぼくがとくに気に入っているのは、絵を音楽に翻訳するKandinskyだ。

Sound Makerを卒業したら、ブラウザーから使えるもっと複雑なシーケンサーがいろいろあるから、それらも試してみよう。代表的なのは、SoundationSampulatorAcid Machineなどだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

モバイルで写真やビデオの背景を変えて楽しめるGoogleのAIツールがYouTube Storiesに装備

Googleの研究者たちは、人びとが他人を騙(だま)して、今自分は月にいる、と思わせたり、今は昼ではなくて夜だと見せかけることが好きだ、と知っている。しかしそんな楽しいいたずらは、映画のスタジオへでも行って、グリーンのスクリーンの前で撮影しないと実現は難しい。そこで2018年の優秀なプログラマーたちは、自分たちにできることをした: ニューラルネットワークを利用してそれをやるのだ。

その、“ビデオセグメンテーション”(ビデオ切り出し)と呼ばれるツールは、モバイル上のYouTube Storiesで今日(米国時間3/1)から一部のユーザーに展開される。画面上にこのオプションがある方は、おめでとう、あなたはベータテスターだ。

この機能には、さまざまな工夫が盛り込まれているようだ。前景(被写体本体)と背景の境界を見つけなければならないが、それはiPhone Xの前面カメラ配列のような深さ(z軸方向)を感知するカメラと、大量の処理時間と、電池よりも長時間使える電源があれば、朝飯前だ。そう、デスクトップコンピューターを使えばよい。

でも、モバイルでしかもふつうのRGB画像(深さ情報がない)となると、そう簡単ではない。スチルの画像でも難しいのに、ビデオとなるとなおさらだ。コンピューターは、背景検出のための計算を、少なくとも毎秒30回やらなければならない。

そう、Googleの技術者たちも、それをチャレンジと捉えた。畳み込みニューラルネットワークをセットアップし、それを数千のラベル付き画像(その例が右図)で訓練した。

そのニューラルネットワークは、人の頭と肩のような、よくある特徴を検出できるように訓練され、一連の最適化によって、正確な検出のために必要なデータの量を減らしていった。また、前の計算の結果(頭の切り抜きなど)を次のための素材として使うという、一種のコンピューター騙しによって、計算負荷をさらに下げた。

その結果、高速でしかも比較的正確なセグメンテーションエンジンが得られ、ビデオに対しても使えるほどの速度を達成した。GoogleのPixel 2スマートフォンの上では40fps、そしてiPhone 7では100fpsを超えた(!)。

これは多くの人たちにとってビッグニュースだ。背景をなくしたり、入れ替えたりすることは、ツールボックスに常備したい楽しいツールだし、しかも、とても容易にそれができる。そして願わくば、短時間で電池を空にしませんように!。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa