Amazonは独自の配送サービスをアメリカでテスト中――2018年にはサービスを拡大へ

Amazonはサードパーティー向け配送サービスを実験している。Bloombergによれば、販売者はAmazonのSeller Flexと呼ばれるプラットフォームを使って商品の配送ができるようになる。このプロジェクトは2年前にインドで開始されたが、Amazonは今年に入って西海岸を皮切りにアメリカでも密かにテストを開始していたという。Bloombergの記事は「2018年にはアメリカのサービスを拡張する計画がある」としている。

このサービスではAmazonは消費者の販売者への注文、販売者の倉庫からの集荷、顧客への配送まで一貫して処理する。ただしAmazonは独自に契約した運送者に加えてUPSやFedExのような大規模運送事業者を引き続き使用する。ただこれまではどの運送業者に配送を依頼するか荷主である販売者が決めていたが、Seller Flexでは配送者、配送方法の決定権がAmazonに移るわけだ。

Bloombergも指摘するとおり、この実験はAmazonがロジスティクスにさらに一歩踏み込んできた証拠でもある。これまで商品在庫の管理においてAmazonにとって不透明な部分が存在した。Amazonは販売業者が管理する在庫にについては十分な情報が得られなかった。しかしSeller Flexではさらに立ち入ってサプライチェーン全体を管理することになる。これにより消費者にとってPrime配送が一層速くなるだろう。Amazonは配送時間を最小にするために、マクロな観点から誰が何をどこへ配送するのかを最適化できるようになる。

Amazonの実験はPrimeに参加するメンバーの拡大を図ると同時にロジスティクスをAmazonに集中させ効率化する効果を狙っている。またサードパーティーの荷主の増加によってフルフィルメント・センターに入ってくる商品も増加し、処理能力が食われる心配をしなくてすむようになることも目指しているのだろう。Seller Flexでは実際の配送業者としてUPSやFedExをシステムから排除するわけではない。しかし長期的にみてAmazonの影響力を拡大させることになるはずだ。

画像: David Ryder/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

プライム会員なら数百冊の電子書籍が読み放題、Amazonが「Prime Reading」を日本で開始

お急ぎ便やお届け日時指定といった配送サービス、プライム・ビデオ、Prime Music、プライム・フォトなどAmazonプライム会員の特典は時間の経過とともに充実してきた。そして本日、このラインナップにまた1つ新たなサービスが加わることになる。

アマゾンジャパンは10月5日、プライム会員向けの新サービス「Prime Reading」を日本で開始した。Prime Readingはプライム会員であれば、数百冊のKindleコンテンツを追加料金なしで楽しめるというサービス。アメリカでは約1年前から始まっている。

公式の発表では現在すでに数百冊のコンテンツを読むことができ、ジャンルはビジネス本から雑誌、漫画、絵本などさまざま。対象コンテンツは10冊まで同時に利用できる。Kindleの無料アプリをダウンロードしたスマートフォンやタブレット、Kindle電子書籍リーダー、Fireタブレット、パソコンからアクセスが可能だ。

日本では2016年8月より電子書籍の読み放題サービス「Kindle Unlimited」が提供されてきた。こちらは月額980円で利用でき、対象となるコンテンツは12万冊以上に及ぶ。

今回Prime Readingで利用できるコンテンツを全てチェックしたわけではないが、トップページを見てもKindle Unlimitedの対象となっているものが多く「Kindle Unlimitedのライト版」のような印象を受けた。

アマゾンジャパン社長のジャスパー・チャン氏がプレスリリース内で「これからも『Amazonのプライム会員にならないなんて考えられない』とお客様に感じていただけるよう、プライム特典を充実させていきたいと考えています」とコメントしているように、主な目的はプライム会員の特典充実だろう。

ただ今後Prime ReadingがきっかけでKindle Unlimitedにも興味を持つユーザーが増えていくのか、そちらも気になる所だ。

脳の病変の3Dプリントが医師の難しい診断を助ける

脳に問題がある場合には、精密であることが役に立つ。1ミリ単位で腫瘍や梗塞の可能性があるからだ。しかし、これらのものの正確な形や大きさを知ることは非常に難しく、このため診断や治療も難しいものになっている。だが、成長や損傷している場所のレプリカを3Dプリントすることで、医師の診断や治療をより良いものにすることが可能だ。

これは、多発性硬化症(MS)患者の脳病変の診断と理解に対する、3Dプリンティング手法の有効性を示す論文を発表した、Darin Okuda博士(トップの写真)からの提案である。

Okudaのチームは、MSに冒された脳のMRIスキャンを分析し、その中に検出された病変や損傷した領域の、正確なコピーをプリントした。その出力結果は、こうしたものの診断や観察のために、通常は2Dのイメージや画面上の3D映像だけを見ている人たちに手渡された。

「普通の2次元ビューで見るものは、病変そのものの正しい形状に対する、明瞭な理解を与えてはくれません」とOkudaは語った。「3Dで病変を研究することによって、私たちはそれらを全く違うやり方で見ていますし、その形状や表面の特徴を評価しています」。

彼らは、例えば非対称性および複雑な表面構造を持つ他のタイプの脳損傷から、MS病変を区別する多くの特徴を特定した。これらは単なる平面的なスキャン映像からは常に明らかというものではなく、3Dへの変換によって、より容易に認識できるようになった。

「以前の研究における私たちの多発性硬化症の病変の記述は、不正確なものでした」とOkuda。「MSの病変は、『卵形』であり『ぴっちりと外接している』と記載していました。しかし3Dを用いた研究によって、私たちはこれが正しくないことがわかりました。私たちは、MS病変の複雑さに驚いて、これまで私たちの分野で使われていた用語が、物理的な3D形式のレビューの後では正確なものではなくなるかもしれない、という議論をしました」。

このようなスキャンでは、病変の形状に対して与えられる情報は限定的だ。

このことを知ることが、正しい診断と誤った診断の分かれ道になるかも知れない。そして3Dプリンティングは、安価でどちらかと言えば迅速な手段なのだ。その形状についてよりよく理解するために、それを実際のものよりも大きくプリントするこさえ可能だ。これらの出力結果は、患者の損傷部分の理解や、どのように治療を行なうことができるかを考える手助けとなり、はっきりしない視覚化画像の中から、治療の結果を取り出して見ることに役立つ。

しかし、私にとってもそうだったが、読者も脳の中の3D構造を3Dで視覚化することは当たり前のような気がするかもしれない。しかしテクノロジーが医療分野に到着することはとても遅くなることがあり、この種の医療現場での3D視覚化も例外ではなかったのだ。

3Dの視覚化はすでにある程度普及しているのでは?という私の問いかけに対し、Okudaは「あなたが考えているほど広まってはいません」と答えた。「あなたが見た、他の脳病変イメージング作業は、おそらく手術前計画に用いられる(表面と形状に対して限られた解像度を持つ)CTスキャンやCT/MRIを組み合わせたものでしょう。直感的に思えるかもしれませんが、実は私たちは悪性脳腫瘍の診断と管理に3Dイメージングを使用していないのです」。

彼の病変コレクションを見せるOkuda博士。

ならば技法を広げる余地がある。おそらく。

Okudaとそのチームの次のフェーズは、3Dプリンティングが現実的でない場合に、患者のために使用するVRプラットフォームを開発することだ。またこれは機械学習に最適なユースケースなので、深層学習システムの開発も同時に進められている。特定の形状または特徴で、患者の転帰や予後を予測できるようになるかも知れない。

Okudaらの研究成果は、最新のJournal of Neuroimaging(神経画像処理学会誌)に掲載されている。

[ 原文へ ]
(翻訳:Sako)

LINEのスマートスピーカー「Clova WAVE」は本日正式発売、LINE MUSICとセットで1万2800円

LINE取締役CSMOの舛田淳氏

午前にはGoogleがスマートスピーカー「Google Home」の日本での発売を明日10月6日だと発表したが、LINEのスマートスピーカー「Clova WAVE(以前の名称は「WAVE」)」は本日10月5日の15時より正式発売を開始した。

Clova WAVEの価格は当初発表より1000円値下げした1万4000円。ただし3月末まではキャンペーンとして、音楽ストリーミングサービス「LINE MUSIC」(月額980円)の12カ月利用権をセットして、1万2800円(いずれも税込み)で販売する。Clova WAVEの販売サイトのほか、Amazon.co.jpや楽天市場で販売。月末には家電量販店などでも販売する予定だ。

「Clova WAVE」

Clova WAVEは6月にLINEのプライベートカンファレンスで発表されたスマートスピーカーだ。自社グループで独自開発した音声AI「Clova」を採用している。

8月23日より一部機能に限定した先行体験版を提供開始しており、LINE MUSICの4000万曲以上の楽曲を再生(雰囲気やアーティスト名、アルバム名などで再生可能)できるほか、天気予報や「LINEニュース」と連携した最新ニュースの読み上げ、テレビやライトのIRリモコンの操作(今後はエアコンのIRリモコンにも対応予定)などが可能だ。

正式発売にあたり、新たにコミュニケーションアプリ「LINE」との連動機能を強化。新着メッセージの通知や読み上げにも対応したほか、Clovaのアプリ上で「LINE家族アカウント」と呼ぶLINEアカウントを通じて、家族間でのメッセージのやり取りが可能になった。

また、先行体験版でもニーズの多かったというClovaとの連続会話(あいさつからスタートし、調子を聞き、天気を聞く、といったやり取り)も可能になった。今後は声での話者認識や音声での多言語翻訳、カレンダー管理やメモ帳機能、ショッピングやデリバリー、タクシー配車といった機能も提供していく予定。また外部パートナーとの連携も進める。radiko提供のラジオ再生、ヴァル研究所提供の経路検索、レスキューナウ提供の鉄道運行情報、アイフリーク モバイル提供の童話朗読なども準備中だ。

追加される機能の一部

日本の住環境やユーザーを捉える

同日開催された発表会でLINE取締役CSMOの舛田淳氏は、あらゆるデバイスがインターネットに接続し、最適化されていく“ポストスマートフォン”の時代の到来について語った。スマートフォン全盛の現在は、タッチやタイピングといった入力インターフェースが一般的だが、それが音声に変化していくと説明する。「長らく続いたGUIの時代からVUI(Voice User Interface)の時代に変化しようとしている」(舛田氏)

Google Homeの日本発売が決定し、Amazonもスマートスピーカー「Amazon Echo」を年内に発売すると発表しており、各社が日本の市場続々進出して居る状況だ。発表会で記者から競合優位性について尋ねられた舛田氏は、「(アプリの)LINEを作ってから、ずっとチャレンジャー。できることをやってきた。日本の住環境、ユーザーの状況を最も最適に捉えていきたい」と答える。例えば他社がスマート家電などとの連携をうたう中で、普及率を考慮しIRリモコンから連携を進めていることもその1つの施策だし、家族アカウントを通じたLINEでのコミュニケーションも同様だ。

また、日本にフォーカスした施策だけでなく、音声認識に関しても大幅なアップデートを準備しているという。ただし詳細なロードマップについてはスケジュールが変更になる可能性もあるとして公表していない。「詳細はずれることもあるので公開していないが、いろんなチャネルで事前の案内をしている」(舛田氏)

Googleの機械学習式音声生成システムWaveNetが、Google Assistantに導入される

Googleは昨年、新しい音声生成の方法であるWaveNetを発表した。これは大量の単語ライブラリや、堅苦しくなりがちな簡易手段に頼らない手法だ。WaveNetは、機械学習を使いサンプル毎に音声を生成する。その結果は私に言わせれば「気味が悪いほど良くできた」ものだ。これまではラボの中で提供されていたが、この技術が、最新版のGoogle Assistantに導入される

この技術の背後にある基本的なアイデアは、文法や音調のルールを手でコーディングして単語や文を生成するのではなく、機械学習システムを使ってスピーチのパターンを見出し、それをサンプル毎に生成するようにしたことだ。この場合のサンプルとは、1/16000秒単位で生成される音だ。最初のリリース時点ではWaveNetは非常に計算コストが高く、0.02秒の音声を生成するのに1秒を要していた。つまり “turn right at Cedar street”(Cesar通りを右折)といった2秒のクリップを生成するのにほぼ2分近い時間がかかっていたのだ。そのため、実際の用途には適していなかった(そんなに時間がかかったら、交差点を通り過ぎてしまう)。それがGoogleのエンジニアたちが改善を図った理由だ。

新しく改良されたWaveNetは、実時間に比べて20倍の速さで音声を生成する。すなわち同じ2秒のクリップを1/10秒で生成するのだ。そしてさらに、8ビットではなく16ビットで、1秒あたり2万4000回という高いレートでサンプリングを行なうことも可能だ。スマートフォンのスピーカーでは、そうした忠実度の高いサウンドが本当に高く評価されることはないだろうが、本日(米国時間10月4日)のアナウンスによれば、Assistantはほどなくより多くの場所に登場するようだ。

WaveNetによって生成された音声は、従来使用されていた最先端の単語連結式システムよりもかなり良好なものだ。

改良前:

改良後:

(Assistantもすぐにこのような音声になるだろうが、さらに多くの例はDeep Mindのブログ記事でも聞くことができる)。

WaveNetはまた、他の言語やアクセントに対して拡張していくことが非常に容易であるというとても優れた性質を持っている。ウェールズ語のアクセントで話させたいときに、手を入れて自分の声の母音を足したりする必要はない。ウェールズ人の声を数十時間入力として与えるだけで、システム自身がニュアンスを抽出する。とは言え、この新しい声は、現在米国英語と日本語でのみ利用可能で、他の言語についてはまだ発表されていない。

「大手のハイテク企業たちは、他の大手ハイテク企業がやっていることをやる」という流れに乗って、最近Appleも、機械学習スピーチモデルを使ってそのアシスタント(Siri)を改良した。しかしこれは、Googleのものとは違い、サンプリングレベルでの再生成を行っているわけではなく、音素レベルでの再生成に留まっている。

WaveNetのチームはその成果をほどなく公開する予定だが、今のところは、これまでよりも遥かに効率よく働くという、彼らの約束で満足しておくしかない。

日本版:Deep Mind ブログに掲載された日本語のサンプル
改良前:

改良後:

[ 原文へ ]
(翻訳:Sako)

DMM傘下のピックアップ、女性同士に特化したライブ配信アプリ「CHIPS」をリリース

DMM傘下のピックアップは10月4日、女性同士のコミュニケーションに特化したライブ配信アプリ「CHIPS」の提供を開始した。まずはiOS版のみのリリースで、今後Android版もリリースする。

ここ数年、日本でも若い世代を中心にライブ配信を通じたコミュニケーションがかなり浸透していきている。ライブ配信アプリではLINE LIVEツイキャスSHOWROOMなどすでに一定数の知名度を獲得しているものもあるが、CHIPSの特徴は女性同士のコミュニケーションに特化していることだ。

具体的にはファッションやコスメといったオシャレ情報、恋バナやコンプレックスといった女性同士の方が話しやすい情報など「女性のリアルな日常」を切り取ったライブを配信する。たとえば以下のような形で使われているという。

  • 配信者と視聴者が一緒になって1名の視聴者の恋愛相談に乗る、オンライン女子会
  • シーンに応じたカラコンの使い分けなどリアル女子トーク
  • 配信者が友達と出演するゆるゆるトーク
  • 美容院やネイルサロンからの配信(プロの美容師やネイリストによるQ&A)

CHIPSでは女性目線の独自規準のもと24時間体制の監視システムを構築し、女性が安心して使えるような環境を目指すという。機能面では今後ライブコマース機能も追加予定とのことだ。

CHIPSを運営するピックアップは、チャットフィクションアプリ「TELLER」も提供している。TELLERは9月の時点でダウンロード件数が30万件を突破。ユーザーの年齢層は13〜18歳のティーンが50.3%、19〜22歳が20%以上と若い年代から特に指示を集めている(数字は9月時点のもの)。

そういえば昨日LINE LIVEにおける個人配信者の利用傾向が公開されていたが、それを見ると男女比が男性:女性=37.4%:62.6 %、19歳までの配信者の割合が69.3%と若い女性の利用率が高いことがわかる。これはあくまでLINE LIVEだけの話ではあるけれど、ライブ配信アプリを積極的に活用する若い世代の女性に特化したサービスを作っていくというのは面白そうだ。

ちなみに親会社のDMMも先週9月28日にライブ配信アプリ「LIVEcommune(ライブコミューン)」をリリースしている。このあたりの関係性がどうなっていくのかも今後注目していきたいところだ。

画像認識リアルタイム百科事典Google Lensが今年の終わりごろPixelスマートフォンで実用化

Googleが、Google Assistantに接続する画像認識アプリLensを初めてデモしたのは、5月に行われたデベロッパーカンファレンスGoogle I/Oだった。当時それは、大いに人気を博したが、そのときの発表の多くがそうであったように、リリースの日程などは明らかにされず、“近く”(soon)という言葉だけがあった。それからほぼ5か月になる。

今日(米国時間10/4)のGoogleのハードウェアイベントでは、Lensの最初のプレビューが同社のPixelスマートフォンに今年の終わりごろ登場する、と発表された。あくまでも、プレビューだ。そしてそのほかのデバイスには、“随時”ということだ。

LensはGoogleのさまざまな機械学習サービスを利用している。画像認識の能力にGoogle Translateのリアルタイム翻訳と、Google Assistantを結びつける。たとえば花のスナップと撮ると、Lensが花の名前を教え、そのほかのことも教えてくれる。ランドマークや名所旧跡、それにレストランですら、情報を教える。

I/Oで拍手の音がたぶんいちばん大きかったのは、Wi-FiルーターのSSIDとパスワードを読んで、ユーザーのスマートフォンをそこに自動的に接続するLensの機能だった。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Rasa Coreはチャットボットのコンテキスト判断用機械学習モデルを人間参加の半自動で作る

会話を扱うコンピューターシステムにとっては、コンテキストがすべてだ。人間はそのことを意識しないけど、日常のとてもシンプルな会話でさえ、複雑なコンテキストの産物だ。会話システムが人間の能力になかなか追いつかないのも、コンテキストという難問があるためだ。しかしベルリンのRasaは、対話的な学習とオープンソースのコードを利用して、この会話するAIの問題を解決しようとしている。

そのRasa Coreというシステムのやり方は、多くのAIスタートアップと似ていて、Amazonの
Mechanical Turkのような人力サービスを利用して機械学習のモデルが持つ不正確さを修正する。ただしRasaが使うのはMechanical Turkではなく、誰でも参加できる方式で、開発中のボットと人が短い会話をし、それによりモデルを訓練しアップデートしていく。

人とボットが会話をする様子を、上の図で見ることができる。上図では「利息を比較する」にチェックが入っているが、それは、ユーザーが求めている確率がもっとも高いと思われるアクションだ。それを見た人間トレーナーは、正しい/正しくないで答える。その結果をモデルは学習し、次に同じ状況に直面したら、もうその質問をしない。

Rasaのチームによると、ボットが使い物になるまでに行う人間とのサンプル会話は、数十回で十分だ。しかし、もっとたくさんやれば精度は上がるし、ユーザーフレンドリーにもなるだろう。

“IBMがWatsonで作った会話モデルを見たけど、ちょっとがっかりした”、とRasaの顧客の大手保険会社Helveticaに勤務し、会話型AIのプロマネでもあるFlorian Nägeleは述べる。“決定木が一つだけで、コンテキストをほかの木に持っていけない”、と彼はWatsonについて言う。

Rasaのよいところは、訓練データなしで顧客が自力でモデルを作れることだ。理想的には誰もがサンプル会話の自分用の大きなコーパスを持っていて、それを使って会話システムを訓練することだが、技術スタッフのいない企業では、それも難しい。

Rasa Coreは、オープンソースとしてGitHub上にある。またRasa Coreと本誌が昨年12月に取り上げたRasa NLUには、企業向け有料バージョンもある。有料版には、アドミン用管理インタフェイスや、カスタマーサポート、テストの自動化、コラボレーションによるモデルの訓練、といったサービスが付随する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

スマートスピーカー「Google Home」「Google Home Mini」が日本にやってきた——明日10月6日より発売

すでに米国TechCrunchでも報じられているようにGoogleは米国時間10月4日、ハードウェアに関するイベントを開催。スマートスピーカー「Google Home」の小型版でAmazonのスマートスピーカー「Amazon Echo Dot」対抗製品とも言われる「Google Home Mini」などを発表している。

すでに日本でも発売準備中のようで、Googleの運営する「Google Store」上では、Google Home、Google Home Miniについて、発売案内のウェイティングリストへの登録が可能になっていたが、日本時間の10月5日、日本法人であるグーグル合同会社が新製品発表会を開催。日本での販売について、その詳細を明らかにした。

発表によると、Googleは10月6日より、Google HomeおよびGoogle Home Miniを日本で販売する。Google Homeは価格が1万4000円(税抜)、発売開始は10月6日10時から。Google Home Miniは価格が6000円、発売開始は23日から(購入予約は10月6日から)いずれもGoogle Storeのほか、auショップ、ビックカメラ、ヤマダ電機、楽天の店舗やサイトで販売する。TSUTAYAでのレンタルも開始するという。

TechCrunchでは米国で先行して提供されている実機についても紹介しているが、改めてご紹介するとGoogle Homeは会話型AIの「Googleアシスタント」を搭載。「OK Google」と話し、自然に会話するようにさまざまな情報を検索したり、サービスの操作が可能だ。例えば朝のニュース、職場への交通情報、許可したGoogleカレンダーのスケジュール確認、音楽再生などができる。Googleが提供するサービスだけではなく、連携する外部サービスや対応するテレビ、ライトといったスマート家電などのデバイスについても音声で操作することも可能だ。

すでにコンテンツとしてはSpotifyやNetflix、ラジコ(提供予定)、NHKラジオニュース、ラジオNIKKEIなど、スマートホームではau Home、大和ハウス、フィリップスHueなどと連携することが発表されている。そのほか、「Actoions on Google」と呼ぶ外部サービス連携機能を予定しており、Ameba、食べログ、楽天レシピなどのサービスが対応予定だという。またVoice Match機能を搭載し、最大で6人までの音声を認識。パーソナライズしてそれぞれの予定を確認する、といったことも可能だ。

本体スペック、パートナーリスト一覧

Google HomeおよびGoogle Home Miniのスペック、パートナーリストは以下の通り。

Google Home

  • サイズ : 直径 96.4mm、高さ 142.8mm
  • 電源ケーブル : 1.8m
  • 重量 : デバイス 477g / 電源アダプター 130g
  • 色 : 本体 ホワイト / ベース スレートファブリック
  • 対応オーディオ形式 : HE-AAC、LC-AAC+、MP3、Vorbis、WAV(LPCM)、FLAC
  • マイク : 高感度音声認識対応
  • 電源 : 16.5V、2Aが必要(アダプター同梱)
  • ポートおよびコネクタ : DC電源ジャック、マイクロUSBポート(保守用)
  • 対応オペレーティング・システム : Android 4.2以降 / iOS 9.1以降
  • 同梱品 : Google Home、電源アダプター、クイックスタートガイド

Google Home Mini

  • サイズ : 直径 98mm、高さ 42mm
  • 電源ケーブル : 1.5m
  • 重量 : デバイス 173g / 電源アダプター 75g
  • 色 : チョーク、チャコール、コーラル
  • 対応オーディオ形式 : HE-AAC、LC-AAC+、MP3、Vorbis、WAV(LPCM)、FLAC
  • マイク : 高感度音声認識対応
  • 電源 : 5V、1.8A
  • ポートおよびコネクタ : マイクロUSBポート(電源用)
  • 対応オペレーティング・システム : Android 4.2以降 / iOS 9.1以降
  • 同梱品 : Google Home Mini、電源アダプター、クイックスタートガイド

Google Home / Google Home Miniを購入できる店舗、オンラインサイト

  • Google Store
  • ビックカメラ
  • ヤマダ電機
  • KDDI / 沖縄セルラー
  • CCCAIR(TSUTAYAの一部店舗で10月6日より税抜800円でレンタル開始、11月1日より販売)
  • 楽天

音楽や動画コンテンツ

  • うたパス・ビデオパス ※11月下旬以降の開始を予定
  • Google Play Music
  • Spotify
  • Netflix
  • ラジコ ※年内に提供開始予定
  • YouTube

ニュースや情報

  • 朝日新聞アルキキ
  • NHKラジオニュース
  • 公式ITニュース
  • J-WAVE TOKIO HOT 100
  • スポニチ
  • TBSラジオ
  • 日経電子版NEWS
  • ニッポン放送
  • 毎日新聞
  • ラジオクラウド
  • ラジオNIKKEI

Google Home / Google Home Miniを活用したスマートホーム

  • au HOME ※11月下旬以降の開始を予定
  • インテリジェントホーム ※年内に提供開始予定
  • ダイワハウス ※年内に提供開始予定
  • フィリップス Hue
  • Roomba ※年内に提供開始予定

Actoions on Google 対応予定のサービス

  • Ameba
  • SUUMO
  • 食べログ
  • トクバイ
  • なみある?
  • 日本史語呂合わせ、絶対音感オーケストラ
  • ベストティーチャー
  • ホットペッパーグルメ
  • Yahoo! MAP
  • 楽天レシピ

なおTechCrunchが11月16〜17日に開催するイベント「TechCrunch Tokyo 2017」には、このGoogle Homeに搭載される会話型AI、Google アシスタントのプロダクトマネージャーを務めるブラッド・エイブラムス(Brad Abrams)氏の登壇も決定している。Google Homeのこれからについて聞きたい読者はこちらもチェックして欲しい。

TechCrunch Tokyo 2017の学割チケットを100枚追加しました

TechCrunch Japanは、スタートアップイベント「TechCrunch Tokyo 2017」を11月16日、17日に渋谷ヒカリエで開催する予定だ。TechCrunch Tokyoは、国内外のスピーカーによるキーノートセッションや、創業3年未満の企業のピッチコンテスト「スタートアップバトル」などの企画を用意し、東京のスタートアップの現在が分かるイベントとなっている。

TechCrunch Tokyoでは学生にもスタートアップとはそもそもなんなのか、どのように社会に影響を与えているのかを肌で感じてほしいと思い、学割チケットを用意している。一般チケット4万円(前売りチケット3万円)のところ、学割チケットは5000円だ。当初100枚限定で販売していたが、好評につき今回新たに100枚を追加販売することに決定した。ぜひこの機会に参加を検討してほしい。

これ以降の追加販売は予定していないので、関心がある学生はお早めに購入いただければと思う。

※学生チケットお買い求めの方は、当日受付にて学生証の提示が必要です。

チケット購入はこちらから

GoogleはPixelのヘッドフォーンジャックをなくしてベゼルのないスマートフォンに接近

ヘッドフォーンジャックの消滅は、まるでドミノ倒しのように各企業に伝染している。今日(米国時間10/4)倒れたGoogleドミノは、同社のスマートフォンからあの、かつてはどこにでもあったポートをなくしたが、それは今となっては勇気や度胸とは無縁の決断だった。ジャックを取り去る動機は、最近のモバイルの動向を見れば明らかだ。そしてPixelも、近いうちに、エッジツーエッジ(ベゼルレス)のディスプレイに移行したいのだ。

GoogleのプロダクトチーフMario Queirozは今日(米国時間10/4)のイベントのあとで本誌にこう語った: “ジャックを消した主な理由は、今後のメカのデザインに備えるためだ。ディスプレイをできるだけエッジに近づけたい。それをやるなら、早い方がいい、というのがチームの意見だ。昨年はまだ早すぎたかもしれないが、今年はすでに、市場にいくつも登場している”。

Queirozによると、今回、AppleのAirPodと競合するPixel Budsを出したのも、もちろん同じ動機からだ。同社はジャックを外して市場への開口部を作り、Assistant〔マイク/スピーカ内蔵〕をもっと身近にするハードウェアにも近づいている。そして一方では、TranslatorがDouglas AdamsのBabelfishの実世界バージョン〔SFではないバージョン〕に変わる。

ベゼルの避けられない死が迫っていることは、同社が大型のPixel XLでP-OLEDを採用したことにも表れている。プロダクトマネージャー相当VP Brian Rakowskiはこう語る: “たしかにまだ新しい技術だけど、スクリーンがサイドまで回りこむ設計にはぜひ挑戦したい。それでいてしかも、手に持ちやすくて、ディスプレイそのものを握る必要はない。ユーザーに接近感を与えるデザインになり、背板がなくなることによって、カーブがもっとまるくなる”。

今回のPixelを見るかぎり、Googleがまだそこまで行ってないことは明らかだが、なぜそれでは、AppleやSamsung、LGなどの後(あと)をすぐに追わないのか? それは、前面スピーカーがスクリーンの側面にある、という設計のせいでもある。

Queirozによると、ユーザーにスマートフォンを持つための場所(どこを持つのか)を与える、という意味合いもある。“ディスプレイを握っている、という感じにはしたくなかった。そのために、かなり苦労した”、と彼は説明する。そしてHTC U11のActive Edge機能〔エッジがタッチインタフェイスになる〕からヒントを得たPixel 2は、人間が手で握る場所を増やすことにも、貢献しているのだ。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Pixel 2、カメラランキングでiPhone 8 PlusとGalaxy 8から王座を奪取

いや、早かった! カメラテストグループのDxOMarkに「これまでテストした中で最高のスマートフォンカメラ」と評された iPhone 8 Plusの天下は短かった 。Galaxy Note 8がわずか数週間後に同点に追いつき、今度はGoogleのPixel 2が両者を打ち負かした

完璧なビデオ性能、最高のカラーとシーンの再現性、驚くべき速さと精度のオートフォーカス、そして素晴らしいとまではいかなくても良くできた人工的な背景ボケで、Pixel 2は総合スコア98を上げて、94だった2機を抜いた。

さて、DxOMarkの人たちはエキスパートであり、私は彼らの評価を信頼している。Pixel 2が驚くべきカメラであることに疑いはない。しかし、デジタル一眼レフやゲーム、映画などの総合スコアと同じく、この大きい数字は全体の一部しか表していない(ほかの大きい数字とごく近い場合はなおのこと)。

Pixel 2はこのように部分拡大した画像ではiPhone 8 Plusを少しリードしている。

各社のフラグシップ機で撮影した写真を見比べていくと、好みは様々にわかれる。私はAppleのポートレートモードはほかより断然いいと感じているし、難しい場面での色度ノイズも気に入っている。しかし、Pixel 2のカラー再現性はすばらしい(OLED画面で見た写真も)。そして、やはりNote 8のズーム機能は優れている。

どんな写真を撮るか? フォトグラファーとして求めるものは何か? ズームは重要か、それとも超広角レンズが必要なのか? フラッシュはよく使うか? HDRモードを活用するつもりはあるか? もしあなたにとってスマートフォンがメインカメラになるのであれば、ストレージや画面解像度や色と同じくらい、カメラの質と弱点に気を配る価値がある。

そして最後に言っておきたいこと。カメラはこれからも良くなる一方だ。上記の結果を今のミラーレス一眼と比べると、(フラグシップ携帯よりずっと安いレンズを付けたとしても)まだまだ力不足だということがわかるだろう。改善の余地はまだいくらでもある。そしてDxOMarkが言っているように、スコアが100を超えてはいけない理由などない。

[原文へ]

(翻訳:Nob Takahashi / facebook

XMOSのマイクロフォン配列技術でAlexaをどんなデバイスにも、リビングの壁にも、実装できる

音声でコマンドを入力するサービスシステムAmazon Alexaは、その専用実装デバイス(Amazon Echoなど)が、ユーザーの声をはっきり聞き取れる位置、たとえばコーヒーテーブルの上やカウチのそばなどにないといけない。テレビの近くにあったりすると、アニメのキャラクターが “Alexa!”と言っただけで、おかしなものがAmazonに注文されたりする。

ノイズを無視して、ご主人である人間の声だけを聞き分ける高度な技術が必要だが、それは意外と難しい。

でも、今やイギリスの企業が、世界で初めてそんな技術を作り出し、Amazon Alexaの音声サービスに導入しようとしている。

1か月前にInfineonがリードするラウンドで1500万ドルを調達したイギリスのチップメーカーXMOSは、ヨーロッパで初めて、Amazonが公式に認定したAlexa Voice Service(AVS)開発キットを近くリリースする。同社は世界初の、AVS認定“遠方界線形マイクロフォン配列”(far-field linear mic array)”のメーカーでもある。

この技術は、車で使われるレーダーとマイクロフォンを組み合わせている。そうするとEchoのようなAlexa専用のデバイスは要らなくなり、スピーカーとのセットを壁に埋め込んだり、ほかの製品のキットに組み込んだりできる。つまりAlexaが、専用機でなく、何かほかのものに統合される。

社員50名のXMOSは、AVS認定企業としては最小で、競合他社のSynapticsは時価総額12億7000ドルで1800名の社員がいるし、57億ドルのMicrosemiは4400名、32億8000万ドルのCirrus Logicは社員数1100名だ。

さまざまな競合ソリューションがある中で、XMOSはAlexaをサポートする初の遠方界線形配列を提供し、Alexaの機能を生活の背景の中へ溶融してしまう。

この線形配列によってAlexaは初めて、他の多くの家電製品と同様、壁に接するフラットパネルにもなる。

そして未来の音声サービスは、どんなデバイスにも搭載できる、存在を意識しない目立たないものになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

「ユーザーと近い世代の方がいいものを作れる」東大発・Flattがライブコマースアプリ「PinQul」公開

「参入企業は増えてきているものの、ライブコマースに特化してやっているところはまだ多くない。僕たちはライブコマースのプラットフォームを作っていきたい」——そう話すのは、現役東大生が中心となって起業したFlatt代表取締役CEOの井手康貴氏と、COOの豊田恵二郎氏だ。同社は10月5日、ファッションアイテムを対象としたライブコマースアプリ「PinQul」をリリースした。

“ライブ配信”を通じた新たな購買体験として注目を集める、ライブコマース。2017年に入ってから日本でも次々と立ち上がり、Techcrunchでもほぼ毎月ライブコマースに関連するニュースを紹介してきた。

直近ではGUが参入したり、俳優の山田孝之氏がライブコマース事業を手がける会社を立ち上げたりと大きな動きもあったものの、まだサービスが本格化するには至っていない。メルカリやBASEの参入も注目を集めたが、あくまでメインサービスの販売チャネルの1つという印象が強く、現時点では圧倒的なサービスがあるわけではない。

今回Flattはアプリのリリースに合わせて、第三者割当増資による資金調達を行ったことを明かしている。引受先はフリークアウト・ホールディングス代表取締役社長の佐藤裕介氏、ペロリ元代表取締役の中川綾太郎氏を含む複数名の個人投資家。金額は数百万規模だという。

Flattにとって外部からの資金調達は今回が初めてで、これを機にライブコマースプラットフォームを拡大する方針だ。

本当に気に入ったものだけを紹介する、ライブコマースアプリ

PinQulは女子高生や女子大生など若い女性をターゲットに、インフルエンサーがお気に入りのファッションアイテムを紹介するライブコマースアプリだ。

誰でも自由に配信できるC2C型ではなく、PinQulの運営によって選ばれたインフルエンサーが配信を行う。方向性としてはCandeeのLive Shop!に少し近いが「番組の作り方が異なる」という。

「(Live Shop!は)コンテンツが重視されていて、1時間前後のテレビ番組を見ているような感覚。しっかりとした企画があって、その一部で商品が紹介される。PinQulではよりコマース軸に振り切って、その時に売りたい服を20~30分で紹介するというものが多い。基本的には商品の紹介とそれに対するコミュニケーションで成り立っている」(豊田氏)

PinQulで取り扱う商材は「配信者の所有するアイテム(フリマ形式)」「既存のブランド品」「インフルエンサー自信がデザインしたアイテム」の大きく3つ。敷居を低くする意味でも最初はフリマ形式をメインにするが、徐々に残りの2つを増やすようにシフトしていくそうだ。

ブランド品については「merry jenny」「EMODA」などを展開するMARK STYLER傘下のブランドの取り扱いがすでに決定済み。今後も取り扱い商品を拡大しながら、従来のECよりも店舗に近い形での購入体験や、ファッションショーの生配信とコマースの掛け合わせなど新たな取り組みを検討する。

また既存の製品だけでなく、Flattが提携するODMメーカーと組んでインフルエンサー自身がデザインした商品を販売できるような仕組みも整える。この背景には既存のインフルエンサーマーケティングに対する課題感があるという。

「(インフルエンサーマーケティングの中には)ある意味『信用を切り売り』しているような事例も多い。ブランドから言われた商品を自分のSNSで紹介しても、今のユーザーはそういう動きには敏感で反応が薄かったり、コメント欄が荒れたりするなど評判が良くない。PinQulではあくまで自分の気に入ったものを紹介してマネタイズできる仕組みを目指していて、その究極が自分で作ったアイテムを売ることだと考えている」(井手氏)

「ユーザーと同世代」という強みを活かす

Flattの設立は2017年5月。エンジニアとしてFiNCやメルカリに在籍していた代表の井手氏を始め、東大生を中心にPinQulのユーザーと同年代の若いメンバーが集まる。

PinQulの構想は井手氏がメンバーの1人と中国を訪れた際に、ライブコマースが実際に流行していることを体感したことから。セキュリティ分野のサービスと迷ったそうだが、市場の盛り上がりやメルカリに関わったことでコンシューマー向けのサービスに興味を持ったこと、そしてユーザーと同年代であることもありこの領域を選んだ。

確かに若い世代のインフルエンサーに対する熱心度や、既存のインフルエンサーマーケティングに対する反応は同年代だからこそより実感できる部分はありそうだ。実際サービス設計の面ではもちろん、配信者となるインフルエンサーを開拓する際も、自分たちのまわりにターゲット層の女性が多いことはすごく大きいという。

たとえばインフルエンサーについては、同世代の女性がフォローしている「マイクロインフルエンサー」を見つけ、自分たちからアプローチをしているそう。事務所に所属していなかったり、一般的な知名度はなくても影響力を持つ女性を集めコミュニティを作っているという。

PinQulの正式なリリースは本日だが、1ヶ月程前からベータ版を運用。10個の商品が0.3秒で売り切れる(正確にはカートに追加され、その後全商品が決済された)こともあり、規模はまだ小さいがニーズは感じているそうだ。

これから他のサービスが参入することも十分考えられる領域なだけに、PinQulがどこまでプラットフォームを拡大できるのか、今後に注目だ。

GoogleのAirPods対抗イヤホンはリアルタイム翻訳もこなす

今日行われたGoogleのハードウェアイベントで驚かされたものの一つが、BluetoothイヤホンのPixel Budsだ。首の後ろでワイヤーが繋がってはいるが、あらゆる意味でApple AirPodsのライバルだ。

価格は159ドルで、11月に発売される。そして、このイヤホンは40か国語を理解する。本当に。

ステージ上のデモで、聴衆の誰もが度肝を抜かれたのがリアルタイム翻訳機能だった。壇上の会話が英語からスウェーデン語へと滞りなく翻訳される。話者が話し終えてから1~2秒後に翻訳が始まる。発表者はこれを「まるで専任の通訳が横にいるようだ」と得意げに語った。ただし、この機能を利用するためにはPiexel 2が必要だ。

デモの後、Pixel Budsチームの一人と立ち話をしたところ、先ほどのデモは完全にインターネット経由のみで実行されたもので、端末には言語データをダウンロードしていない、と言っていた。

右のイヤホンをタッチ&ホールドするだけで、Pixel Budsが始動する。ほかにも音楽のポーズやアシスタントの呼び出しなどにタッチコントロールを使用する。お楽しみはAndroidユーザーだけのもので、iPhoneを使いこなしている人にとっては、Pixel Budsはただのイヤホンだ。

Pixel Budsには充電ケースが付属していて、5時間使うごとに充電して合計24時間使用できる。カラーはPixel 2と同じホワイト、ブラック、ブルーの3色。

実際に触ってみた「ハンズオン」デモの様子を下のビデオでご覧あれ。

[原文へ]

(翻訳:Nob Takahashi / facebook

新たなる展望:オンラインの専門家たちがGoogle Homeと音声検索を語る

本日(現地時間 10/4)サンフランシスコで行われたGoogleの秋の発表イベントにて、新型Pixel2の発表に合わせてGoogle Homeの小型版「Google Home Mini」、そして大型版の「Google Home Max」が発表されました。また、日本でのGoogle Homeの発売が正式にアナウンスされ、今週末発売とリリースされました。

そこでSEO Japanでは、今ホットなスマートスピーカーの日本上陸に先駆け、主要機能の一つである「音声検索」について、海外のオンラインの専門家たちが熱く語る記事をご紹介したいと思います。
今後数年で、私たちの生活になくてはならない存在になるかもしれない「音声検索」。
業界を牽引する世界の第一人者たちの見解を、ぜひチェックしてください。

— SEO Japan

Google Assistantへの質問を可能にした音声主導スマートスピーカーGoogle Homeは、2016年の11月に米国市場に登場している。国際的にこのデバイスが入手可能になっているという背景を受けて、我々は何人かの専門家にGoogle Homeに関してのこれまでの彼らが使用した体験と、この存在が音声検索の未来に対して何を意味するのかを尋ねる機会をいただいた。

Google-Home-Survey-Blog

Google Homeの国際的なロールアウトについて述べるために、我々は専門家に対してこのデバイスが検索行動、検索結果、検索順位、パフォーマンスをどのように変えるのかについての意見を尋ねた。特に、昨年Google Homeの数か月前にローンチしたAmazon Echoや、2017年の12月に参入してくる(?)アップルのHomePodなどのスマートスピーカーや音声入力のアシスタントシステムと比べて何が違うのかについて聞いた。
専門家たちの意見を集めるのに加え、スマートスピーカー戦争がマーケターに与え始めた機会と挑戦を見据えて、我々はGoogle Homeについて独自の調査を行った。

別記事:スマートスピーカー戦争について(英語)

Google Homeは現在Google Store(米)で$109で購入可能だ。

ok-google-768x447
このページでは、デバイスの機能概要とさらなる情報を提供する。

OK Google- 未来は何が起きる?

我々の調査では、次のことを聞いた。
・デスクトップファーストからモバイルファーストへ、そして音声ファーストとなるのか?そして、音声検索の発展はGoogleとオンライン検索の発展にとってどれだけ重要なことなのか?
・ガジェットスマートサーチ?スマートスピーカーの検索結果の経験はあるか?
・Google Homeは現在世界中で入手可能だが、あなたはアーリーアダプター?それともまだ懐疑的?
以下が専門家たちの意見

音声検索、Google Homeについての専門家の意見

バリー・シュワルツ氏
Search Engine Roundtable 創始者
barry-schwartz-150-150

音声検索は、いま現在本当にエキサイティングな領域の一つだ。モバイル検索初期の頃を思い出すよ。今モバイル検索はデスクトップ検索よりも多くの割合を占めているし、音声検索が伸びていく様を見るのはきっと楽しいだろうね。音声検索はポジション0(強調スニペット)にフォーカスするSEOの重要性を増やす。この絶え間なく変わる展望には注目した方が良いね。

ルーカス・ゼレズニー氏
SEO and Social Media キーノートスピーカー
LZ11-150-150
2000年以降に生まれた若い世代にとっては、これはとても有用なものとなるね。私個人に関していうと、あまり音声検索は使わないけど。その代わり急いでいるときには、テキストから音声変換をする機能は使うよ。でも、概して言うと私は自分の音声で検索することはあまり好まないね。私はAmazon Alexaを持っていて、何度か「Hey Alexa、彼氏いる?」や「クリスマスソングをかけて」などとと聞いて遊んだことはあるよ。それ以外でいうと、胡散臭い検索結果を返すくらいしか有用性を見つけられなかったね。

結局、年がら年中自分の言葉をすべて盗聴されているような気分になって、使うのをやめて電源を切っちゃったね。概していうと、単純に必要がないからこそ私は音声検索には懐疑的だね。Google Glassが僕にとっては必要なかったようにね。

バルトシュ・ゴラレウィシュ氏
Goralewicz SEO Agency 共同創始者、CEO
goralewicz-150-150
まずモバイル、デスクトップ、音声検索がそれぞれ別の役割を検索において担っていることを区別しなければならない。それぞれに長所、短所がある。これらの内の1つ(もしくは複数)をなぜ、そしていつ選択するのかを区別することは重要だ。私の見解としては、出身国や年齢に応じて人々は音声(検索)を別の用途で使っていると考えている。また音声検索はすでに重要だが、この新しい検索チャネルの特異性にライトを当てるのには、まだ十分なデータがないのだ。

現在Google Homeはガジェットに限定的されて考えられているが、遊ぶときはとても優れていて本当に機能的だということに驚いているよ。私は個人的にGoogle Homeは保有していないし、直近では購入する予定はない(なぜなら携帯電話で同じことができてしまうからね)一方で、モバイル端末では音声検索やGoogle Assistantはよく使うよ。

Googleの僕の質問に対する回答を聞くたびに、Googleがこの領域にこれだけ投資をしてきたことを尊敬する。私はいずれ音声検索は成長しさらに重要になると信じているが、現状ではどのように発展していくかを見守ることに専念していて、音声検索がすぐに本当のゲームチェンジャーになるとは思っていない。

ジョーダン・コエーヌ氏
Searchmetrics チーフエヴァンジェリスト
Jordan-Koene-150-150
私はGoogle Home とAmazonのEcho群の機器を試してきた。音声検索を搭載したスマートスピーカーにとってまだ初期の段階だとしても、全てのマーケターはこの領域に注目しなければならない。音声検索はニッチなカテゴリーを脱し、大きく広い領域になるだろう。
もちろん、時間はかかるー音楽をかけるよりも検索で使われるようになるためには少なくともあとは5年かかると、私は見ている。しかし全てのビッグプレイヤー、Apple、Google、Amazonであろうと音声検索を一つの注力カテゴリーとして取り組むこと示している。また彼らの人工知能に対する投資投資から、検索が自然言語処理の中で変化しており、マーケターはオンラインのユーザーのニーズに応えることに対して、非常にローカルで非常に集中的であることを強いられるであろう、ということが読み取れる。
とは言うものの、これらのいずれもが排他的ではない。デスクトップ、モバイル、スマートスピーカー、そしておそらく我々がまだ考えていないことの半分がマーケターにとって持っていなければならない戦略になるだろう。これはコンテンツを発展させられるプラットフォームと、たくさんの種類のコンテンツの種類を作り更新できる人員が必要であるということを意味する。

ジェイソン・バーナード氏
Freelance Search Marketing コンサルタント
jason-barnard-150-150
長期的に見れば、「音声ファースト」は「モバイルファースト」よりもゲームチェンジャーになるだろう。しかし、短期的に夢中にならないことが重要だ。モバイルのように一日にして成るような劇的なシフトではない。「音声検索」は数年をかけて成長し、我々に「広い戦略(=strategy)」を適応させる時間を与えてくれる。私がここで「strategy」と言ったことに注目してほしい。伝統的に、SEOは「狭い戦略(=tactics)」についてであった。ブラックハットはこれの極端な例だ。(私は興味がないが)
簡単な戦略(ホワイト、ブラックハットなど)は衰弱しており、もうまもなく消えるだろう。少々のリンクページ内に貼ったから、良いメタタイトルや素敵なページタイトルをつけたから、少々SNS上で活動を行ったから、というだけではもはや上位表示をさせることはできないだろう。
「音声ファースト」は、機械によるディープラーニングとソリューション提供者(あなた)による根強い戦略に必ず基づいていなければならない。どんなオンラインマーケターでも正しく理解しなければならない最も重要な側面は、文脈と信用だ。簡単に口にできる二つの小さな単語だが、構築するのはとても、とても難しい。いくつかの関連リンク、魅力的なメタタイトル、そしてページの関連タイトルは最低限の必要条件だ。ブランドの文脈と信用を築くことによって、競合よりリードすることができる。
とはいっても、「SEOの死」の悲しみは未成熟だ。ポジションゼロはこれからさらに重要になるだろう。「音声ファースト」は未来だが、我々はまだ現在を生きている。未来においてのみ機能し、現在は過ぎ去ってしまうだろう:)
私のアドバイスは、
短期的には、
・今日の(知的な)SEO戦略を続ける
中期的には、
・100%モバイルフレンドリー
・Google、Bingへ構造化情報(Schema.org/HTML5)の提供をしならなければならない。
長期的には、
・自然にこれらの機械が簡単に消化できるような言語で書く(Schema.org/HTML5)
・ブランドや商品のために文脈を提供する
・これらの賢い機械に対してブランドの信用を築き、あなたのブランドがそれぞれの種類、クエリの文脈において「市場で最高」であることを証明する
というものだ。
要約すると、「デスクトップファースト」「モバイルファースト」「音声ファースト」はお互いに排他的ではない。「音声ファースト」は未来の中で大きな部分を占めることになるが、デスクトップやモバイルと共存するであろう。

ジョー・ターンブル氏
Search London オーガナイザー & SEOブロガー
seo-jo-150-150
デスクトップPCを持っていない人や、モバイルデバイスを今まで通りの使い方をできない人にリーチできるので、音声検索はオンライン検索の発展にとってとても重要になるでしょうね。キーボードでのタイピングができない人など(モバイルとデスクトップともに)などがその例。これらの人たちも検索をしてオンラインの世界を探索したいと思っています。音声検索はデスクトップやモバイルがやってきたように、他とつながる手段を彼らに提供するでしょう。
でも私は個人的には音声検索をそこまで使ってないわ。これからもっと実験をしていきたいとは思うけど。これまでは少し懐疑的だったけど、音声主導のデバイスのコンセプトは大好きね。理想的には、Google Assistantに家を掃除して、晩御飯を調理してくれて、つらいオフィスでの一日のあとに「おかえりなさい」と言ってほしいわ。もしかしたら未来ではやってくれるのかもしれないけど、あと数年は必要でしょうね。

ジョシュア・パンター氏
atom42 SEO スペシャリスト
joshua-panther-150-150
音声検索は盛り上がっているが、しかしながら屋外での利用や、公共の場で自身のデバイスに話かけても快適に感じるようになるには、まだ障害がある。正しく機能すれば音声検索にはさらなる利便性があり、検索結果に会話的な性質がある部分では音声検索によってもたらされる検索の数は増えるだろう。
この重要性から、Googleは音声検索をユーザージャーニーのより多くの部分で登場するための機会として見ていると思う。より世の中に受け入れられると、Googleにさらなる情報や検索行動とユーザーニーズのインサイトが与えられ、ユーザーとGoogleの間にはほぼシームレスな関係性が構築されるだろう。
私はスマホでは、すでに熱心なGoogle Assistantユーザーで、リマインダー、タイマー、情報取得などで使っているが、Google Homeはまだ購入していない。だから懐疑派とアーリーアダプターの間で揺れているね。
Google Assistantはとても有用だと思うが、ほぼ同じことをしてくれるモバイル端末があるので、部屋の中の固定デバイスにそこまで夢中ではないね。


この記事は、Searchmetricsに掲載された「New Horizons: Online Experts Weigh in On Google Home and Voice Search」を翻訳した内容です。


 

いかがでしたでしょうか?筆者自身もSEO業界に身を置くものとして、「音声検索」は考えなければならない領域であると思っています。
しかしながら今の戦略をすべて白紙にして、ポジション0(=強調スニペット)を目指すというのもいささか疑問があります。
バーナード氏が述べられたように、「短期」「中期」「長期」とフェーズ毎に分けて戦略を分けて考え、音声検索の動向をチェックし続けることが最善の手立てなのかもしれません。
— SEO Japan

Google Clipsはウェラブルなスマートカメラ――予想外の新製品に驚きの声

今日(米国時間10/4)のハードウェア・イベンドでGooglekは誰も予想していなかった新製品を発表した。これはClipsと呼ばれる小型カメラだが、普通の意味でのカメラではない。何を写すかは基本的にClips側が決める。ユーザーが普通のカメラやスマートフォンを取り出す前に何かが起きてしまうことはよくある。Clipsはそういうときにユーザーに代わって価値ある瞬間の記録を残すことを手助けするのだという。

またClipsはMotion Photosと呼ばれる映像を記録する。これはGoogleが開発した新しいフォーマットで、ある瞬間だけでなくその前後の動きも記録される。AppleのLive Photosに似ているが、Motion Photosでは音声は記録されない。しかしカメラ内にスマート認識機能を備えている。またネットワーク接続は一切必用とせずスタンドアローンですべての機能が実行できる。つまり撮った写真をいつの間にかネットに拡散してしまうといった事態を防げる。撮影された内容を見るにはスマートフォンなどに接続する。

このカメラはしばらく前から市場に出ているNarrative Clipのようなライフログ・カメラに似ているが、ひとひねり加えられている。Google Clipsは機械学習を利用し、ユーザー、家族、友人、ペットなど特定の対象を認識して重要な場面を記録する。つまり子供やペットがおもいがけずかわいらしい仕草をしたのを見逃さないわけだ。Clipsにはその名のとおりクリップが付属していて、なんであれこのクリップで挟めるものに取り付けることができる〔CMビデオでは小麦粉の袋に挟んでいる〕。

Clipsには16GBのメモリーが内蔵されており、1回の充電で3時間分のMotion Photosが記録できる。またレンズが何かの影になってしまった場合は人工知能が事態を認識してスマートフォンにそのことを通知してくる。カメラの画角は130度と広く、Gorilla Glass 3ガラスで保護されている。USB-Cポート、Wi-Fi Direct、Bluetooth LEで外部と接続可能だ。毎秒15フレームで撮影するが、自動的に対象に焦点が合ってブレの少ない鮮明なショットを選択する。

価格は249ドルが予定されている。Googleはなぜか撮像素子のピクセル数などのスペックを明かしていない。

さらに取材中…

〔日本版〕Googleのアメリカ・サイトでは紹介されているものの、出荷スケジュールなどは不明。日本のGoogleストアにはまだ記載がない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

新しいGoogle Home Mini、日本でも発売へ――小型スマートスピーカーはAmazon Echo DotのGoogle版

予想どおり Googleは今日(米国時間10/4)のイベントでGoogle Homeスマートスピーカーの小型版を登場させた。Google Home Miniはホッケーのパックを小型にしたような円筒形で価格は50ドルだ。このサイズと価格ではもちろん高度な音質までは期待できないが、500グラムに満たない小型軽量のボディーにもかかわらずGoogle Assistantの機能をフルに利用することができる。しかもユーザーのフトコロも痛めない。

Miniは今日から予約受け付けを開始し、10月19日から出荷される。

新しい Google Home Miniのカラーバリエーションは3色(レッド、チョーク、ブラック=トップ画像)だ。この小型版は通常サイズのGoogle Homeのようなタッチセンサーを上面に備えておらず、いくつかのランプとマイクのスイッチがあるだけだ(プラス電源用のmicro-USBプラグを備える)。

  1. screen-shot-2017-10-04-at-9-25-35-am.png

  2. screen-shot-2017-10-04-at-6-27-15-pm.png

  3. screen-shot-2017-10-04-at-6-26-26-pm.png

  4. screen-shot-2017-10-04-at-6-26-25-pm.png

  5. screen-shot-2017-10-04-at-9-25-42-am.png

Googleによれば、このデバイスは小さいものの、音質は十分に優れており、Chromecast対応のスピーカーに接続することもできるという。

ほぼ同価格のAmazon Echo Dotが大成功したことを考えると、Googleがこのカテゴリーに熱心になるのはうなづける。現行のレギュラーサイズのGoogle Homeは129ドルで昨年発売されたが、最近は100ドル以下のセールで販売されることもある。

Miniのもうひとつの特徴は上部がファブリックであることで、このデザインはリビングに(あるいは家庭の他の部屋に)マッチすることを考えたものだという。

Googleのハードウェア担当上級副社長、Rick Osterlohが今日のキーノートで認めたところによれば、ことハードウェア製品ではGoogleは常にトップを切っていたわけではない。しかしGoogleは常にベストのソフトウェアをユーザーに提供する。Google Homeはこのソフトウェアのおかげで誰でも簡単に音声で操作できるという。

Googleのホーム・ハードウェアの主席デザイナー、Isabelle Olssonは「リビングではたくさんのランプがちかちか瞬くような威圧的な機器は好まれない」と語った。「私たちはこのデバイスが置かれる環境を念頭にデザインした」と語り、Miniのようなデバイスではサイズや用いられる素材がデザイン上重要になることを強調した。

〔日本版〕GoogleのサイトによればGoogle Home/HomeMiniは日本でもすぐに発売されるという。日本のGoogleストアのページでウェイティングリストへの登録受け付け中。日本で注文可能になった時点でGoogleから通知メールが来る。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google、Pixel 2 XLを発表――カメラはベンチマークで最高評価

先ほど(米国時間10/4)、Googleは新しいスマートフォン、Pixel 2 XLを発表した。 これまでわれわれが報じてきたリーク情報はきわめて正確だった。ディスプレイは大型でフロントベゼルの幅を最小限に抑えたボディーは新設計だ。裏側は上下に分かれ、上部はガラス製で下部はアルミ合金となっている。

現行モデルに比べてフロント側は大きく改良された。注目の的であるディスプレイは対角線が6.0インチ、pOLED(プラスチック有機発光ダイオード)、解像度は2880×1440(538ppi)、アスペクト比18:9で豊富な階調で色彩表現ができる。表面にはGorilla Glass 5が用いられる。これはコーニング社のスマートフォン用保護ガラスとして現在最強のプロダクトだという。ディスプレイは常時オンにしておくことが可能で、時刻や通知がリアルタイムで表示される。

リーク情報のとおり、Pixel XL 2ではヘッドフォンジャックが廃止された(ただしUSB-C/ヘッドフォンジャックの変換アダプターが同梱される)。ストレージは64GBと128GBを選べる。Pixel2 XLには噂どおり「ボディースクイーズ機能」が搭載された。これはユーザーがボディーに左右から圧力を加えるだけでGoogle Assistantが起動するというものだ。正面向きにステレオスピーカーが備えられる。

フロントカメラは8MP、リアのメインカメラは12MPで明るさは f/1.8。カメラのハードウェアそのものは現行製品と変わらないが、ソフトウェアが改良されている。また電子的手ぶれ補正機能が加わった。これは写真、動画の双方で有効だ。Googleはカメラ専門のベンチマーク、DxOMarkで現在最高点となる98点をマークした。これは iPhone 8/8 Plus、Samsung Note 8のカメラを上回る成績だ。

カメラにはiPhoneとほぼ同様のポートレートモードがあり背景をぼかすことができる。ただし近い距離でのポートレートについては単一レンズから十分な情報を得るために2つのセンサーを用いている。Pixel 2はiPhone 8とは異なりフロント、リアともカメラは単一レンズだ。Googleによれば即座にポートレートモードで撮影ができるという(iPhoneの場合は人物と距離を認識するために数秒必要)。

Pixel 2 Xの販売価格は849ドルからとなる。オーストラリア、カナダ、ドイツ、インド、アメリカでは今日から予約注文を受け付ける。予約の場合、期間限定でGoogle Home Miniがボーナスに付属するという。

さらに取材中…

[原文へ]

(翻訳:滑川海彦@Facebook Google+

サーバーレスで複雑なコンテナアプリケーションを開発デプロイできるPlatform9のFission Workflowsサービス

企業ITのクラウド化をいろんな面からサポートするPlatform9の新製品Fission Workflowsには、あなたのお好きなバズワードがすべて揃っている。Kubernetes、Dockerのコンテナ、そしてサーバーレスコンピューティング。しかもそれは、これらの技術の、必然的な次のステップのようだ。

Platform9のプロダクトとしてのFission自体は、コンテナオーケストレーションサービスKubernetesの上で動くオープンソースのサーバーレスコンピューティングプラットホームだ。サーバーレスアプリケーションは、その初期のころはもっぱら、何かのイベント(“ファイルがアップロードされた”など)にトリガされる小さなファンクションを作ることだった。しかしFission Workflowsの提供意図は、もっと複雑なサーバーレスアプリケーションの開発を支援することだ。

Workflowsは、サーバーレスのファンクション〔複数形〕のオーケストレーションを助ける。サーバーレスアプリケーションが複雑になればなるほど、使用するファンクションも多くなり、それらお互いに依存関係のあるファンクションの管理やアップデートが難しくなる。同時にまた、アプリケーションのモニタリングやトラブルシューティングも難しい。

Platform9のソフトウェアエンジニアでFissionを作ったSoam Vasaniによると、Fissionは、デベロッパーがKubernetesをもっと楽に使えるようにしたい、という願いから生まれた。 “Fissionがないころは、うちの顧客たちはKubernetesを使いこなせるまでに数週間もかかることが多かった”、と彼は語る。しかし今では、彼らは一時間ぐらいで彼らの最初のFissionのファンクションを動かせるようになる。そして、Fission Workflowは次の問題に取り組む: サーバーレスのアプリケーションがシンプルなファンクションから本格的なアプリケーションに成長するとき、何が起きるのか。

Fission WorkflowsはKubernetesの上で動くので、どんなクラウドでも、プライベートなデータセンターでも、あるいはデベロッパーのラップトップ上でローカルにも、動かせる。デベロッパーは自分のアプリケーションをPython, NodeJs, Go, C#, PHPなどで書く。

しかしFission Workflowsには、Microsoft Flowのようなドラッグ&ドロップのインタフェイスがない。今のところデベロッパーは自分たちのワークフローを手書きしなければならないが、Platform9のCEOで協同ファウンダーのSirish Raghuramによると、そのうちWorkflows用のビジュアルエディターを作るそうだ。ただし、現在すでに、ワークフローを視覚化するツールはある。

Fission本体と同様に、Workflowsも完全なオープンソースにする予定だ。Raghuramによると、同社のビジネスプランは、そのオープンソースのフレームワークを顧客にサービスとして提供するときに課金することだ。今すでにKubernetesとOpenStackに関してはその方式だが、Fissionもいずれそのポートフォリオに加わるだろう。ソフトウェアそのものは今後もずっとオープンソースで、オープンコアやフリーミアムモデルに移行するつもりは、まったくない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))