Googleからモバイル向け写真・ビデオのアプリ3本登場――「アプスペリメント」実験中

今日(米国時間12/11)、Googleは新しい写真アプリ3種類をリリースした。これはGoogleが実行中のモバイル写真テクノロジーを改革する「アプスペリメント」(アプリ+エクスペリメント、のつもらしい)の一環だという。アプリはAppleのApp StoreとGoogle Playの双方または一方で公開されている。 Google Researchブログの記事によれば 、同社は今後もユーザーの声を聞きながらさらにモバイル写真における実験的機能のテストを進めていくという。

発表されたアプリはGoogleが開発中の対象認識人物の分類に関するアルゴリズムをテストするためのもので、画像の適切なエンコード/デコードを効率化するテクノロジーを含むという。

今回リリースされた3本のアプリはそれぞれStoryboard、Selfissimo!、Scrubbiesと呼ばれる。

Storyboardはその名のとおり、ビデオクリップを1ページの絵コンテにまとめる。レイアウトはコミックのスタイルだ。写真をコンピューターで解析し、コミック・スタイルのイラストを作成するという手法はAIを利用した写真編集アプリ、Prismaの登場とともにポピュラーになった。Prisma社はその後ターゲットをB2B分野にシフトしているが、写真アプリは現在もApp Storeの「写真とビデオ」ジャンルでトップ150位以内にランクインしている。

ただこの分野への関心は現在やや薄れているか感がある。今回のGoogleのアプリのように、創造性をビデオの分野にもたらすことはこの分野の復活のきっかけになるかもしれない。

Storyboardは写真とアートの融合というテクノロジーをビデオに拡張したものだ。1枚の写真からコミック風のイラストを作成する代わりにビデオクリップから重要なフレームを抽出して一連のイラストを作成し、絵コンテに仕上げる。ビジュアルのスタイルは6種類から選べるという。.

Storyboardは今のところAndroid版のみだ。

2番目のアプリ、Selfissimo!は新しいタイプのセルフィー写真を作成する。

Selfissimo!を起動してセルフィーを撮ると、ユーザーが動きを止めるたびにシャッターが切られる。つまり一連のポーズを撮影した白黒写真のベタ焼きができあがる。ユーザーが静止してポーズを取ると自動的に撮影が行われるわけだ(しかし…モノクロだけというのはしょぼい。カラー写真も撮れるようにして欲しい)。

Selfissimo!はiOS版Android版の双方が提供される。

3番目のアプリ、Scrubbiesはビデオの新しいコントロールだ。 このアプリを使うとビデオ再生のスピードや再生方向の逆転を直感的に操作し、短いループビデオを作成できる。再生が循環するループビデオを作成するアプリにはInstagramのBoomerangなどがあるが、Scrubbiesはこれと違い、既存のビデオクリップから直接ループビデオを作成できる。いわばCDやビニールレコードからリミックスを作るのと同じような感覚だ。Googleはこれを「ビデオをDJのようにスクラッチする」と表現している。1本の指でスワイプすると通常の再生が行われるが、2本の指を使うとその部分がキャプチャーされ、後で友達に公開することができる。

ScrubbiesはiOS版のみだ。

Googleは以前にも写真分野で実験的アプリを発表してきた。

GoogleのエンジニアはMotion StillsでiOSのライブビデオの手ブレ防止を試みている。またAndroidビデオにさまざまな効果を与えるアプリも提供してきた。こうしたアプリで実験されたテクノロジーの一部はその後、Google Photosアプリの機能として取り込まれている。

今回リリースされたアプリが好評なら、その機能はやがて主流のGoogle Photosにも採用される可能性があるわけだ。

今回発表された3つのアプリは新しい写真テクノロジーの実験、「アプスペリメント」アプリの一環で、Googleでは「今後同種のアプリが多数お目見えするはず」だとしている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Instagramでは写真やビデオをリプライに無限に再利用でき、再生は何度でもOKに

Instagramがそのダイレクトメッセージング機能を、もっと自由で対話的にした。これからは、送られてきた写真を、友だちへのリプライに(いたずらをしたりして)そのまま利用でき、また写真やビデオのリプレイは何度でもリプレイできる。

オリジナルの写真メッセージは、”remix”機能でステッカーやテキストや落書きをリミックスしてリプライに含められる。写真のサイズを小さくして、自作のオリジナルのリプライに入れることもできる。これをお互いが繰り返せば、元の写真をネタとして、永遠に終わらないリミックスの連鎖ができる。しまいには、何がなんだか分からない奇怪な!写真リプライになるだろう。

しかしそれよりも、新たに加わった無限リプレイの方が重要かもしれない。友だちに送った写真メッセージは、一度見たら賞味期限切れになるのではなく、何度でも再生できるようになる。これは本当に、超クールな機能、そしてグレートなオプションだ。

一回見たら終わりは、Snapchatの物真似の名残りだが、Instagramは写真を共有するソーシャルネットワークだから、何度でもリプレイできる方が自然だし当然だ。ただし一回で終わりという指定もできるから、それをしたい人は今後もそれができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

OK Goの新曲ビデオでは557台の(曲とシンクする)プリンターと一緒にダンス

バンドのOK Goは、異様なほどクリエイティブなミュージックビデオで知られている。彼らにかかると、スクーターも、も、飛行機も、そしてルームランナーさえも、アートのような振り付けの素材になる。でも今回の彼らは、ちょっと古めだ。

新曲“Obsession”のビデオでOK Goは557台のプリンターの壁を作り、ビデオ全体の背景にしている。Gizmodoは、紙の無駄遣いに意味があるのか、と言っているが、そう言いたくなるのも分かる。でもしかし、OK Goは答を持っている:

“あなたがこれを見るころには、すべての紙が再生紙だ。売上はGreenpeaceのものになってる”、というテキストをビデオの冒頭でプリンターが紙にプリントする。

これで、紙の無駄遣いの心配はなくなったと思うから、彼らのアートで週末を楽しもう。

でもその前に、バンドが一言言っている:

このビデオでは、いろんな色が激しく点滅する。発作を起こさないように、注意していただきたい。YouTubeの画面の解像度を1440pか2160pにすると、良い映像になる(デスクトップでは画面右下の歯車のアイコンをクリックする)。“自動 HD”のままだと、画像が歪む箇所がある。色やパターンの変化が、激しすぎるからだ。つまり情報が多すぎてYouTubeの通常のHDの圧縮では無理な部分がある。われわれは、そのマトリックスを破ったのだ。24時間前から、YouTubeの善人たちがわれわれと一緒に、問題解決に取り組んでいる(ビットレートの制約の問題だ)。でも、解決には時間がかかりそうだし、今は感謝祭だから、みんな実家へ帰らなくちゃね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

YouTubeが子ども向け/子どもが登場する悪質ビデオの排除基準をより具体化

YouTubeは、Web上の最良のコンテンツと最悪のコンテンツのごった煮にようなサイトだが、これからは子ども向けビデオにおける虐待や間違いを厳しく取り締まる気だ。おふざけビデオや倫理的にいかがわしいビデオで子どもをターゲットにしたり、利用したりしている連中は、ビューを稼ぎお金を稼ぐことが難しくなるだろう。

子どもたちはYouTubeのアルゴリズムが提案/推薦するビデオをよく見ているから、一部のユウチューバーたちは自分のコンテンツをそういう子ども向けストリームに忍び込ませようとする。たとえば自作のビデオにPeppa Pigを登場させれば、YouTubeのアルゴリズムはそれを、フレンドリーな架空の動物が現れる子ども向けビデオだ、と認識する。するとそのPeppa Pigは、屠殺場へ連れて行かれるのだ。退屈しているティーンにとっては笑えるかもしれないが、スポンサーを失いかねないYouTubeの広告部門にとっては、嬉しくない。

子どもが登場するけど子ども向けでないコンテンツも、厄介だ。血だらけの真っ赤な口をした小さな女の子が二分間泣き続けるビデオに、なぜ1億5000万ものビューワーがいるのか、ぼくには理解できないが、理解したくもない。でも、自分の子どもが見るビデオのキュー〔自動再生〜次の動画、など〕にそれが入っていたら、嬉しい親はいないだろう。

この“上昇中のトレンド”と戦うためにGoogleは、子ども向けコンテンツにいくつかの制約を設けた:

  • コントロールの強化 こんな警告: “未成年者が登場するが、それがアップロード者の意図ではなかったとしても、子どもを危険にさらすおそれがある”…これは血だらけの口のケースだ。そして、“ファミリー向けのキャラクターが登場するが、テーマやユーモアは大人向けである”。

  • いかがわしい子ども向けビデオは広告料無払い Peppa Pigがハムになるビデオは広告料がもらえない。
  • 悪質なコメントの監視と排除 YouTubeのコメント欄は、Penny Arcadeに言わせると、“樽の底にまた樽があり、その樽の底にも樽があり〜〜、それらの樽の中には病気の鼠が大量にいて、腐った下水の中へ次々と飛び込んでいる”。登場(出演)している子どもに対する不適切で忌まわしいコメントのあるビデオは、コメントだけでなくビデオごと消去される。
  • コンテキストを正しく理解する たとえば、Rick & Mortyは漫画だから子どもが見てもよい、とは言えない。同様に、本来は子ども向けのDora the Explorerが、(なぜか?)セクシーなコスプレになっていたら教育コンテンツではないだろう。

以上、YouTubeは、“監視を手伝ってくれるエキスパートを増員し、また、悪質ビデオの報告協力者(Trusted Flaggers)の数も増やして”、 摘発を強化していく、と言っている。

これで親たちが自分の子どもに、屠殺のやり方を質問されたり、なぜバナナにハンモックが必要か聞かれたりすることが、なくなるといいけどね。〔banana hammcok, 男性用Tバック下着のこと〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

YouTubeがAmazon Echo Showに復帰、VimeoとDailymotionも視聴可能に

‘画面つきのEcho’、Amazon Echo Showがデビューしたときは、画面があってビデオを見れてインターネットに接続するデバイスとしては当然ながら、YouTubeアプリも含まれていた。しかしEcho ShowのYouTubeプレーヤーには、YouTubeの規約に違反しているところがあったため、Googleが早速抗議して取り下げさせた。

しかし今日(米国時間11/21)の Voicebotの記事によると、YouTubeがEcho Showに戻ってきた。それは前とはかなり変わって、Webやタブレットなどの上で見るおなじみのYouTubeとほぼ同じだ。つまりEcho ShowのYouTubeアプリは、YouTubeの利用に関してGoogleとYouTubeが定めている要求を受け入れたのだ。

Echo Show上の最初のYouTubeは、あくまでも音声コマンドを重視していたと思うが、今度のはみんながすでによく知ってるYouTubeだ。ちょっと、複雑な心境だね。でもなにしろ、YouTubeが戻ってきたことは良い。Echo ShowはYouTubeのために生まれたようなものだから。キッチンのカウンターに置いて、煮物が煮えるのを待ちながら、YouTubeビデオを見て暇つぶしするんだよ、みんな。

でも今度のAmazon Echo Showは、VimeoやDailymotionのビデオも見られる。Amazonのスポークスパーソンは、こう言ってる:

Vimeo, YouTube, それにDailymotionなど、これまでよりも多くのビデオをEcho Showでお客様にご提供できることは、わたくしどもの喜びであります。これからは、さらに多くのビデオソースをご提供してまいります。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Essential Phoneが360度ライブビデオを簡単にFacebookへストリーミングできるようになった

Essential Phoneとその360度カメラのオーナーは、カメラソフトのアップデートにより、今撮っている360度ビデオを、ライブでブロードキャストできることになった。そのほかのソフトウェアは不要で、なにしろEssential Phone本体に360度カメラを取り付けるだけで、撮影中の動画を送信できるようになる。

前と同じく、カメラを取り付けるとカメラアプリが360度モードで起動し、”Liv”ボタンをタップするとユーザーのFacebookアカウントにログインして、動画はそのアカウントへポストされる。そして二度目からは、画面を左へスワイプするだけで、360度ライブ動画のFacebookアカウントへの投稿が始まる。

さらに、Facebookの共有オプション“Only me, Friends, Friends of Friend, Public”(自分だけ、友だち、友だちの友だち、一般公開)のどれかを指定して、ブロードキャストの範囲を選べる。最初に、これから送る動画の説明文を送信することもできる。今後の動画送信には、Facebookの認証過程は要らない。

Essentialは、360度カメラの将来性にすごく自信を持っているようだ。本体への独特な接続方式をはじめ、360度カメラが最初から標準アクセサリになっていることについてチームに聞いたら、360度カメラの大衆化で先行することによって、今後のスマートフォン市場で優位に立ちたい、ということだ。今回のソフトウェアのアップデートで、360度ビデオを撮るだけでなく、それをライブでストリーミングすることも容易になった。はたして、消費者の反応はどうだろうか。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Apple、ARヘッドセットを2020年出荷を目標に研究中

Appleは拡張現実(AR)ヘッドセットを2019年までに開発するための技術を研究中で、2020年の商品化を目指しているとBloombergの最新記事が伝えている。記事によるとそのデバイスはAppleのiPhoneや他のモバイルデバイスとは別物で、内蔵ディスプレーを備え、専用OS(’rOS’と内部で呼ばれている)と新しいカスタムプロセッサーを採用するという。

Apple CEO Tim Cookは過去のインタビューでARの将来について強気な発言をしており、iOS 11にはAR体験の開発を支援するARKitと呼ばれる機能が組み込まれている。Bloombergの以前の記事によると、Appleは複数のARエキスパートを雇い、開発チームはDolby Labsの技術担当幹部だったMike Rockwellが率いている。

最近Cookは、満足できる体験を得られるARヘッドセットを消費者に届けるためのテクノロジーはまだ揃っていない」と報道に語り、この分野の製品が「市場に出るまでにはしばらく時間がかかるだろう」と警告した。これは少なくともWindows HoloLensのことを遠回しに言っているものと思われ、Magic Leapをはじめとする他社製品も指しているかもしれない。

Appleはこの未来機器の計画を今も固めているところだとBloombergは言っているが、対話方式についてはタッチ式入力、Siri音声入力、さらにはヘッドジェスチャーなども研究しているようだ。チームはアプリケーションもメッセージング、バーチャル会議、360度ビデオ、ナビゲーションなどを開発中で、このデバイスのためのApp Storeを作る可能性もある。

テストは社内でHTC Vive、およびiPhone画面を使うSamsung Gear VRに似たデバイスで行われているとBloombergは伝えている。Appleは最新のMacでVRコンテンツ開発のために外部GPUとHTC Viveに対応しており、これも動機の一因かもしれない。記事によるとAppleはARKitの新バージョンを2018年に公開する予定で、このデバイスをターゲットにした体験を開発する道を拓くものだ。

Appleは様々な実験プロジェクトを立ち上げているが、全部が製品化されるわけではない。しかしCookがARとその将来の可能性について語る様子からは、Appleが単なるテクノロジーへの興味以上の力を入れていることが見て取れる。

[原文へ]

(翻訳:Nob Takahashi / facebook

Parrot Bebop 2 Powerは最高にクールなドローン――一人称視点も可能

個人ユーザー向けドローンのパイオニア、Parrotから最近発表されたBebop 2 Powerは既存のBebop 2のアップグレード・モデルだ。カメラ、コントロール、バッテリー駆動時間、すべてが改善されている。この本格的ドローンは2個のバッテリーで60分飛ぶことができ、ParrotのVRヘッドセットとスマートフォンを利用すればカメラが写す内容を一人称視点で体験できる。

私はこのドローンのパフォーマンスに強い印象を受けた。中でも感心したのは同梱のSkycontroller 2だ。このコントローラーは手持ちのスマートフォンをセットしておきながらジョイスティックでドローンを操縦できる。実際私はドローンを操作するのにスマートフォンよりこのコントローラーの方がはずっとやりやすかった。ジョイスティックの方が操縦しやすいというのは私にとってこれが初めてモデルだった。

Bebop 2 Powerは599ドルで、FPVゴーグル、コントローラー、バッテリー2個が同梱される。ドローンの飛行にはスポーツ・モードとカメラ・モードがある。カメラ・モードを選ぶと低速で安定した動画撮影に適したひこうとなる。

Bebop 2 Powerはうれしい驚きだった。最近テストした中で最高のドローンだと思う。 チェックしてみる価値は十分ある。

〔日本版〕ビデオ中でBiggs記者が「1回の充電で30分飛行できる」と述べているのは1個のバッテリーでの飛行時間を指している。バッテリーは2個同梱されるので入れ替えることで合計60分の飛行が可能。日本語サイトから入手可能。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebookもついに4Kビデオをサポート

せっかくいいモニターを買ったのにFacebookのビデオが美しく映らないと不満だったむきに朗報だ。ソーシャルメディアのあちこちにスーパー精細度のビデオが現れるようになり、Facebookも4Kビデオに対応することとなった。

TechCrunchが確認したところでは、Facebookは2160p UHD-1(ウルトラHD)規格で4Kのアップロードと再生を実験中だ。一部のFacebook Pageやプロフィールでは4Kビデオがアップできるようになり、これを4Kで視聴することが可能だ。YouTubeが初めて4Kビデオの再生のテストを始めたのが2010年だからずいぶん時間がかかったわけだ。

このアップグレードはスポーツ、科学、トラベル、ファッションなどの分野でFacebookのオリジナルビデオを観ることを後押しするだろう。4Kストリーミングを試してみたい場合、こちらはスポーツ 、こちらは音楽ビデオだ。 Facebookは最近ビデオ分野に真剣に取り組んでいる。今日(米国時間10/24)はFacebookはInstagram Live Storyに友達を呼べる機能を追加した。

Facebookのビデオは当初、短いクリップで「たまに掘り出し物が見つかる」という程度だったが、次第に「わざわざ観る」ための本格的な長いビデオに重点を移してきた。しかしYouTubeやNetflixと対抗するためには画質の進歩が必要だったようだ。YouTubeが4Kビデオを広くサポートするようになったのは2014年から2015年にかけてで、2016年には4Kライブ・ストリーミングがサポートされた。

Facebookは去る7月にLive 360ビデオで4Kをサポートしたが、通常のビデオは長い間720pが上限だった。Facebookにアップされるビデオのほとんどはスマートフォンで撮影されたものなのでこれでも不都合はなかった。しかしFacebookビデオにハリウッドの本格的映画製作者やフレームレートが速い高性能ビデオゲームの愛好家が集まってくるにつれて4Kの必要性が高まっていた。

読者のディスプレイが4Kをサポートしている場合、Facebookのビデオを再生するときには歯車アイコンをクリックし、精細度が2160p(4K)に設定されているか確認しておくのがよいだろう。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Toonstarではユーザー自身が漫画アニメのキャラクターになれる、顔認識技術を使って

ToonstarのCEO John Attanasioによると、彼の目標は“新しいCartoon Network”を作ることだ。

Attanasioと協同ファウンダーのLuisa Huangは共にWarner Brothersの役員だったので、Cartoon Networkと同じ企業の傘の下で働いていたことになる。Attanasioが語るToonstarのアプローチは、“モバイルで、一口サイズで、対話的な”アニメコンテンツを作ることだ。

具体的には、同社のiOSアプリではユーザーが漫画のキャラクターをカスタマイズして、自分の顔の表情でアニメできる。そしてそのアニメをToonstar自身やFacebook Live, YouTube Live, Musical.lyなどにライブでストリーミングし、それを見ている人が自分のアニメを加えて対話する。たとえば、画面に猫を放り込むとか。

animojisを連想する人がいるかもしれない。それはAppleが先月発表した、顔認識技術でアニメする絵文字だ。でもAttanasioによると、二つのサービスはそれぞれ目指すものが違う。animojisはコミュニケーションのツールだが、Toonstarは純粋にエンターテインメントだ。それに、ToonstarもiPhone Xで現状のまま使える。

さらに彼の主張では、こういうことをやるために必要な顔認識技術は前からあった。今回新しいのは、彼によると、“セルフィー(自撮り)文化との融合”だ。Toonstarではユーザーが自分をほかのキャラクターに変えられるし、キャラクター全員を変えることもできる。

Toonstar Demo

Toonstarアプリは今日(米国時間10/12)、ベータテストを終えた。同社によると、3か月のベータ期間中に2万名のユーザーが集まり、彼らが作った漫画の総ビュー数はのべ5000万回に達した。

さらに同社はThe Walking DeadのSkybound Entertainmentとパートナーして、同社のコミックの一部をToonstarのメニューに加える予定だ。

Skybound NorthのCEO Catherine Winderは、声明文でこう述べている: “Toonstarとのパートナーシップはすばらしい。漫画のライブストリーミングには、消費者とプロダクションの両方にとってユニークなアドバンテージがたくさんある。リアルタイムの対話によってファンは自分の好きなキャラクターと、とても斬新な方法で結びつける”。

Attanasioの構想では、Toonstarを単なるアニメチャネルで終わらせたくない。むしろ、新しい知財が生まれる場所にしたい。“次のRick and MortyはToonstarから生まれるかもしれないし、次のBojack HorsemanもToonstarから来るかもしれない”。

同社はScience Inc.のリードにより、二度目の資金調達を行った。それにはJon GoldmanのGC VR Gaming Tracker Fund, Manta Ray, そしてSocial Startsが参加した。金額は公表されていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがAmazonのEcho ShowからYouTubeを突然取り去る、サービス規約への違反だそうだ

今日(米国時間9/26)はAmazonのディスプレイ付き音声アシスタントEcho ShowでYouTubeが上映中止になった。

Googleは今日の午後、このスマートスピーカー製品から同社のビデオサービス(YouTube)を取り去った。Amazonは、嬉しくないだろう。Echo Showのオーナーたちは、事前の通知を受け取らなかった。

Amazonのスポークスパーソンは、次のような声明文で、サービスが取り去られたことを確認した。彼らにとっても意外だったことを、にじませている:

Googleは本日午後3時ごろ、ある変更を行った。YouTubeはこれまで、Echo Showの共有顧客にとって可利用であった。本日午後をもってGoogleは、顧客への説明や通知なく、YouTubeをEcho Show上でこれ以上可利用にしないことを選んだ。その決定に技術的理由はないので、弊社と弊社の顧客の双方を幻滅させ、傷つけている。

削除を最初に報じたThe Vergeへの声明で、GoogleはAmazonの声明に異を唱え、同社はAmazonと折衝中である、と述べている。そしてしかし、Echo Show上のYouTubeの実装は、YouTubeのToSに違反している、と言っている:

弊社はAmazonと長期間にわたり折衝し、合意を模索してきた。その合意は、両プラットホームの顧客に最良のユーザー体験を提供するものでなければならない。Echo Showの上のAmazonによるYouTubeの実装は、弊社のサービス規約に違反しており、そのユーザー体験には欠陥がある。これらの問題に関し、早急に合意に達し、問題が解決することを望んでいる。

本誌は今、Googleに詳しい情報を求めている。

今のところ両社のメッセージはかなり相反しているが、Googleの声明は、AmazonがGoogleの望む変更を為したならYouTubeはEcho Showに復帰する、と言っているようだ。YouTubeを失うことは、同社の唯一の画面付きスマートスピーカーにとって大打撃だろうから、AmazonとしてはGoogleの言い分を聞く他に選択肢はあまりないだろう。

両社のサービスは今や誰にとっても必須だから、AmazonとGoogleの戦争が激化することは誰の利益にもならない。しかし両社には、互いに依存している面もあるので、抗争の深刻化はありえないだろう。

〔Windows PhoneやRokuのときには、広告が削除されたことが問題だったが。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NvidiaがスマートシティプラットホームMetropolis AIでAlibabaやHuaweiとパートナー

NvidiaのスマートシティプラットホームMetropolis AIは、まるでDC Comicsのスーパーマンの漫画にあったような名前だが、実際にはそれはGPUを使用するインテリジェントなモニタリングツールで、渋滞の解消とか、行政サービスの適正配分、迷子の老人や子どもの発見など、さまざまな業務を助ける。このほど同社は、Mtropolisの本格的な普及を目指してAlibabaおよびHuaweiとパートナーし、またMetropolisの一般供用バージョンにはそのSDK、DeepStreamを含めることになった。

Metropolisはビデオを使用し、2020年までには10億台以上の、インターネットに接続されたカメラを世界中の都市に据え付けて、警察や都市計画などあらゆる行政サービスをアシストするデータ分析AIアプリケーションを稼働させる。

Nvidiaは今日北京で行われた同社のGTXカンファレンスで、そんなアプリケーションの一端を紹介した。たとえば中国のHikvision Research Instituteのプロジェクトは、Jetson, Tesla P4, DGX-1といったNvidia製品〔主にディープラーニング関連〕を組み合わせて、顔画像と個人プロフィール情報のマッチングを90%の確度で行う。

こういった監視システムにはオーウェルの‘ビッグブラザー’的な気色悪さがつきまとうが、円滑で安全な都市交通ネットワークのための自動化情報システムが実現するためには、それが必要な第一歩だろう。たとえばAlibabaが考えているのは、都市計画部門における行政サービスの改善だ。またHuaweiなどは、もっぱら警察用アプリケーションに注力している。後者はそれこそ、ビッグブラザー問題を内包するかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Instagramのライブビデオに顔フィルターが来た

今日(米国時間9/21)、Instagramはアプリからライブストリーミングする際に顔フィルターが使えるようになったと発表した。Instagramにはすでに顔フィルターがある。顔を認識してその上に各種の効果を表示するフィルターは去る5月に追加されている。しかしこれまでは顔フィルターを利用するためにはまずビデオないし写真を撮影しておく必要があった。顔フィルターを適用してからInstagram Storyに公開する手順だ。

今回のアップデートで、既存の顔フィルターはすべてライブストリーミングで利用できるようになる。またライブストリーミング専用の顔フィルターも登場した。これはタップ一つで顔にサングラスを掛けさせるもので、ちゃんとレンズに景色が反射する。このエフェクトは来週中ライブストリーミングに限られるのですぐに試してみたいならライブ動画を公開する必要がある。

サングラス・フィルターなどの顔フィルターはライブストリーミングのスタート前でも実行中でも適用できる。利用法は簡単だ。Instagramのライブビデオの画面で右下隅の顔アイコンをタップするだけでよい。フィルターの公開は今日からスタートするが、世界の全ユーザーに行き渡るまでには「数週間かかる」と
Instagramは言っている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Mapsでビデオを投稿できる、個人だけでなく地元のお店にとっても大チャンス

Google MapsのGoogle Street Viewや衛星画像がリアルタイムになるのは遠い先の話だろうけど、でもGoogleはまさに今、初めて、Mapsの素材としてビデオを持ち込んだ。GoogleのLocal Guidesに参加しているユーザーはGoogle Mapsのアプリから10秒のビデオを撮れる。あるいは自分のカメラロールから、30秒のクリップをアップロードできる。

GoogleがこれをLocal Gudesの機能としてひそかにローンチしたのは二週間前だけど、今ではメールで通知しているし、近い将来Mapsの一般的な機能になるだろう。

これまでGoogle Mapsにアップロードできるのは静止画像だけだったが、レストランやお店や観光名所などの雰囲気はビデオの方がよくわかる。また、ユーザーが書くレビューに、ビデオをつけてもよい(ただし、言葉と同じくビデオにもレビューのポリシーは適用される)。お店などが、ビデオを利用してメニューや商品などを紹介してもよい。

Google Mapsでビデオを撮影またはアップロードするには、Mapsの検索機能でその場所へ行く。今のところAndroidのGoogle Mapsアプリだけだが、下へスクロールして“add a photo”をタップ、“Camera”アイコンをタップしてシャッターを押し撮影する。すでにある短いビデオをアップロードしてもよい。

この機能が使えるのは目下、AndroidのLocal Guidesからのみだが、Googleは今、地元のお店などでもテストしている。ビデオは近い将来、すべてのプラットホームのGoogle Maps上で使えるようになるだろう。

最初はマイナーなアップデートだと思ったけど、でもお店のオーナーなどにとっては重要な変化だ。自分でスナップを撮るのは簡単だが、やがて彼らは、プロに撮ってもらった自分のお店のビデオをアップロードするようになるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

YouTubeがHDRビデオの再生を一部のAndroidスマートフォンでサポート

昨年11月にYouTubeは、そのビデオをテレビで見たい人たちのためにHDRのサポートを開始した。今日(米国時間9/8)同社は、そのサポートをモバイルにも広げる、と発表した。当初は一部のAndroid機のみで、iOSはまだだ。HDRがサポートされると、ビデオは画質が良くなり、コントラストは高く、暗い画面でも生き生きとした色を見られる。

最初、YouTubeのモバイルアプリがHDRをサポートする機種は、Pixel, LG V30, Samsung Galaxy S8, 同Note8, そしてSony Experia XZ Premiumだ。

同社によると、今後パートナーを増やす努力を続け、HDRを再生できる機種を徐々に増やしていくそうだ。

YouTubeが最初にHDRをローンチしたときは、MysteryGuitarMan, Jacob + Katie Schwarz, Abandon Visualsなど、ごく一部のYouTubeチャネルが使っていたにすぎない。

今でも‘広く普及した’とは言い難(がた)いが、今日のYouTubeはHDR品質のビデオを見られるチャネルやビデオをいくつか紹介している。それらは: Youtube.com/4K, HDR shelf, Venice Carnival(4K HDR 60P(UHD)), The Redwoods(Epic-W, HELIUM 8K S35 Sensor, 8K HDR), Peru(8K HDR 60FPS(FUHD))などだ。

HDRはテレビではまだ今後の技術だ。HDRテレビはたくさん出回っているが、まだテレビの買い替え需要に結びついていない。4KやHDRは、大衆的な普及が始まるのは数年後以降だろう。

今のところHDRテレビの方が4Kより人気があり、2022年には2億4500万台に達すると言われている。

でも、今回モバイルがHDRをサポートしたことによって、普及は早まるかもしれない。スマートフォンは多くの‘個人’が持っているし、買い替えサイクルもテレビより短いからね。

HDRをローンチしてからYouTubeは、この技術を利用してみたいと思っているクリエイターたちと協働してきた。ニューヨークやロサンゼルスなど一部のYouTube Spacesでは、HDR録画機を使えるようにした。

Googleもその流れに乗って、Chromecast UltraでHDRコンテンツをテレビにストリーミングできるようにした。

YouTubeによるHDRのモバイルサポートは、すでに上記の機種で利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビデオの配信をWebRTCのピアツーピア通信で行うStreamrootが$3.2Mを調達

フランスのスタートアップStreamrootがこのほど、Partech Ventures, Techstars Venture Capital Fund, Verizon Ventures, R/GAなどのVCから320万ドルを調達した。同社はWebRTCを利用する、とても安上がりなビデオストリーミング技術を提供している。

YouTubeやNetflixなどのビデオは、ビデオファイルの内容が彼らのサーバーから送られてくる。それはデータセンターとユーザーのデバイスとのあいだの、単純明快な一方向通信だ。でもビデオファイルは重いから、それらを送れるだけの帯域を確保するために大金を投じなければならない。

Streamrootは、ピアツーピアの層をそこに加えて、この形を変えようとする。今ではDailymotionやCanal+, Eurosport, Russia TodayなどがStreamrootの技術を使って、必ずしもすべてのビデオが彼らのサーバーからは来ないようにしている。

DailymotionでTaylor Swiftの最新のミュージックビデオを見ている、としよう。大人気スターだから、同じ時間にそのビデオを多くの人が見ているだろう。Streamrootは、そのビデオの一部またはすべてをほかのユーザーから直接ダウンロードしようとする。

そこで、二人のユーザーに自分のサーバーから同じファイルを計二度送る代わりにDailymotionは、サーバーからの一回の送信で二人の視聴者をまかなう。同じビデオのトラフィックの大きなスパイクがあるときには、この方法はとくに有利だ。

この技術の良い点は、それがユーザーにとって完全に透明であることだ。WebRTCはデスクトップでもモバイルでも、現代のWebブラウザーのほとんどがサポートしているから、ユーザーが特別なソフトウェアなどをインストールする必要はない。ピアツーピアの方が通信の質が悪いときには、Streamrootはブラウザーへの通信を従来のサーバーからに切り替える。つまり、両者の良いとこどりをする。

Streamrootは現在、1か月に4億のビデオセッションを送っている。同社によると、そのトラフィックの50〜80%は、この分散インフラストラクチャを利用している。

  • 情報開示: VerizonはOathのオーナーであり, OathはTechCrunchのオーナーです。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ボストン・レッドソックスがApple Watchを使ってニューヨーク・ヤンキースからサインを盗んでいた

[↑次は直球]

Appleは次のApple Watchを発表するとき、絶対このネタを使うだろう。Boston Red Soxが相手チームのバッテリーのサインを盗むとき、このスマートウォッチが重要な役割を演じていたらしいのだ。

The New York Timesによると、MLBは、現在一位(アメリカン・リーグ東部地区)のRed Soxが、最近のヤンキース戦と、もしかして他チームとの試合でも、対戦相手のキャッチャーのからサインを盗んでいた、と裁定した

実際にどうやったのか:

Red Soxのビデオ担当者は撮影中の映像からハンドサイン(手信号)を入手し、iMessageやSMSを使って、ダッグアウトにいるトレーナーが着用しているApple Watchにその情報をメッセージした。そしてそのトレーナーは、情報を試合中の選手に伝えた。

野球のファンでない方のために簡単に説明すると、キャッチャーはピッチャーに、次に投げるべき球種をハンドサインで指示する。しかし相手チームの打者などは、この情報が分かればものすごくありがたい。次がカーブか直球か事前に分かっていたら、打者はその球をヒットにできる確率がとても高くなる。

それまでの方法では、二塁にいる走者がキャッチャーの手元を覗き込み、球種を打者にジェスチャーで教えていた。しかしライブのビデオと、Apple Watchのようなリアルタイムの通信デバイスをを使える今では、サイン盗みはずっと容易になった。

そしてもちろん、その‘犯行’の現場をとらえたのは、Red Soxと今地区リーグの首位を争っているYankeesだった。彼らは、Red Soxのトレーナーが自分のApple Watchを見て、その情報を選手に伝えている様子をとらえたビデオを、リーグに提出した。そして両チームは伝統のライバル同士〔日本の巨人/阪神のように〕だから、Red Soxも、Yankeesがテレビ放送用のカメラを使って試合中にサインを盗んだ、と提訴した。

実は、サインを盗むことは野球ではかなり一般的に行われていて、目と何らかの信号と声で自分が見たものを伝えることは許されている。しかし今回のような、ビデオによるリプレイ技術やApple Watchを使って伝達を電子的にスピードアップすることは、許されていない。リーグは、Red Soxやその他の累犯チームに、罰金を課すことになるだろう。

残された唯一の疑問は、Apple Watchのこんな使い方を誰が一体Red Soxに教えたのか?だ。ここに、その手がかりらしきものがある:

[Tim Cook: Red Soxとファンのみなさん、ボストンでの楽しい一日をさらに楽しくしてくれてありがとう。]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Instagramではもっとクリエイティブなやり方で写真やストーリーにお返事できる

Instagramが、またやりました。今度は、誰かがプライベートな会話で写真やビデオを送ってきたら、その写真などにいたずらをして、クリエイティブな返事ができるのだ。しかも会話の筋道は、失われない。

写真やビデオを受け取ったら、その会話のスレッドで返事(reply)ボタンを押す。すると写真が上右隅のステッカーに換わる。それをそこに置いたまま、返事で話の続きをする。

あるいは、そのステッカーをいろいろ動かしたり、傾けたり、その周りに飾りを描いたりできる。ビデオの場合は、最初の場面のスクリーンショットがステッカーになる。

右上のステッカー(上図左)をタップすると、それが画面の上半分を占領する(上図中)。下半分には、自分の自撮り(セルフィー)を入れられる。写真共有アプリにFrontbackってのがあるけど、それは目の前のものを撮って、それに対するリアクションを自撮りで送る。今回のInstagramの機能はそれと同じで、本来の話の筋道(コンテキスト、文脈)とリアクションの両方を送れる。

でももちろんInstagramならフィルターも使えるし、自分の写真の上にお絵かきをしたり、ステッカーを貼ったり、テキストを書いたり、いろいろなクリエイティブなツールをすべて一緒に使える(上図右)。リアクションも、写真以外にビデオ、ブーメラン、フィルターをかけた自撮りなどで送れる。

しかも今度の新しい返事(リプライ)の仕方は、ダイレクトメッセージ以外にも使える。たとえば何かのストーリーを見ているとき、画面下のテキストフィールドにテキストを記入したり、あるいは画面左下のカメラのアイコンをタップすれば写真やビデオを送れる。自分のストーリーを今見ている人から、さまざまなリプライが来るのだから、すごく嬉しいだろうな。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleはモバイル検索時に見つかったビデオに6秒間のプレビューを表示するようにする

Googleは本日(米国時間8月18日)、モバイル検索結果ページを大幅に更新することを発表した。利用者の問い合わせがビデオを見つけてくるたびに、Googleはそのビデオが実際に見たいものかどうかを判断するのに役立つ、6秒間の無音のクリップを表示する。

この機能は現在ウェブで見ることのできる大部分のビデオに対して有効で、特にYouTubeだけに限られてはいない。実際、このプロジェクトを担当するGoogleのプロダクトマネジメント担当ディレクターEmily Moxleyによれば、Web上のビデオはすべて対象となるが、最新のビデオではまだサーバー側でのプレビュー生成が間に合っていないこともあり得るということだ。

ビデオの人気はますます高まっているが、それが情報を得るために最も便利な方法ではないということもよく理解されている。結局のところ、サムネイルは、実際の動画がどのようなものかについての多くの情報を提供するものではない(そして動画の制作者たちは、どのようなサムネイルが最も多くのクリックを生み出すかについてのノウハウを蓄積している…)。

理想的には、Googleの新機能が、少なくとも曖昧性の一部を取り除き、本物を探している時に、退屈なもので時間を無駄にしないことがわかるようにしてくれる。Googleが示した例には、 サルサダンス動画の検索が挙げられている。単にプロのダンスを撮影したものもあれば、実際にステップを教えてくれるビデオもある。

当然ながら、Googleはこの機能を有効にするために、機械学習機能を使用することに決めた。なぜなら、どのようなビデオでも、最初の6秒が代表的なクリップであることはあまりないからだ。そこで、Googleのアルゴリズムは実際にビデオ全体を分析して、どの6秒間をクリップするかを決定する。チームはアロゴリズムがどのように見せる場所を決めているかについての詳細については語らないが、GoogleプロダクトマネージャーのPrashant Bahetiによれば、アルゴリズムは動画の個々のシーンに何が写っているかを判別し、それぞれのシーンの開始と終了を探し、どのシーンが代表的なクリップかを決定している。

ただし、現在問い合わせへの内容への対応には、アルゴリズムは対応していない。ビデオの中で、ユーザーの問い合わせに関連した部分に直接リンクしてくれる以前リリースされたFeatured Snippetとは異なり、表示されるスニペット(断片)は常に同じものだ。とはいえ、現在会社は、このことに対する対応の検討を行なっているとMoxleyは説明した。

これらのプレビューには広告は一切含まれていないこと、そしてデフォルトでは、Wi-Fi接続を使用しているときにのみプレビューが再生されることに注目したい。必要ならば、モバイル通信使用時にビデオプレビューを有効にすることもできる。あるいはAndroid用GoogleアプリとGoogle Chromeでは、設定で動画プレビューを完全に無効にすることも可能だ。

現時点では、この機能はモバイル上のGoogleアプリまたはChromeでのみ利用できる。デスクトップ上ではまだ利用できない。Googleの広報担当者は、これは、同社が現在モバイルユーザーに焦点を当てているからだと説明しているが、この機能を全てのプラットフォームに展開するために、特に大きな課題があるとは考えにくい。

(日本時間8月19日15時現在、訳者のiOS上のGoogleアプリではまだ確認できていない)。

[ 原文へ ]
(翻訳:Sako)

500ドルのパスワード盗み機がiPhoneをこじ開けられるバグはiOS 11でパッチされました

昨日(米国時間8/17)YouTubeにユーザーEverythingAppleProが投稿したビデオは、短いパスコードでロックされているiPhone 7をアンロックする500ドルの小さなボックスを紹介している。それができるのはiPhone 7とiPhone 7+、そしてiPhone 6と6Sの一部だが、それができてしまう特定の状況になるまで、あなたは無限に待たなければならないかもしれない。

ぼくもちょっと調べてみたが、Appleによると、そのボックスに仕事をさせてしまうバグ的状況は、iOS 11の最終バージョンではパッチされており、秋にはリリースされるそうだ。なお、iOS 11のbeta 4でもすでにパッチされてるそうだ。

つまりこのボックスは、iOS 11に対しては何もできない。まず下のビデオを見て、それからこの記事の説明をお読みいただきたい。

このようなボックスは、何年も前から警察や、一部のサプライヤー(部品製造企業)が使っている。こいつはまず、正しいパスコードを見つけるまでさまざまなコードを次から次とトライする。iPhoneは、何度か続けざまに試されると自動的に自分をロックしてしまうが、iOS 10では、“バグ”以外に適切な呼び名のない、ある性質のために、1分以内なら高速の連続的パスコード試行が可能だ。このボックスも、仕事ができるのは1分以内だ。また、パスコードを変えてから10分後以降など、特定の状況では、この高速試行が拒否される。また、ある1分と次の(次に試行が可能な)1分とのあいだの待ち時間がとても長いので、人間が実際にやるには無理な方法だ。

以上をまとめると、このボックスが犯行に成功する条件はこうだ:

  • iPhone 7またはiPhone 7 Plus(そしてiPhone 6/6sの一部)
  • 今から10分以内の近過去にパスコードを変えた
  • パスコードを変えてから本機をまだ10分以上は使っていない
  • パスコードは4桁である

つまり、あなたのiPhone(上記機種)に侵入したい誰かが、このボックスを持っていて、しかもあなたのデバイスになんぼでも長時間アクセスできる、と仮定しよう。後者の条件はすでに非現実的だが、政府職員なら可能かもしれない。

あなたのパスワードが6桁で(それが今のデフォルト)、パスワードを変えてからまだ1分以内ならば、最大173日でそれを見破れる。

それが6桁で最近変えてないなら、9年6か月を要す。

iOS 11では、これらの日数や年数がもっと長くなる。自分の指紋を他人に使われたくないならTouchIDを無効にできる、という話が最近あったが、本誌のライターTaylor Hatmakerがそれについて、“企業がOSの上でやることの中では、今までで最高に知能犯的”、と言った。

警察とAppleのセキュリティの追いかけっこは、テレビ番組にしたらおもしろいだろうね。

iPhone 6/6sの件はあとから追記した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))