Google Photosがオンデマンドでテーマのあるムービーを作ってくれる

かなり前からGoogle Photosは、Googleお得意の機械学習のマジックを使って、ユーザーの最近の旅行などのイベントのムービーを自動的に作ってくれた。ただしこれまでは、そんなムービーをオンデマンドで作ることはできなかったが、今日からはアプリやWebから、テーマのあるムービーをオンデマンドで作れるようになった。

Googleによると、これはバレンタインデーに照準を合わせたそうだが、もちろんほかのテーマでもよい。あなたの犬や猫のムービーはどうだろう(両者一緒は無理かもしれないが)。子ども、友だち、そのほかの家族、自撮り、“Smiles of 2017”(2017年の笑顔)、母の日、父の日、そして、悲しい“追悼”なども。

ユーザーは最初に、特定の人や動物などを指定する。するとGoogleが自動的に最良の画像や動画を見つけてムービーに編纂し、音楽もつける。所要時間は1〜2分だ。

Googleはあなたのお父さんやお母さんや故人を知らないから、ムービーには誰を指定してもよい。あなた作の“追悼”ムービーの主役にされた友だちは、きっと喜ぶだろうな。

ただし、人工知能は完璧ではない。あなたの“ニャンコムービー”の主人公が人でも、Google Photosは文句を言わない。唯一の違いは、音楽かもしれない。“ニャンコムービー”の音楽には、猫の鳴き声が大量に使われるだろう。具体的に何かを期待したわけではないけど、予想以上におもしろい機能だ。

[男同士のバレンタインデー・ムービー]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Pixel 2の写真専用チップVisual Coreの利用が一般のサードパーティアプリに公開

10月にGoogleがVisual Coreを発表したときは、ちょっと意外だった。Pixel 2が発表されたから3週間後に、そのハンドセットに最初からあったSoCについてあらためて発表するなんて、ね。

その写真専用のプロセッサーはほとんどもっぱら、Google自身のアプリで撮った写真を改良することが目的で、とりわけ、PixelのカメラアプリにHDR+の技術を付与する。その技術は主に、Googleのコンピューテーショナルフォトグラフィー(computational photography, 計算写真学)と機械学習を利用して、写真の画質を上げる。

そして今回は、約束どおり、この技術がサードパーティのアプリにも適用される。もちろんGoogleのハードウェアの上でも、Google以外のソフトウェアで取られる写真がとても多いだろう。また一部の著名なアプリだけでなく一般的にサードパーティの写真アプリが、この技術をGoogle公認で使えるようになった。

Googleは12月にAndroid 8.1の公開ベータの一環として、この機能のデベロッパープレビューを発表した。そして今日からはPixel 2の全ユーザーが、人気の高い三つのモバイルアプリInstagram, WhatsApp, Snapchatでそれを使える。さらに今日からは、この機能を全てのサードパーティデベロッパーが使えるようになる。

チップのこのようなアクチベーション過程はGoogleのみならず、一般的にハンドセットのメーカーとしても異例だ。たしかにそれは写真の新しい技術ではあるが、数多い安定的なパートナーシップの下に多数のアプリデベロッパーがいるGoogleで、技術が一般的に公開されるまでこれだけの時間がかかるなんて、おかしい。

Googleの上級スタッフハードウェアエンジニアOfer Shachamはこう言う: “これは、われわれとしても初めてのことだ。新しい技術の、すっきりした順調な展開をしたかったんだ。パートナーたちがつまずくようなことが、ないようにしたかった。だから事前に、あらゆる部分の改良に努めた。画質だけでなく、性能やパワーについてもだ。だからPixel Visual Coreのデベロッパーオプションをやっと11月にローンチしてから、今でもずっと改良を続けている。我社のスマートフォンは、絶えず進化しているようにしたいんだ”。

Visual CoreのPixel 2ユーザーへの展開は、今月のアップデートの一環として今後数日以内に行われる。Pixel以外の機種については、Googleはまだスケジュールを明らかにしていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Adobe Lightroom、Sensei AIを利用して写真を改善――CC、Classicとも「自動設定」追加ずみ

今日(米国時間12/12)、Adobeは各種アプリでアップデートを実施した。この中には写真の現像と管理のための人気アプリ、Lightroomに対するメジャー・アップデートが含まれる。Adobeは写真の編集・調整に機械学習を利用した自動設定機能を追加した。

新しい自動設定はAdobeのSensei AIテクノロジーを用いてユーザー写真を分析し、プロが編集した似た写真(おそらくAdobe Stockの写真が含まれるのだろう)と比較して、写真を改善するために最適の編集設定を探し出すというものだ。

このアップデートは最新のLightroom CC、Lightroom CC for iOS、 Lightroom CC for Android、 Lightroom CC on the web、Lightroom Classic、 Adobe Camera Raw (ACR)で行われた〔日本語版もアップデートずみ〕。

こうしたAI利用ツールの追加は各種サービスにいっそう高度な判断機能を加えていくというAdobeの全社的戦略に合致するものだ。今年開催されたAdobe MAXカンファレンスでCTO、Abhay Parasnisは「Adobeは総合的なAIを構築することには興味がない。しかしデザインやイラストレーション、ビデオの制作にあたってクリエーティブなプロフェッショナルがどんな表現を求めているかについてわれわれには深い理解がある」と指摘した

つまりここ数十年にわたるクリエーティブな領域における知識を活用しようというのがAdobeのAIプロジェクトが目指すビジョンだという。Paransnisは「この分野で最高のアーティストが写真に適切な設定を加えるためにPhotoshopeで何時間も費やしている。しかしアーティストには他にやるべきことが多々あるはずだ。われわれは最近の深層学習の進歩を利用し、クリエーティブなプロフェッショナルの効率的なパートナーとなることを目指した」という。

Lightroomがデスクトップでの利用を中心とする従来型のLightroom Classicとクラウド中心のLightroom CCに分割されて以来、今回が最初のメジャーアップデートだ。クラウド型のLightroom CCにはこれまでトーンカーブ調整などいくつかの機能が欠けていたが、今日のアップデートでそれも解消された。これでLightroom CCは名実ともに写真処理でもっとも頻繁に使われるツールの地位を取り戻すだろう。また新しいLightroom CCには新しいフルスクリーン表示やタイムゾーンをまたいで旅行した場合、写真のタイムスタンプを自動的に調整する機能も追加された。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleからモバイル向け写真・ビデオのアプリ3本登場――「アプスペリメント」実験中

今日(米国時間12/11)、Googleは新しい写真アプリ3種類をリリースした。これはGoogleが実行中のモバイル写真テクノロジーを改革する「アプスペリメント」(アプリ+エクスペリメント、のつもらしい)の一環だという。アプリはAppleのApp StoreとGoogle Playの双方または一方で公開されている。 Google Researchブログの記事によれば 、同社は今後もユーザーの声を聞きながらさらにモバイル写真における実験的機能のテストを進めていくという。

発表されたアプリはGoogleが開発中の対象認識人物の分類に関するアルゴリズムをテストするためのもので、画像の適切なエンコード/デコードを効率化するテクノロジーを含むという。

今回リリースされた3本のアプリはそれぞれStoryboard、Selfissimo!、Scrubbiesと呼ばれる。

Storyboardはその名のとおり、ビデオクリップを1ページの絵コンテにまとめる。レイアウトはコミックのスタイルだ。写真をコンピューターで解析し、コミック・スタイルのイラストを作成するという手法はAIを利用した写真編集アプリ、Prismaの登場とともにポピュラーになった。Prisma社はその後ターゲットをB2B分野にシフトしているが、写真アプリは現在もApp Storeの「写真とビデオ」ジャンルでトップ150位以内にランクインしている。

ただこの分野への関心は現在やや薄れているか感がある。今回のGoogleのアプリのように、創造性をビデオの分野にもたらすことはこの分野の復活のきっかけになるかもしれない。

Storyboardは写真とアートの融合というテクノロジーをビデオに拡張したものだ。1枚の写真からコミック風のイラストを作成する代わりにビデオクリップから重要なフレームを抽出して一連のイラストを作成し、絵コンテに仕上げる。ビジュアルのスタイルは6種類から選べるという。.

Storyboardは今のところAndroid版のみだ。

2番目のアプリ、Selfissimo!は新しいタイプのセルフィー写真を作成する。

Selfissimo!を起動してセルフィーを撮ると、ユーザーが動きを止めるたびにシャッターが切られる。つまり一連のポーズを撮影した白黒写真のベタ焼きができあがる。ユーザーが静止してポーズを取ると自動的に撮影が行われるわけだ(しかし…モノクロだけというのはしょぼい。カラー写真も撮れるようにして欲しい)。

Selfissimo!はiOS版Android版の双方が提供される。

3番目のアプリ、Scrubbiesはビデオの新しいコントロールだ。 このアプリを使うとビデオ再生のスピードや再生方向の逆転を直感的に操作し、短いループビデオを作成できる。再生が循環するループビデオを作成するアプリにはInstagramのBoomerangなどがあるが、Scrubbiesはこれと違い、既存のビデオクリップから直接ループビデオを作成できる。いわばCDやビニールレコードからリミックスを作るのと同じような感覚だ。Googleはこれを「ビデオをDJのようにスクラッチする」と表現している。1本の指でスワイプすると通常の再生が行われるが、2本の指を使うとその部分がキャプチャーされ、後で友達に公開することができる。

ScrubbiesはiOS版のみだ。

Googleは以前にも写真分野で実験的アプリを発表してきた。

GoogleのエンジニアはMotion StillsでiOSのライブビデオの手ブレ防止を試みている。またAndroidビデオにさまざまな効果を与えるアプリも提供してきた。こうしたアプリで実験されたテクノロジーの一部はその後、Google Photosアプリの機能として取り込まれている。

今回リリースされたアプリが好評なら、その機能はやがて主流のGoogle Photosにも採用される可能性があるわけだ。

今回発表された3つのアプリは新しい写真テクノロジーの実験、「アプスペリメント」アプリの一環で、Googleでは「今後同種のアプリが多数お目見えするはず」だとしている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Instagramでは写真やビデオをリプライに無限に再利用でき、再生は何度でもOKに

Instagramがそのダイレクトメッセージング機能を、もっと自由で対話的にした。これからは、送られてきた写真を、友だちへのリプライに(いたずらをしたりして)そのまま利用でき、また写真やビデオのリプレイは何度でもリプレイできる。

オリジナルの写真メッセージは、”remix”機能でステッカーやテキストや落書きをリミックスしてリプライに含められる。写真のサイズを小さくして、自作のオリジナルのリプライに入れることもできる。これをお互いが繰り返せば、元の写真をネタとして、永遠に終わらないリミックスの連鎖ができる。しまいには、何がなんだか分からない奇怪な!写真リプライになるだろう。

しかしそれよりも、新たに加わった無限リプレイの方が重要かもしれない。友だちに送った写真メッセージは、一度見たら賞味期限切れになるのではなく、何度でも再生できるようになる。これは本当に、超クールな機能、そしてグレートなオプションだ。

一回見たら終わりは、Snapchatの物真似の名残りだが、Instagramは写真を共有するソーシャルネットワークだから、何度でもリプレイできる方が自然だし当然だ。ただし一回で終わりという指定もできるから、それをしたい人は今後もそれができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Adobe、Photoshop CCにワンクリック対象選択を導入へ――Sensei AIを利用して自動認識

長年の練習のかいがあってか、非常に手際よく人物をマスクできるPhotoshopのユーザーは多い。とはいえ、人物の輪郭を切り抜くのはフォトショ作業の中でいちばん手のかかるやっかいな部分であることに変わりはない。しかしクリック1回で対象を切り抜ける魔法の杖が近々登場する。

今日(米国時間11/28)、Adobeが 公開したプレビュー動画によると、次のアップデートでPhotoshopにはAIを利用して対象を認識し、自動的にその輪郭にそってマスクを作成する機能が追加されるという。この機能は現在Select Subjectと呼ばれており、Adobeの AIプラットフォーム、Senseiが用いられる。

メニューからSelect and Maskを選び、選択したい対象をどこでもよいからクリックするだけでよい。AIが自動的に意図された対象を認識してマスクを作成する。その後は背景を透明化したり、別の画像に置き換えるなどこれまでどおりさまざまなツールを使うことができる。

Adobeのティーザー動画によれば、新機能はPhotoshop CCの次のバージョンで導入される。

ただし「次のバージョン」がいつリリースされるのか具体的な日付はまだ不明だ。.

Engadgetの記事によれば、Select Subjectツールはまだ完全に仕上がっておらず、人物の髪の毛など細部の認識に問題が出る場合があるという。しかしこうした問題は機械学習のアルゴリズムがさらに多くのデータを入手できるようになれば次第に改善されるだろう。

〔日本版〕上のビデオの1:00あたりからワンクリック選択がデモされている。デモでは複数の人物や人物とイヌなどを自動認識で切り抜いている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleが開発を中断した高機能Photoshop/LightroomプラグインNik CollectionをDxOが買収して延命

最愛のツールが早逝を免れたことを知って、フォトグラファーたちは安堵するだろう。Googleは今年の5月にNik Collectionの開発を中断すると発表したが、本日(米国時間10/25)DxOが、その延命を申し出た。DxOはモバイルカメラのベンチマークで知られているが、独自の写真編集ソフトウェアも作っている。

このニュースに対してGoogleのエンジニアリング・ディレクターAravind Krishnaswamyがこう述べている: “Nik Collectionを使ってフォトグラファーたちは、自分が本当に満足できる写真を作れる。高度な写真技術の専門企業であるDxOが、それを買収して開発を継続することは、とても嬉しい”。

DxOはNik Collectionをこれまでどおり無料にするが、目下、2018年にリリースするニューバージョンに取り組んでいる。Googleが2012年に強力なモバイル用写真編集ツールSnapseedと共に買収した、このLightroomとPhotoshop用のプラグインセットは最初500ドルだったが、その後無料になった。

DxOがNik Collectionの次のバージョンで何をするのか、それも楽しみだが、当面はその好評なソフトウェアセットをDxOから無料でダウンロードできる。

〔参考記事(1)(2)。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Photosはペットの名前で彼/彼女の写真をグループ化できる…顔認識技術を利用

ペットがいてGoogle Photosを使ってる人は、その毛むくじゃらのお友だちを自分の写真の中に見つけるために、“dog”とか“cat”とタイプすることが多いだろう。それはたとえば、誰かにペットのことを聞かれたときなどだ。ペットというと誰もが、ディズニー・アニメのMr. Fluffypantsみたいな画像を期待するんだよねー。今日(米国時間10/16)Googleは、Photosアプリの中でペットの写真だけを一箇所に集められる簡単な方法を導入した。それはGoogleの顔認識技術を利用する機能で、下図のように人間の顔とペットの画像をまとめることもできる。

ペットの名前〔下図では‘Oliver’〕を指定できるから、一般的に“dog”とタイプする方法に比べるとずっと便利だ。さまざまな犬の写真がある人にとっては、とくにね。

人間の顔写真を名前でグループ化できるように、ペットの顔にも名前をつけておくと、それらを簡単に取り出せるし、それらの写真を使ってアルバムやムービーやフォトブックを作ることもできる。

またGoogle Photosでは、動物の品種(犬種など)による検索ができるし、絵文字で犬や猫を検索できる。同社が今年の初めに導入した機能を使うと、ペットを主役とする短編ムービーを作れるが、写真をあらかじめ選んでおいて既成の動画をくっつける簡易な方法もある。

ペットの(そしてもちろん子どもの)写真を便利に操作できる機能は、写真アプリの重要なセールスポイントだ。たとえばGoogleのカメラ新製品Clipsでは、子どもやペットの‘動き’を無音で撮れるから、ベストショットを捉えやすい。しかもベストショットは、一連の動きの中からAIが自動的に選んで決めてくれる。

Google Photosのこのペットフレンドリーな機能は、世界のほとんどの国で今日から提供される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

iPhone 8のカメラのポートレートライティング機能でプロがスタジオで撮ったような高級感ある写真を作れる

iPhone 8のカメラには、これまでのポートレートモード(Portrait Mode)に加えて、“ポートレートライティング”(Portrait Lighting)という新しい機能がある。この機能は機械学習を使ってカメラの画像をリアルタイムで分析し、それに基づいてプレビュー段階またはPhotosアプリで撮影後に、ライティングの効果を変えられる。

iPhoneでAppleは、人が気軽にいつも持ち歩くようなカメラに高度な撮影効果を持たせようとしているが、これもその一環だ。昨年のポートレートモードでは、人工的なボケ効果で背景をぼかし、被写界深度を変えたような写真を作れた。そして今回のイフェクトは、人工的にライティングを変えて、まるでプロの写真家が高価な照明装置のあるスタジオで撮ったような画調を作り出す。

Appleは、これがフィルターの一種ではないことを強調している。シーンを分析して、その結果に基づいて画像情報を自動的に調整するのだ。たとえば、いろんな部分の露出やハイライトを変えて、ダイナミックなライティング効果を作り出す。

今日(米国時間9/12)見たデモでは、顔の輪郭を明るくするとか、額(ひたい)などのハイライトを変えて単灯のステージライトが当たってる感じにしたり、顔をグレースケールにしてほかのものを黒っぽくフェードさせる、といった効果を見た。

この超クールなイフェクトは、iPhone 8 Plusのデュアルカメラを必要とする。だれもかれもがこの機能を使い始めたら、Instagramのフィードが、一見すごい上手な写真ばかりになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))



カメラテスト専門のDxOMarkにとってもスマホカメラのテストは曲者、次々と新しいテスト項目が加わる

カメラを試験することがDxOMarkの仕事だが、DSLRやミラーレスは最近目立った変化や進歩や新しい機能がなくなってきたのに対し、スマートフォンなどモバイルのカメラは違う。デュアルレンズや光学ズームなど、各社がさまざまな新しい機能で競争に明け暮れているから、それらを試験して点をつける側も、日に日に新たなテスト用セットアップが必要になる。同社は最近の評価要素の構成を、このページで紹介している。

まったく新しいテストが二つあり、そして前からのテストも一部が更新された。

まず、スマートフォンカメラのズーム機能や、焦点距離の異なる複数のカメラの使用に対しては、もちろんズームのパフォーマンスをテストする。光の条件によっては、カメラ1台の方が良いのか。特殊なイフェクトや機能があるのか。モードによって優劣はあるか。などなど。

新しいテストの第二は、DxOMarkが“Depth Effects”と呼ぶイフェクトだ。いちばんよく知られているのは、iPhoneの“ポートレートモード”だろう。ユーザーの顔や体を検出し、背景をぼかす。そうすると、被写界深度が浅いような写真になる。この処理がお粗末な機種では、像が歪んだり、前景がぼけたりする。このイフェクトのスムーズさと正しさを、いくつかのテストで判定する。

合成画像は、それを“HDR”と呼んでいる機種もあるが、それは正しくない。露出の異なる複数の画像を組み合わせるのだが、これには新しい評価測度が必要だ。たぶんフレーム合成技術は、速い(明るい)レンズや感度の良いセンサーで、日常の利用に耐えうるものになるのだろう。

同社が、次に加えようとしている評価項目は、ぼくにとっても嬉しいものだ。それは、動きの捕捉の速さだ。ぼくの場合は、あまりにも多くの場合に、カメラのボタンを押したら、ねらった動きの直後しか撮れていない。まばたきをしているとか、おかしなポーズになってるとか。この、シャッターチャンスの遅れを調べて点をつける。被写体や撮影者の動きを、どのカメラが、正しく捉えているだろうか。

同社の新しいテストのセットアップを、ここで見ることができる。また評価や比較のやり方は、ここに説明されている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Instagramではもっとクリエイティブなやり方で写真やストーリーにお返事できる

Instagramが、またやりました。今度は、誰かがプライベートな会話で写真やビデオを送ってきたら、その写真などにいたずらをして、クリエイティブな返事ができるのだ。しかも会話の筋道は、失われない。

写真やビデオを受け取ったら、その会話のスレッドで返事(reply)ボタンを押す。すると写真が上右隅のステッカーに換わる。それをそこに置いたまま、返事で話の続きをする。

あるいは、そのステッカーをいろいろ動かしたり、傾けたり、その周りに飾りを描いたりできる。ビデオの場合は、最初の場面のスクリーンショットがステッカーになる。

右上のステッカー(上図左)をタップすると、それが画面の上半分を占領する(上図中)。下半分には、自分の自撮り(セルフィー)を入れられる。写真共有アプリにFrontbackってのがあるけど、それは目の前のものを撮って、それに対するリアクションを自撮りで送る。今回のInstagramの機能はそれと同じで、本来の話の筋道(コンテキスト、文脈)とリアクションの両方を送れる。

でももちろんInstagramならフィルターも使えるし、自分の写真の上にお絵かきをしたり、ステッカーを貼ったり、テキストを書いたり、いろいろなクリエイティブなツールをすべて一緒に使える(上図右)。リアクションも、写真以外にビデオ、ブーメラン、フィルターをかけた自撮りなどで送れる。

しかも今度の新しい返事(リプライ)の仕方は、ダイレクトメッセージ以外にも使える。たとえば何かのストーリーを見ているとき、画面下のテキストフィールドにテキストを記入したり、あるいは画面左下のカメラのアイコンをタップすれば写真やビデオを送れる。自分のストーリーを今見ている人から、さまざまなリプライが来るのだから、すごく嬉しいだろうな。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

人気写真加工アプリVSCOが動画にも対応――対象は有料ユーザーのみ

VSCOはフォトグラファーの間ではかなり名の通ったブランドで、デスクトップ版のプリセットに加え、フィルム写真風のフィルターや細かな編集ができるツールの揃ったモバイルアプリも人気を博している。これまでは写真に特化していたVSCOだが、この度iOS向けの新たなツールをローンチし、動画編集の分野にも手を伸ばそうとしている。この新しいツールを使えば、ユーザーはスマートフォンで撮ったさまざまなサイズの動画にフィルターを適用し、編集後の動画をソーシャルメディア上でシェアできるようになる。

VSCO独自の画像処理プラットフォームであるSENSを利用したこのツールは、30fpsの4K動画・60fpsのフルHD(1080p)動画までサポートしており、それ以下であれば動画の解像度や長さに制限はないと同社は語る。

動画編集分野への進出にあたっては、上記のSENSこそが他社アプリとの機能面における差別化のポイントだとされている。VSCOの共同ファウンダーでCEOのJoel Floryは、動画編集ツールのローンチ以前にも、SENSのおかげでiOSの高画質RAWフォーマットや短い動画をアプリ内で扱えるようになったと、6月のFast Companuとのインタビューで語っていた。

しかし、VSCOユーザー全員が新しい動画編集ツールを使えるというわけではない。この機能が使えるのは「VSCO X」と呼ばれる有料プランに加入しているユーザーだけだ。

VSCO Xとは年額19.99ドルで加入できる有料メンバーシップで、加入者は毎月追加される新しいプリセット、ツール、情報コンテンツなどを利用できる。

VSCOによれば、動画編集ツールはAndroidに先駆けて、まずiOSのVSCO Xメンバー向けに公開されるとのこと。

iOSのVSCO Xメンバーは、動画編集ツールに関する情報が記載されているStudio内のバナーをタップすれば、新しいツールを使うことができる。

ツールを開くとカメラロール内の動画が表示されるので、そこから編集したい動画を選択。編集時は、VSCO Xライブラリー内のプリセットに加え、コントラストや彩度といったスタンダードな編集項目も利用可能だ。編集後の動画はカメラロールに保存されるので、ソーシャルサイトで共有したい場合はそこから選択すればOK。

「VSCOのミッションはより良いクリエイターを生み出す手助けをすることです。数あるカテゴリの中でも、動画は現在私たちが情熱を持って取り組んでいる分野です」とFloryは動画編集ツールについて語る。「VSCO Xメンバーに対する動画編集ツールの提供は、無限の可能性を秘めたVSCOの動画編集ツール開発の第一歩だと考えています」

VSCOには若者が中心の活発なコミュニティもある、と同社は話す。月間アクティブユーザーの88%はミレニアル世代とジェネレーションZ(1990年代中頃から2000年代中頃までに生まれた若年層)で構成されており、70%のユーザーが毎日アプリを使ってコンテンツを作っている。またVSCOによれば、アプリ内のMAU(月間アクティブユーザー数)は、昨年はじめに3000万人のマイルストーンに到達したとのこと。

  1. videoeditingfinal1

  2. videoeditingfinal2

  3. videoeditingfinal3

  4. videoeditingfinal4

  5. videoeditingfinal5

  6. videoeditingfinal6

当時VSCOは、新しい分野への進出の意向を示していた。さらにその後同社は、AdobeでCreative CloudのローンチのビジネスオペレーションやM&A、ビジネスディベロップメントなどを担当していたBryan MasonをCOOに迎えた。

現在VSCOアプリは、App Storeの中でも競争が激しい「写真/ビデオ」カテゴリで15位にランクインしている。ランキング上位には、Instagram、YouTube、Snapcat、Google Photo、Musical.ly、Facebook Moments、Adobe Photoshopなど大手企業の名前が並ぶ。

これまで同社はそこまで動画に力を入れていなかった。写真以外のフォーマットとしては、GIF制作用のDSCOと呼ばれるアプリを以前ローンチしたが、これは今年の2月にVSCOのメインアプリに吸収された。

iOS版のアプリはApp Storeから無料でダウンロードでき、Android版も「数週間のうち」に公開されるとVSCOは話している。しかし、今のところデスクトップ向けの動画編集ツールが公開される予定はない。

原文へ

(翻訳:Atsushi Yukutake

iOSのLive PhotosをGIF化するGoogleのMotion Stillsアプリ、Android版が登場

【抄訳】
Googleは昨年、iOSのLive PhotosでいろんなことができるアプリMotion Stillsをリリースした。ぼやけたフレームを切り取ったり、画像を安定させたりできるほかに、Live Photosのインスタント動画を、多くの人と共有できるGIF画像に変換することもできた。そして今日(米国時間7/20)Googleは、若干変更を加えたMotion StillsをAndroidでも使えるようになった、と発表した。

AndroidにはLive Photos機能がないのにMotion Stillsとはどーゆーことだ? ご存知のようにLive Photosは、Appleが2015年に導入した機能で、iPhoneユーザーがふつうにスナップ写真を撮ると、写真が超短編の動画にもなる、という仕掛けだ。

しかし今年の後半に発表される予定のiOS 11では、LivePhotosの編集機能が最初からとても充実しているので、サードパーティのアプリケーションがなくても切り取り、重要シーンの取り出し、エフェクトを加える、などの作業ができる。ループ・エフェクトもあるから、Live PhotosをGIF的に見ることもできる。〔GIFへの変換機能は?〕

そこでGoogleは、せっかく作ったMotion Stillsの、ユースケースを広げよう、と決意したのだ。まず自分のプラットホームであるAndroidから。

同社によるとAndroidアプリのMotion Stillsには、Live Photosと同じように、写真を撮ったらすぐにそれが、共有可能な短編のビデオクリップにもなる、という機能がある。使い方は。Motion Stillsをタップして写真を撮るだけだ。Google版のLive Photosか? そう、まさにそのとおり。

もうひとつの新しい機能Fast Forward(早送り)は、長い録画を短くする。対応する最長は1分まで、処理はスマートフォン上で行われる。動画の再生速度は1から8倍まで指定可能だ。Googleはビデオ圧縮技術に工夫を凝らして、早送りでもなめらかで安定の良いクリップを作っている。オリジナルがぐらぐらしていても、友だちとシェアして恥ずかしくない動画へと加工される。

技術的な詳細に興味(と理解)のある人は、このドキュメントや、そこからリンクされているWikipediaをお読みいただきたい。

下のデモビデオ(GIF)は、オフロードバイク(自転車)のツアーを、Motion Stillsで早送りしている:

通常の動画のGIF化にも、Google独自の技術を使っている。撮影〜録画時に各フレームを拾っていくので、なめらかなGIF画像が、撮影が終わると同時に完成している。

Googleによれば、このアプリをきっかけとして同社は、短編ビデオに関する技術の実験を今後も続けていく。そしてその技術の一部は、将来のGoogle Photosで利用されるかもしれない。

Android版のMotion Stillsは、Google Playで無料でダウンロードできる。Androidは5.1以上であること。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Lightroom for Androidがデザインを完全に改装、‘iOSファースト’の姿勢は崩れず

Adobeが同社の写真管理/編集アプリLightroomのiOS/Android両バージョンを今日(米国時間7/18)アップデートした。iOSバージョン(iPhone, iPad用)は、ブラシ(絵筆)の選択や、ディテイルタブが増え、iPadバージョンはインタフェイスがアップデートされた。でも今回の目玉は、Androidアプリがデザインを一新したことだ。

Adobeは長年iOSを優遇してきたベンダーで、今ではAndroid上にほとんど何でもあるけど、iOS版に比べるとやや手抜き感がある。Android上のLightroomはデスクトップバージョンに十分対抗できる出来栄えだが、きびきびしたネイティブな使い心地には達していなかった。

Adobeは今日の声明でこう述べている: “Android上で最良の体験を提供するためにLightroomのデザインをゼロからやり直し、高速性と効率性を担保、そしてAndroidらしさを前面に打ち出した。どの画面も新しいデザインに変えられ、自然でネイティブなAndroid体験をお届けするとともに、プロ級の高品質な写真編集機能をモバイル上に実装することができた”。

残念ながら、今の線形および放射状のグラデーションを補完するSelective Brush(ブラシ(絵筆)選択)や、シャープさとノイズをグローバルにコントロールするDetail(ディテイル)タブは、やはり、‘iOSが先’となった。Android上では、かなり待たされるのかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Web全域に拡散する製品や商品の画像を企業が追跡できマーケティング貢献度も分かるShareIQのサービス

製品や商品の画像がInstagramやPinterest、Tumblrなどなどの上で今やたくさん共有されている。そこでShareIQは、そんな状況を理解し利用しようと企業やお店に呼びかける。

ShareIQのファウンダーでCEOのBrian Killenは、マーケティング企業Acxiomの企画部長だったが、ある日、某小売企業のマーケティング担当役員にこう言われた: “Pinterestや世界中のWebサイトの至るところでうちの商品の写真を見るが、その商品や製品の情報はどこにもない。消費者はその品物を、どこでどうやって見つければいいんだ?”、彼のその質問に答えるべく、KillenはShareIQを立ち上げた。

マーケティングツールとしてのソーシャル・フォト・シェアリングはCuralateOlapicもやっているが、Killenの言うShareIQのユニークさは、商品/製品の画像のWeb上の拡散状況と、それらの画像の売上への貢献具合が分かることだ。

ShareIQ dashboard

ShareIQのアナリティクス機能により、そのブランドの人気コンテンツや、そのコンテンツが獲得したオーディエンス数などが分かる。また“シェアツリー”と呼ぶ視覚化により、コンテンツの拡散に貢献しているユーザーやパブリッシャーたちが分かる。そして、競合他社や競合ブランドとの比較もできる。

製品/商品の画像を見たりシェアした人を“カスタムオーディエンス”に仕立てると、その人が今後クールな製品の写真を見たとき、それをどこで買えるかという広告ないしリンクも表示される。

KillenによるとShareIQのキモは、それが、画像と関連データを保存する新しい方法であることだ。企業ユーザーは、大規模に、高い精度と速度で、そしてとても低い費用で、ShareIQのサーバーを利用できる。その結果、毎日Web上に登場する新しいコンテンツに企業が遅れないための、インフラストラクチャになる。

これまで同社が処理した画像は、約7500億点だ。

ShareIQが公式にローンチしたのは今週だが、顧客の中にはすでに、Tommy Hilfigerがいる。ベルリン発のShareIQは、ニューヨークに初めてのアメリカ事務所を開く。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google I/O: Lensは「たこ焼き」の看板をリアルタイム翻訳―スマートフォンのカメラが賢くなる

今日(米国時間5/17)、Google本社に隣接するショアラインアンフィシアター野外劇場で開幕した Google I/Oデベロッパー・カンファレンスのキーノートで、CEOのスンダー・ピチャイはGoogle Lensという新しいテクノロジーを発表した。

これはGoogleのコンピューター・ビジョンと人工知能を統合し、スマートフォンのカメラからダイレクトに有益な情報を得ることができるシステムだ。Googleの説明によれば、スマートフォンのカメラは単に目に見える情報を撮影するだけでなく、写された対象を理解してユーザーが適切な行動を取るために役立つ情報を提供する。

Googleはユーザーが花を撮影しようとしてカメラを向けるとLensが即座に花の種類を教えてくれるところなどをデモした。

ピチャイはLensは日常のタスクでも役立つ例も挙げた。たとえばスマートフォンでルーターのラベルを撮影するだけで簡単にWiFiに接続できる。 Google LensはルーターのIDとパスワードを読み取り、タップするだけで自動的にそのWiFiに接続するアイコンを表示してくれる。

その次の例では 通りがかりの店舗を撮影すると、Google Lensが店名を読み取り、ウェブを検索して各種のビジネス情報をカード形式で表示する。

このテクノロジーはスマートフォンのカメラを撮影だけでなくモニタに写った対象に関する情報を得ることができるツールに変える。

Pichaiの説明の後、 Scott HuffmanはGoogle Homeのデモ中でGoogle Assistantに組み込まれたLensの能力を示した。Assistantアプリに追加された新しいボタンをタップするとLensを起動し、Assistantを通じてLensと会話し、写真の内容を尋ねることができる。

Scott HuffmanがカメラをStone Foxesのコンサートのポスターに向けるとGoogle Assistantはチケット・セールスを含めてコンサートに関する情報を表示した。Huffmanがオンラインでチケットを購入し「これをカレンダーに追加」と命じるとその通りにスケジュールが設定された。

LensとAssistantの統合は翻訳にも威力

Huffmanがカメラを〔「たこ焼き 6個 130円」という〕日本語の看板に向けて「これは何?」と尋ねるとGoogle Assistantは即座に正しく英語に翻訳した。

 

ピチャイはまたGoogleのアルゴリズムが写真の質を改善することができることも示した。たとえば金網越しに子供の野球試合のシーンを撮影したような場合だ。Googleの人工知能は目障りな金網を自動的に取り除いてくれる。また暗い場所で撮影した場合、Googleはピクセルノイズやブレを補正し、写真を見やすくしてくれる。

GoogleはI/OカンファレンスではLensがいつ一般公開されるか日時は明らかにしなかった。しかし「すぐに」手に入るようになるという。


[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleが不動産販売のMatterportとパートナーして屋内ストリートビューの360度3D画像を一挙に充実

知らない場所へ行くときには、事前にGoogleのストリートビューを見ると、だいたいの様子が分かる。しかしそれが屋内の場所なら、そのやり方が通用しない。

でも最近のストリートビューでは、一部の家やお店、企業などの建物の中に入って見れるようになった。それが今日(米国時間5/9)、GoogleがMatterportとパートナーしたおかげでさらに増えた。

Matterportは不動産会社で、顧客がその家を実際に見に行くか行かないかの判断材料として、3Dスキャンの画像を作って提供している。同社は最近、Qualcomm Ventures, Greylock Partners, そしてY Combinatorからの約6500万ドルの資金調達を公開した。

【3D画像】

〔ここに3D画像が表示されない場合は、原文のページを見てください。〕

ストリートビューの場合と同じように、クリックしたりドラッグしたりして建物内を3D/360度で見て回れる。画像中の二重丸のようなボタンをクリック(タップ)すると、特定のアイテムの前でとまる。

このような屋内見学は、すでにGoogleが360度写真家たちとのパートナーシップである程度実現しているが、Matterportとのパートナーシップでそれが一挙に50万箇所あまりに拡大した。それらはWebのほかに、VRのヘッドセットでも見ることができる。Matterportも個人の写真家と契約しているので、内容の充実は今後の彼らの活躍にかかっている。でも同社は、不動産販売のお客用以外の画像も今後大きく増やしていく、と言っている。

GoogleがストリートビューのAPIを公開しているのはMatterportだけではないが、360度スキャンに加えて3Dの画像も提供するのは同社だけだ。GoogleもVR(仮想現実)などの新しい技術に意欲的だから、そのための強力な画像や映像が今後さらに充実していくだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Appleの新しいポートレートモードで撮ると上海が誰もいない二人だけの都市になる

AppleがiPhone 7 Plusのポートレートモードを紹介するコマーシャルをリリースした。おもしろいのは、全体が中国で撮られていることだ。今やアメリカやヨーロッパと並ぶ、重要市場だから。

中国といっても、ここで見せられるものは上海の街路と若いカップルだ。二人はどうやら、この都市を探検しているらしい。通りは混んでて騒々しい。でも男がiPhone 7 Plusをポートレートモードにすると、人びとは消える。

数年前、上海に住んでいたから、上海の街路に誰もいない光景は、感動的と言わざるをえない。最大の観光スポットBundにも、人がいない。でも空のスモッグを取り除くことは、Appleにもできなかった。

この新しいポートレートモードは、背面の二つのカメラを利用する。写真の中のいろんなもののあいだの距離を計算して、背景をソフトウェアでぼかす。

ご覧のように、都市を新しい視角で切り取ることもできる。ぼくは賑やかな都市が好きだけど、でもiPhoneだけにしかない特徴を示す、おもしろいコマーシャルだ。

関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Pixelで星だけを光源にして美しい夜景を撮れた…一般消費者向けに実装されると嬉しいのだが

GoogleのPixelは、元々カメラがすごい。スマートフォンのカメラとしてはベストに属する。そしてGoogle DaydreamのエンジニアFlorian Kainzは、とくに夜景がすばらしいことを実証した。彼はPixelとNexus 6Pの両方を使って、まるでプロ用のデジタル一眼レフで撮ったような高品質な夜の写真に挑戦したのだ。

その実験は、Google Researchのブログに詳しく載っているが、Androidスマートフォンのカメラを限界ギリギリまで追い詰め、最大露出時間を使い、64フレームのバースト撮影を行い、それらのショットを、カメラのレンズにテープを貼って撮った漆黒のフレームとミックスし、そしてデスクトップコンピューターの上で大量の後処理を施す。

繰り返すことのできる、比較的易しい部分は、露出時間や焦点距離やISOを設定できるための簡単なAndroidアプリを書くこと、そしてそれで撮った生の画像をデスクトップの画像処理ソフトウェアで加工することだ。いちばん難しい部分は、変化する星の位置に合わせて、撮りためた複数のショットを整列することだろう。ふつう、長時間露出の夜景では、夜空の星の軌跡がまるで円周の線のように写ってしまう。

  1. image2.jpg

  2. image1.jpg

  3. image4.jpg

  4. image12.jpg

  5. image8.jpg

  6. image11.jpg

KainzがNexus 6Pと、それより新しいPixelの両方で作った画像は、ほとんどノイズがなく、夜の空の表現がすばらしくて、星たちもクリアでシャープ、前景の描写も細かい。使用した光源は星だけなのに、プリントする価値のある結果だ。

でもやはり、デスクトップで画像処理ソフトと悪戦苦闘しなければならないから、一般消費者には無理かもしれない。しかしKainzはブログ記事の最後のほうで、画像処理をスマートフォン上でできるようになり、そしてスマートフォンを三脚に固定できれば、バーは低くなり、単純に写真が好きなだけの一般消費者でも美しい夜景を撮れるはず、と言っている。

でもこれがきっかけになって、次のPixelやAndroidのバージョンの写真機能が、ユーザーにとってさらに魅惑的になるかもしれない。そう望みたいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

iPhoneのLive Photoを誰もがWebブラウザー上で再生できるJavaScriptをAppleがリリース、まずご自分のWebサイトから

AppleのLive Photosは楽しい。多くの場合、ふつうのスチル写真にない意外な瞬間を捉えることができる。でもそれらは、スマートフォンとそのアプリの中から外には出られない。それらがWeb上に出回ることは、とくにデスクトップのWebブラウザーの場合、ごく稀だ。

Tumblrは昨年、この壁をすこし破り、WebアプリケーションにLive Photosを加え、それをするためのツールも公開した。でも、Apple公認の方法はまだどこにもなかった。

それが今朝(米国時間4/20)秘かに変わり、AppleはデベロッパーポータルのアップデートでLivePhotosKitというツールをリリースした。それは、ユーザーのWebサイトにLive Photoの再生機能を持たせるJavaScriptのAPIだ。

本誌TechCrunchはまだそれを加えていない。GIFよりずっと良いWebMもまだだから、ここではまあまあのGIFをご覧いただこう(上図)。実例は、ここで見られる。

なかなか良くできている、と思うけど、Appleの実例を見るかぎり、Web上でLive Photoを再生する方法が、よく分からない。

単純なクリックとか、画像上のホバリングとか、画面のスクロールで、再生をトリガ(起動)できないかな?

Appleの実例の場合は、画像の右上にある[LIVE]のマークの上をマウスがホバリングすると再生が始まる。分かれば簡単だけど、ぼくなんか最初のしばらくは、Appleのサイトがフリーズしちゃったのか、と思った。

このAPIのAppleのドキュメンテーションは、モバイルも含めて、主なブラウザーのほとんどでうまくいく、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))