アップルが最新iPhoneのカメラにML合成技術「Deep Fusion」のベータを導入

米国時間10月1日、Apple(アップル)は新しいiPhoneのカメラでDeep Fusionのベータ版を使えるようにした。これはiOSのアップデートとして提供される。Deep Fusionは複数画像をピクセルごとに合成して画質をアップするテクノロジーで、従来のHDRよりも高度な処理だ。特に、皮膚、衣服、植生のような複雑な対象の描写で威力を発揮するという。

今回のリリースはデベロッパー向けベータ版で、iPhone 11のカメラでは広角レンズが、 iPhone 11 ProとPro Maxではワイドに加えて望遠レンズがサポートされる。ただし超広角はサポートされない。

Appleによれば、Deep Fusion処理にはA13 Bionicプロセッサーが必要とのこと。つまり上記以外の旧モデルではこの機能は利用できない。

iPhone 11 Proのレビューでも詳しく説明してきたが、新しいiPhoneは写真の撮影にあたってソフトと専用ハードの両面から機械学習を積極的に利用している。

iPhone 7でAppleは写真の画質を改善するために広角レンズと望遠レンズから得られる情報を合成し始めた。このプロセスはユーザーの介入を必要とせずバックグラウンドで自動的に行われた。Deep FusionはこうしたAppleの写真哲学をさらに一歩先に進める素晴らしいテクノロジーだ。

E020289B A902 47A8 A2AD F6B31B16BEC8

Deep Fusionは一定のシチュエーションで自動的に起動されて画質を改善する

光源の状態によって異なるが、広角側での撮影ではナイトモードが使われる10ルクス以下の暗い状況では自動的に起動する。望遠側では常時起動しているが、極めて明るい撮影状況ではスマートHDRに切り替わる。ハイライトの光量が非常に大きい場合にはこちらのほうが有効だという。

AppleはDeep Fusionを利用した撮影サンプルを多数発表しているのでそれらを記事にエンベッドした。Deep Fusionが実際に使えるようになったので、利用した場合と利用しない場合を比較した写真もアップされるようになるだろう。

Appleによれば、Deep Fusionの仕組みは概ね以下のようなことだという。

カメラは段階的にEV(光量)値を変えるブラケット撮影を行う。最初はEV値をマイナスに振り、シャッター速度が速い暗めの映像を撮影する。ソフトウェアはここから鮮明さを得る。次に適正EV値で3枚撮影し、最後にシャッター速度を遅くしEV値をプラスにしたショットを撮影する。これらの映像を合成して2枚の画像を得る。

ここで生成された1200万画素の写真2枚をさらに2400万画素の写真1枚に合成する。最後の合成を行う際には4つの独立のニューラルネットワークが用いられ、iPhoneの撮像素子のノイズ特性や撮影対象が何であるかが考慮される。

合成処理はピクセル単位で実行される。機械学習モデルが撮影された画像の「空間周波数」を含めた情報を把握して最良の画質を得るための合成方法を決める。空などは全体が比較的単調で繰り返しが多いが、画像周波数は高い。人間の皮膚は画像周波数は中位、衣服や植生は画像周波数が高いが、どちらも複雑な画像だ。

Deep Fusinシステムはこうした画像各部の特質を把握して全体の構成を決定し、最良の結果が得られるようピクセルを選ぶ。

Appleによれば、こうした処理によって皮膚の質感や衣服のディテール、動く対象のエッジの鮮明さなどが改善されるという。

現在のベータ版では、Deep Fusionのオン、オフを切り替える方法はないが、超広角はDeep Fusionをサポートしていないため、これを利用してDeep Fusionの「あり」と「なし」を比較するテクニックがあるもようだ。

Deep Fusionは実行に1秒程度必要とする。ユーザーが撮影後すぐにタップしてプレビューを見ようとした場合、画像が現れるのを0.5秒ほど待つ場合があるかもしれない。しかしこの程度であればほとんどのユーザーはバックグラウンドでDeep Fusion処理が行われていることに気づかないだろう。

まずは実際に使ってみたいところだ。我々はDeep Fusionが利用できるようになり次第テストを行い、結果を報告するつもりだ。

原文へ

(翻訳:滑川海彦@Facebook

Samsungのゲーム用曲面モニタ最高級機はHDR, QLED, AMD FreeSync 2など最新技術を満載

Samsungのゲーム用曲面モニターが、新しい技術を山盛りにしてアップデートされた。サイズは27, 31.5, 49インチと3種類あり、それぞれC27HG70, C32HG70, C49HG90と呼ばれる。最新最良のモニター技術を詰め込んだと言われるそのパッケージの第一印象は、は、なかなか立派だ。

三機種ともHDR(high dynamic range)を実装し、光域(輝度レンジ)を広げている。量子ドットLEDがsRGB色空間の125%、DCI-P3色空間の95%をカバーし、AMDのFreeSync 2技術がスクリーンティアリング(screen tearing, 画面が裂ける現象)を回避する。

これほどのハイスペックでありながら、リフレッシュレートは144Hzを安定的に維持し、視野角度は178度だ。

機種によって異なるのは解像度だけで、49インチの機種は3840×1080と超ワイド、31.5と27インチは2560×1440だ。

個人的には49インチの曲面ディスプレイは要らないし、置く場所もない。でもSamsungは、この超ワイドな画面を必要とするユーザーが必ず存在する、と確信している。

  1. 20170608_125827.jpg

  2. 20170608_130046.jpg

  3. 20170608_130408.jpg

スクリーンティアリングを避けるためにAMDの技術を採用することには、不利な一面もある。つまりFreeSync2をサポートしているAMDのカードを使えばよいわけだけど、そのほかの、たとえばNVIDIAなんか使うと、その機能はない。

でもあえてAMD派になった人には、熱心なPCゲーマーでも、eスポーツのプロフェッショナルでも、あるいは編集やビデオのプロでも、快適な日々が待っている。どの機種にも高さや角度を調節できるスタンドがあり、オーディオ出力、マイクロフォン入力、HDMI、DisplayPort、そしてUSB 3.0のポートがある。

買える場所は、Amazon, Newegg, Samsung直販など。49インチは1499ドル、32インチは699ドル、27インチは599ドルだ。発売は6月末〜7月初の予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

iOSとAndroidでRAW HDR撮影が可能に―Lightroom Mobileが新機能追加

ポケット・フォトグラファー諸氏に朗報だ。AdobeがLightroom Mobileの最新のアップデートをしたおかげでお気に入りのスマートフォンやタブレットが一段と強力なカメラになる。 iOSとAndroid版のLightroomアプリがRAW HDRをサポートした。ただしこの機能をサポートするのは以下のようなデバイスだ。iOSではiPhone 6s以降、iPad Pro 9.7インチ、AndroidではGalaxy S7、S7 Edge、Google PixelのユーザーならさっそくRAW HDRを試すことができる。

自分のスマートフォンはもうHDR撮影をサポートしているといぶかるユーザーもいるかもしれない。しかしRAWは通常のjpgファイルに比べてはるかに多くの撮影情報を保持している。Lighroomに内蔵されている機能でスナップを3枚自動的に連写することができる。この場合1枚は適正露光、1枚はオーバー、1枚はアンダーで撮影される。

通常のjpg HDRは通常2枚しか撮影しない。またjpgファイルということは保存の際に強力な圧縮が掛けられることを意味し、大量の情報が失われる。その結果出来栄えはこの処理を反映したもの―つまり不自然になりやすい。

interface-3

ユーザーがCreative Cloudの契約者である場合、RAWファイルは自動的に出ストップに同期される。つまりiPhoneで撮った写真を後でデスクトップのLightroomで自由に編集することもできるわけだ。またRAWファイルをそのままiOSの写真アルバムに追加することができるので、必要なら他のアプリに送ったり、コンピューターにダウンロードしたりできる。つまりCreative Cloudの契約者でなくても他のアプリで編集可能だ。

モバイル版Lightroomは登場以来着実に機能を増やし、デスクトップ版の強力な補完アプリとなっている。フォトグラファーは出先で自由に編集できるので、そのつどデスクトップに縛られずにすむのは非常に便利だ。Lightroomが強化されるにつれて、プロ、マニアともにモバイル・デバイスで高品位な写真が撮れると納得するようになってきた。専用カメラを家に置いて外出する機会が増えるに違いない。

〔日本版〕フィーチャー画像は洞窟の中から海を撮ったもので極端な明暗差があるため通常では黒ツブレするか白トビする。また通常のHDRではペンキを塗ったような独特の描写になるが、この写真はかなり自然。ただしAdobeがRAW HDRをサポートしているのは記事中のデバイスのみ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

YouTube、HDRビデオのサポート開始

A picture shows a You Tube logo on December 4, 2012 during LeWeb Paris 2012 in Saint-Denis near Paris. Le Web is Europe's largest tech conference, bringing together the entrepreneurs, leaders and influencers who shape the future of the internet. AFP PHOTO ERIC PIERMONT        (Photo credit should read ERIC PIERMONT/AFP/Getty Images)

今日(米国時間11/7)、YouTubeのビデオ画質がアップグレードされた。 ビデオでHDR〔ハイ・ダイナミック・レンジ〕のサポートが開始され、コントラストの対応範囲が大きく向上した。つまり暗い情景でもコントラストがはっきりし、今までよりも鮮明に色彩を見分けることができる。ただし、現在のところこのテクノロジーは一般に普及する途上にあるので、ビデオをHDRで再生できるのは一部のユーザーとなるかもしれない。

むしろYouTubeがHDRのサポートを開始したのは、将来への対処という面が強い。

しかしユーザーが幸運にもHDRテクノロジーを搭載したテレビを持っているなら、一部のビデオでHDRを楽しむことができる。Googlによれば、HDRをサポートするYouTubeチャンネルにはMysteryGuitarManJacob + Katie SchwarzAbandon Visualsなどが含まれるということだ。機能のリリース当初にHDRで見られるビデオのプレイリストはこちら

hdrsim

Above: SDR vs HDR comparison, simulated (via YouTube)

ユーザーはHDRビデオをGoogleの最新のChromecast Ultraデバイスを通じてHDRテレビに表示できる。先ごろ発表されたChromecast Ultraのセールスポイントは4KとHDRのサポートだった。

前述のようにHDRはHDRテレビにのみ有効だ。たとえばSamsungの 2016 SUHD、UHDテレビなどだ。HDRは専用のハードウェアを必要とするので既存のディスプレイのソフトをアップグレードすればすむというわけにはいかない。そこで現在のところではHDRビデオを楽しめるのは一部のユーザーに限られることになる。

しかし将来新しいディスプレイが普及すればYouTubeがHDRをサポートすることは大きなセールスポイントになるだろう。

ライバルより一歩先んじたいビデオ・クリエーターの場合、YouTubeが昨日からHDRのアップロードを受け付けるようになったことは重要だ。Blackmagic Designのプロフェッショナル向けカラーコレクション・システムのDaVinci ResolveではHDRのアップロードを通常のダイナミック・レンジのビデオ同様簡単にアップロードできるようになるとしている。またロサンゼルスとニューヨークのYouTube SpacesではHDR録画デバイスが利用可能だ。ハイ・コントラストを可能にする高度なデバイスを必要とするユーザーはチェックしてみるとよいだろう。

画像: ERIC PIERMONT/Getty Images

〔日本版〕Blackmagic Designの日本サイトのページはこちら。YouTube Spacesは東京の六本木にもある。HDR機器が利用できるかどうかはまだ情報がない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+