Instagramが6.0にバージョンアップ―シンプルな使い勝手を維持してフィルター機能を大幅強化

“InstagramのCEO、Kevin Systromは私のインタビューに答えて「Instagramには訪問者は多いが、これまでそこで写真を編集しようというユーザーはあまりいなかった」と語った。 そこで今日(米国時間6/3)、Instagram9種類の新たなフィルターとフィルターの適用強度を加減できる機能をリリースした。今やInstagramはCamera+やPhotoshop Express無料版なみの写真編集能力を備えるようになった。Systromは「写真マニアにすてきな遊び場ができたはずだ」と語った。

このInstagram 6.0アップデートはiOSAndroid(4.0 Ice Cream Sandwich以降)向けに本日公開された。

今回Instagramに追加された編集機能は以下のとおりだ。

  • フィルター強度: フィルターをタップして適用する強度を調節
  • 調整: トリミングと傾き修正を同時に実行
  • 明るさ:明暗のコントロール
  • コントラスト:コントラストの調節
  • 色温度: 色温度を選択し、オレンジ色方向、青色方向に調節
  • 彩度:色の濃度を調節(赤をもっと赤くするなど)。
  • ハイライト:写真の明るい部分の明るさを調節
  • シャドウ: 写真の暗い部分の明るさを調節
  • 周辺光量: 画面の中央に注意を集めるために端を暗くする。
  • シャープネス: 輪郭を強調して画像にくっきりした印象を与える。

これらの新フィルターに加えて新しいレンチ・アイコンの設定メニュー、適用強度のスライダーを組み合わせ用いることで非常に高度な編集が可能だ。またプレビュー写真をタップして編集前の写真を表示し、効果を確認することができる(手順は下のデモ動画に詳しい)。

今回の新機能で特に重要なのはフィルターの適用強度を変化させることができるようになった点だ。Systromは「われわれはユーザーがもっと微妙なフィルター効果を望んでいることにしばらく前から気づいていた。今回のアップデートで、たとえばバレンシア・フィルターを使う場合、ほんのわずかセピア色を加えるといったことができるようになる。フィルターを適用した途端にいきなりサイケデリックな色調になってしまうようなことはなくなった」と語った。

新機能はレンチ・アイコンの背後に畳まれており、あまり目立たない配置だが、Systromによればそれが狙いなのだという。メイン画面を混雑させて一般ユーザーを遠ざけるおそれなしに、熱心なユーザーだけが必要に応じてアクセスできるようにデザインしたそうだ。

同様の思想でビデオ編集もシンプル化された。これまでは動画がスタートする前のカバー静止画のフレームをビデオのシーンからいちいち選択する必要があった。新バージョンではカバー・フレームの選択はオプションとなった。Systromは「われわれが調査したデータによると、ほとんどユーザーが最初のフレームをカバーフレームとしていたので、それをデフォールトのカバーフレームにしたという。

つまりこのアップデートでは多くの機能が追加されているものの、Studio DesignPicStitchのように高度写真編集をメインとするという脇道に迷いこまないように慎重に配慮されている。これはInstagramの広いユーザー層を考えれば賢明な方針だろう。

Systromはまた、「われわれは写真アプリを開発するだけでなく、ソーシャル・・ネットワークの構築に力を注いできた。 その結果、2億人以上のユーザーを集め、ソーシャル・ネットワークの構築で大成功を収めることができた。そこで次に写真機能の強化に戻ることにした。しかしソーシャル面でもやるべきことは多々ある。たとえば友だちの投稿の中で反響の大きかった写真がFacebookのニュースフィードのように次々に表示されるような仕組みを作ればユーザーの利用度をさらにアップすることができるだろう」と語った。


[原文へ]

(翻訳:滑川海彦 Facebook Google+


CENTR Camは元iPhoneカメラチームが開発した360°パノラマ動画カメラ

スマートフォンは今やコンパクト・デジタルカメラ市場を壊滅させつつある。その一方、GoProが10億ドル企業に成長したことは、ハイキングやスノーボードなどアウトドアの活動を簡単に高画質で記録できるビデオカメラには依然消費者が金を払うということを証拠立てている。

しかし撮像素子の感度が上がり、ビデオの手ブレ防止機能もつくなどスマートフォンのカメラが日々進歩しているので、一般消費者は単体のカメラになかなか200ドル以上を払おうとしない。iPhoneを持って行く気にならないような活動をひんぱんに行っているユーザーでなければGoProを買わないだろう。

CENTR Camは元iPhoneのカメラ・チームが創立したスタートアップで、自分の周囲360°で起きていることを誰でも簡単に動画で撮影できるカメラで消費者市場を開拓しようと狙っている。

CENTRは1080pのカメラ4台の画像を合成することで、インタラクティブに視点を変えられるパノラマ動画が撮影できる。これによって「自分の前方で起きていることしか記録できない」というこれまでのカメラの枠組みに革命を起こそうという考えだ。

このパノラマ動画テクノロジーは次世代ビデオを検討している大手メディアの関心も集めている。FOX Sports、National Geographic、DARPAがCENTRと提携しており、ダイナミックな360°映像をスポーツ中継や軍隊における訓練や戦闘の記録に利用する道を探っている。

またCENTRは3D環境での動画撮影に関してOculus VRと話し合いを始めている。

現在CENTRは一般販売を目指してKickstarterでクラウドファンディングを行っている。目標額は90万ドルで現在56万ドルが集まっている。あと2日で締め切りになるので興味ある読者は急いだ方がいい。〔日本版:本体価格299ドルから。外国送料55ドル。出荷は2015年2月を予定〕

[原文へ]

(翻訳:滑川海彦 Facebook Google+


アニメGIFを撮れるRaspberry Pi内蔵のデジカメOTTOはヒップな機能満載

カメラといえば写真かビデオを撮るものだが、このたびKickstarterに登場したOTTOは、アニメGIFを撮るのだ。下図でお分かりのように、ハンドルを手回しする。カラフルだ。ちょっとレトロなデザイン。ヒップなカメラという形容がふさわしいカメラは、こいつが初めてではないか。発売予定は12月だが、その後遅くとも2か月以内にはUrban Outfittersに登場するだろう。

このカメラは、GIFを作るだけじゃない。スマートフォンのアプリでいろんなモードを選べるのだ。GIF撮影、時間差、証明写真、フィルタ、それにコミュニティのライブラリで入手できるユーザお手製のモード。Raspberry Pi内蔵の商用製品も、これが初めてだろう。だから誰もがハックしたり拡張したりできる。

USBスロットがあるので、ほかのハードウェアの機能を導入できる。たとえばFlashFlashは、Arduinoを使ったフラッシュで、ハイファイブをするなど、特定のアクションでロボットみたいなGIFを作れる。

ぼくはまず、OTTOのヒップなデザインが気に入ったけど、96×96のOLEDディスプレイ、35mm f/2.0のレンズ、そしておもしろいトリックの数々、これらを総合するとハッカブルな写真ハードウェアとしては上出来の部類だ。お値段は199ドルだが初期の支援者には149ドル…デジカメとしても相当お安い。しかも買ってからいろんな設定変更や改造ができるのだ。

このカメラを作ったオークランドのチームはThomas DeckertとDave RauchwerkとGustavo Huber。サンフランシスコのハードウェアアクセラレータHAXLR8R の出身だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


ドローン+Oculus Rift+頭の動きに連動するカメラ=空を自由に飛び回る!

ドローンに2台のカメラを取り付けて、その画像をOculus Riftに送るというのは楽しいに違いない。ただ、そうした試みは既にある。それでは、このアイデアをさらに進めてみよう。Oculus Riftを装着した人の動きに応じて、ドローンに取り付けたカメラも動くようにするのだ。

この仕組みを使えば、自分自身がドローンとなり空を飛ぶ。目の前に空からの風景がリアルタイムで表示されるのだ。顔を動かせば、それに応じて視界も動く。

これはかなりスゴイ。アイデアだけでも「なるほど!」と言いたくなるが、既に実機も製作されている。下のデモをご覧あれ。

原文へ

(翻訳:Maeda, H


Androidのカメラアプリがアップデート–背景をぼかす, サードパーティ製フィルタのサポートなど

Engadgetの最新の記事によると、GoogleはAndroidスマートフォンのカメラアプリの改良に取り組んでいる。それはユーザインタフェイスの全体的なオーバホールに加えて、ポートレート写真で背景をぼかしたり、PanoramaやPhoto Sphere撮影の改良も含まれる。

このアップデートは、アプリ単体のみであり、Android OSの新たなアップデートにはならないようだ。サードパーティ製フィルタのサポートも加わるので、デベロッパが作った特殊なエフェクトをユーザがダウンロードして使う、ということもありえる。HTCでは今現在すでに、Oneのカメラアプリで、カスタムフィルタの利用ができる。しかしこれからは、Google Playでさまざまなフィルタエフェクトをダウンロードできるようになるのだろう。

背景のフォーカスを変えられる機能は、NokiaのRefocusアプリやHTC Oneのカメラ機能に似ているが、Googleのはカメラのハードウェアを特定しない。どっちが良いか、見るのが楽しみだ。ただし最近の画像処理ソフトウェアの進歩はすごいから、ハードウェアに依存しない方法でもあなどれない。PanoramaとPhoto Sphereの改良では、画像の解像度がより精細になる、とEngadgetの記事は言っている。デスクトップの大型画面で見ても遜色ない、ということだろうか。

Googleは最近、Google+とモバイルの両方で画像技術に力を入れている。今回の、Androidの内蔵カメラの機能強化は、まだやり残していたことの一部だろう。これで、Androidスマートフォンで撮る写真がさらに良くなることを期待したい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Apple、iPhoneカメラ用にバヨネット方式マウントを模索中

Appleは、USPTO[米国特許商標局]から、モバイルデバイス用レンズ交換の特許を与えられた(AppleInsiderが最初に報じた)。これは将来のiPhoneカメラに、例えば接写のためのマクロレンズや、景色を一望できる広角レンズと交換できる機能が内蔵されるかもしれないことを意味している。同特許は、数週間前に出願中との情報があったが、Appleはすでにこの知的財産の権利を取得していた。

これが何の意味も持たないこともある。Appleは必ずしもすぐに製品化しない技術を特許化することが頻繁にあるからだ。しかし、多くを意味する可能性もある。最近Foxconn内部からリークしたと言われる写真には、iPhoneのカメラ部分がわずかに突出しているところが写っており、特許資料の図版にも同様のデザインが描かれている。もちろんその画像の素性は定かではなく、カメラ部分の突出には別の理由も考えられる(デバイスの厚さ等)ので、ここから何かを読み取るのは早すぎる。

AppleがiPhone本体にレンズ交換機能を組み込むことは、モバイル端末最高のカメラを提供するという同社の専心とも一致する。同様のシステムは既にサードパーティーから提供されているが、その殆どはクリップオン方式であり、デジタル一眼やミラーレスカメラと同じバヨネット方式は、レンズ交換における利便性、確実性や画像品質において優れており、Appleの特許資料にもこれらがすべて利点として挙げられている。

レンズ交換式カメラの熱烈なファンの一人として、私はこれがモバイル端末に組み込まれることに興奮している。レンズを付けていない時のデザインや機能を損うことなく製作することが可能であれば、これはわれわれの携帯ガジェットの写真性能を強化しつつ荷物を減らす最高の方法だ。もし、望遠ズームと小さなマクロレンズをスマートフォンと一緒に持ち歩くだけで、デジ一を入れた20kg以上のバッグが不要になるなら、私にとってその価値は非常に大きい。

[原文へ]

(翻訳:Nob Takahashi / facebook


デジタル一眼の持ち運びを便利にするMiggo。ストラップとプロテクターの機能をミックス

新たにKickstarterに登場してきたMiggoは、便利な道具をさらに便利にしようとするツールだ。基本的にデジタル一眼レフカメラの「ストラップ」として利用するものだが、撮影を終了すればカメラバッグ風にカメラを守ってもくれる。プロのようなカメラバッグを持ち運ぶ必要はないものの、しかしそれなりの耐衝撃性を確保したい場合などに便利に利用することができる。場面に応じて、ストラップになったり、あるいは保管して持ち運ぶためのツールになったりするのが嬉しいところだ。

このプロダクトはイスラエルのインダストリアルデザイナーであるOhad Cohenの手になるものだ。実はカメラバッグメーカーであるKataのファウンダーでもある。Kataはプロにも、そして趣味用途の利用者にも人気のカメラバッグメーカーだ。Cohenは当初プロダクトデザインを行っていて、後にR&Dを担当していた。すなわちカメラ用のプロダクトを作るのにはまさにうってつけの人物であるということになる。

スマートフォンが普及したことで、多くの人々にとって写真というものが一層身近なものになった。しかし高性能なカメラ機材を持ち歩くのは大変であり、そのせいでDSLRなどを持ち歩く人が少ない現状となっている。少なくともCohenはそのように考え、この状況を変えようとMiggoをデザインしたわけだ。利便性を意識して、カメラ利用時のストラップと、そしてカメラ携行時の持ち運びツールの2つの役割を合体させたのだ。尚、好みに応じてStrap&Wrap版とGrip&Wrap版を選ぶことができる。双方ともにレンズとボディを安全にくるむ移動用プロテクターとして機能する。プロテクターモードでカメラを包み、あとはショルダーバッグないしバックパックなどに放り込んで持ち運ぶわけだ。レンズ収納のための区切りスペースのついた本格的カメラバッグや、梱包材の入ったカメラバッグを持ち運ぶほどでもない場合に、非常に便利に使うことができる。

尚、三脚用のアダプターも装備されていて、セルフタイマーなどで三脚を利用する場合にもMiggoを取り外さずに済むようになっている。通常のデジタル一眼用の他、ソニーのNEXシリーズのようなミラーレス用も用意されている。先行申込み割引は30ドルから提供されていたが、これはすでに規定申込数を完了している。今はGrip&Wrap版が35ドル、そしてStrap&Wrap版が40ドルにてプレオーダーを受け付けている。

個人的にも空港などで70ポンドもあるカメラバッグを持ち歩くのにうんざりしているところだ。交換レンズなどを数多く持ち運ぼうと思わないとき、このMiggoが便利に使えるかもしれない。プロトタイプはほぼ出荷可能状態にまで仕上がっており、6月には出荷を開始したいとのこと。実用性と利便性、そしてデザイン面での魅力をバランスよく備えているプロダクトだと思う。おそらくは2万ドルの調達ゴールはすぐにも達成するのではないかと思われる。

原文へ

(翻訳:Maeda, H


Canon、ミラーレスのEOS Mの新モデルM2を発表―現行機の最大の欠点、AF速度が大幅に改善か

Canonの最初のミラーレス一眼は失望させる製品だった。 2012年に発表されたEOS Mの最大の欠点は信じがたいほどAFの合焦速度が遅いことだった。また撮影直後にモニターの画像が一瞬消えるという不具合もあった。新モデルではCanonはこれらの問題を改善し、Wi-Fi機能を追加した。デザインは現行モデルをほぼ踏襲した。

M2が公式に発表されたのは今のところ日本と中国だけで、英語圏での発表は今日になるもようだ。しかし新モデルの概要はすでに明らかになっている。ボディーのデザインは現行機とほぼ同じだが、サイズはわずかに小さくなり、Wi-Fiによる写真の共有、転送が可能になっている。

しかしなんといっても最大のセールスポイントはAFの改善だ。CanonはハイブリッドCMOS AF IIシステムの採用により、AF速度を2倍以上に向上させたとしている。APS-Cサイズ、18メガピクセルのセンサーは現行モデルと同様だが、もともとセンサーには問題はなかったので、AF速度が発表どおり大幅に改良されているならミラーレス・レンズ交換式カメラ(MILC)の入門機としては優秀なモデルになったはずだ。

M2は日本市場には12月中旬に出荷される。アメリカ市場への出荷時期は明らかになっていないが、クリスマス商戦に間に合えばCanonにとって大いにメリットがあるだろう。今年中にアメリカ市場に投入されることを期待した。私自身EOSMのデザインは気に入っている。Canon Rumorsに詳細なスペックがある。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


目の前の様子を30秒毎に撮影し続けるライフロギングカメラのMemoto、名前をNarrativeに変更して世界にうって出る準備は完了

スウェーデンのMemotoにとって、Kickstarterの活用は大成功だった。調達目標額の11倍にものぼる額(55万ドル)を調達して、無事、ライフロギング用カメラの生産を開始した。このカメラは身につけて使うことを想定している小さなデバイスだ。カメラ本体にボタンはなく、身につけている間、目の前の写真を撮り続ける。但しこのカメラ、これまでのMemotoの名前を捨て、新たにNarrativeとして世に出て行くことにしたようだ。調達した300万ドルの資金で運営を行っていく。資金を調達して、そして名前を変えて、新たな気持ちで世界に打って出る、という心づもりなのだそうだ。

実のところを言えば、同一ジャンルのサービスで、既にMemotoという名前が使われていることが判明したようなのだ。商標絡みの争いに巻き込まれることを避け、Narrativeという名前に変更することにしたというわけだ。潜在的な危機を回避したことで、今後は大手を振ってプロモーションも行えるようになった。また名前を変えることで、カメラ以外のプロダクトにもサービスを広げやすくなったと、肯定的にとらえておいて良いのではないかと思う。

カメラの名前は変わったが、しかし外見は以前から変わらない。プレオーダーをしている人も、ちゃんとイメージ通りのものが届くので心配はいらない。プロダクトは予定通り、そして会社にはKickstarterで獲得した資金以外にも資金が注入された。サンフランシスコのTrue Ventures主導による300万ドルのラウンドが完了したのだ。True Venturesはこれまでにも、MakerBotやFitbitなどのハードウェアスタートアップに資金を提供してきた。そういえばNarrativeはフィットネス部分以外について「データ化」(quantifying)する目的があるわけで、Fitbitに似ていると言えるかもしれない。ちなみに今回のラウンドにはLDV CapitalおよびロンドンのPassion Capitalも参加している。Passion CapitalはこれまでにEyeEmやLoopcamにも出資した経験を持っている。

Narrative Clipは、11月から予約購入者に向けて出荷される。また、初期ロット版もグレイ、ホワイト、オレンジに関してはまだオーダー可能となっている。このカメラは30秒毎に写真を撮り続ける。そして位置情報や時刻情報と一緒にネットワーク上にデータを送る。後にサイト上から閲覧したり共有することができるようになっている。写真は5メガピクセルで、バッテリーは充電式で2日間動作するようになっている。

Kickstarterで人気を集めたプロダクトの名前を変更するというのは、確かにある面ではマイナスであったかもしれない。しかしライフロギング用のカメラというのは、まだまだ新しい存在だ。おまけにまだ出荷すらしていない状態だった。そういうことを鑑みるに、名前の変更がマイナスの要因となるようなことはないと言っても良いだろう。ワーキングプロトタイプで撮影した写真を見ると、こうした「自動撮影」によるソーシャルフォトというのもなかなか面白いものとなるケースが多そうだ。きっとあらゆるケースで使ってみようとするであろう最初のユーザーたちが、どのように使うのかを楽しみに見てみたいと思う。

原文へ

(翻訳:Maeda, H


科学の大躍進:SnappyCamは毎秒20枚フル解像度写真を撮る

iPhoneの標準カメラアプリは、実はかなり遅く、1秒に8メガピクセルの写真を3~6枚しか撮れない。しかし、SnappyCam 3.0を使えば、フル解像度の写真を1秒に20枚撮ることができる。これは同アプリの発明者による離散コサイン変換JPEG技術のおかげだ。秒間20フレームといえば、コマ撮りアニメやエクストリームスポーツの悲惨な衝突場面を捕えるのに十分な速度だ。

SnappyCamの価格は0.99ドルで簡単に連続写真を撮ることができる。その中からお気に入りを選ぶか、一種の「ライブ写真」スライドショウとして前後にめくりながら見ることもできる。コラボ写真共有アプリのEverlapseのようだ。そんなアニメーションのサンプルがここや下で見られる。右のコントロールバーにマウスをかざして右向きにコマを進めることができる。

John Papandriopoulosは電子工学の博士号を持ちSnappyCamを2年間開発してきた。彼はこれを、地球最速のスマートフォンカメラと呼ぶ。iPhone上で撮影プロセスをスピードアップし、バッファーし、画像を圧縮するしくみを学習するうちに、事実上JPEG画像標準を再発明した。目標は? 大型のプロ用デジタル一眼の連続撮影パワーを、ポケットの中に押し込むことだ。

Sanppy Cam version 2は、そこそこ・・・速かったが、画質を犠牲にしなければならなかった。秒間20枚を3メガピクセルでした撮れなかった。そして先週、Papandriopoulosは「ユリイカ」の瞬間を迎えた。いくつかの複雑な数学アルゴリズムとiPhone 5のデュアルコアプロセッサーを活用することによって、8メガピクセルの写真を毎秒20フレーム撮れるようになった。

Papandriopoulosはこのスピードについて「何だか信じられない。実際これはハードウェアの上限だ」と語った。

スピードを比較してみると、SnappyCamはiPhoneの標準カメラの4倍速く、Samsung S4の7.5枚/秒と比べても2倍の速ただ。Papandriopoulosは、他のFastCameraCamera Awesome、およびCamera+のようなスピード目的のiOSカメラアプリは画質を下げることが多く、30フレーム/秒で撮るには0.3メガピクセルの切手サイズまで落とし、フル解像度では4コマ/秒程度しか撮れなj

SnappyCamは最新iPhoneオーナーのためだけではない。iPhone 4Sでは8メガピクセルで12fps、5メガピクセルなら15fpsが得られる。これはフル解像度で3.3fpsしか実現できないSamsung Galaxy S3よりずっと速い。

こうした科学によって、ポートレイトのベストスマイルを選んだり、バッティングを見直したり、愛犬が跳びまわるところを捕えること等々が可能になる。現在Papandriopoulosは、SnappyCamで作ったインタラクティブアニメをエクスポートしてFacebookで共有できるようにする機能を開発中だ。

Instagramが日々の生活の中にアートを見出すのを助け、Vineが瞬間を捕らえさせてくれるように、SnappyCamは、世界をスローモーションで見せてくれるかもしれない。

[原文へ]

(翻訳:Nob Takahashi)


高価なレンズが盗難にあった!―写真機材の取り戻しを助けるサービス、LenstagはGoogleエンジニアの公共奉仕

プロであろうとアマであろうと少しでも本格的に写真を撮っているなら手持ちの機材の総額はたちまち巨額になる。盗難保険をかけておくことが大切だが、盗まれた機材の取り戻しを助けるサービス、Lenstagに登録しておくのもよい考えだ。

このサイトにはすでに全世界80カ国にユーザーがおり、利用は無料だ。サービスを利用したい写真家はサイトを訪問して簡単なユーザー登録をすませてから、個々の機材を登録していく。メーカーとモデル名を入力すると正確な情報を入力するフォームが表示される。自分が所有者であることを証明する製造番号の写真も必要とされる。人間の担当者が最後に認証して始めて登録が完了する。この点、Lenstagは単なるユーザー登録データベースとは一味ちがう。

Lenstagに登録してあれば、eBayに出品する場合でも、その情報を利用して自分が正当な持ち主であることを証明できる。またLenstagメンバー同士なら売買も安心だ。万一盗難にあった場合、Lenstagに報告しておけば、警察、保険会社はじめ関係機関からCraigslistでショッピングをしている個人まで、その情報を参照できる。また誰かが盗まれたのと同じ製造番号の機材を検索すると自動的に「その機材は盗難にあっています」という検索結果が表示され、事情を報告するよう求められる。.

Lenstagは今回、「一時的登録」という便利な機能を追加した。これは機材をオンラインで売りに出したときに用いるもので、売れた後は削除される。全体として非常に優れたサービスだ。ごくわずかな手間で大きな安心が得られる。

Lenstagのファウンダー、Trevor Sehrerの本業はGoogleのモバイル部門のエンジニアだ。私の取材に対してSehrerは「Lenstagは近く警察と公式に提携する。またユーザーインタフェースの拡充に努める」と語った。実際、フィンランドの警察は、特に働きかけをしたわけではないのに、Lenstagへの登録を薦めているという。おそらく最初yの公式提携先になるのだろう。ただしビジネスモデルについて質問するとSehrerは答えを渋った。

「私はビジネスよりもカメラやレンズの盗難の解決に興味がある。このサイトは別に大した金も時間もかかっていない。ユーザーがサイトにアクセスするのは機材を登録するときと盗難を報告するときだけだから、必要ならスケールを拡大するのは簡単だ」とSehrerは説明した。

ただしSehrerは盗難保険を販売している保険会社との提携は考えている。Lenstagに登録している場合、保険料を20%割り引くというユーザー向け特典を提案するつもりだという。ただしこの場合でもLenstag自体は必ずしも収入を得ることは考えていない。

フォトグラファーとして私自身、このサービスは大歡迎だ。中古機材の売買の際にLenstagで所有者を認証することが当たり前になったら安心だし、盗難防止にもずいぶん役立つだろう。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Googleストリートビュー・チームにロング・インタビュー―ラリー・ペイジの車の屋根のカメラからグランドキャニオンの谷底まで

5b3a221986912de12112d9854816528b (2)

最近、私はGoogleでストリートビューを創造したメンバーに長時間インタビューする機会があった。そこでこのプロジェクトがラリー・ペイジの夢想から始まって世界中の誰もが特に意識もせずに使う日常必須のツールへと成長したのか、そのプロセスを詳しく学ぶことができた。

ラリー・ペイジの車の屋根に積まれたかさばったカメラから始まったストリートビュー撮影システムはワゴン車、乗用車、三輪車、二輪車、はてはバックパックやスノーモビルにさえ搭載されている。2007年5月25日にスタートして以来、ストリートビューはGoogleが世界を観察する視覚となった。ときには賛否の議論を巻き起こすこともあるが、Googleは前進を止めない。

ストリートビューのエンジニアリング・ディレクター、Luc Vincentとエンジニアリング・マネージャーDaniel Filipに会う前に、私はGoogleマップについてできるかぎり勉強していった。それでもストリートビューのコンセプトが生まれた当時、それがいかに「空に浮かんだパイ」のような夢物語だったかには気づかなかった。ストリートビューがこれほど身近になった今、多くの人々がこの誤解をしているものと思う。


そこに行く前のその場所の様子を知りたい

フランケンシュタインみたいな不気味な外見の車だった

Vincentによれば、ストリートビューの最初のコンセプトはスタンフォード大学のMarc Levoyの研究だという。 Levoyと彼の学生の一人がビデオを撮影してそれを1枚の画像に貼り合わせる技術を開発した。Googleはサンフランシスコ中の道路を撮影することができるかどうか見るためにこのプロジェクトに少額を投資した。その結果、ビデオの1コマずつを解析して非常に長大な街路の写真を合成することが可能だと判明した。写真は歪んでおり、画質は悪かったが、これがストリートビューの第一歩になった。

このテストの後、ラリー・ペイジは自分の車の屋根に巨大なカメラをくくりつけ、サンフランシスコ中の道路の写真を撮ってまわった。それらの写真をつぎはぎした巨大な画像はそのままでは役に立たなかったが、Vincentによれば、このテクノロジーはさらに興味深いものになった。

最初のストリートビュー開発チームは20%ルール〔社員は勤務時間の20%を自分の自由な実験に充てられるというGoogle独特の規則〕を使う少数の社員たちからなっていた。バンの屋根にはカメラとGPSとレーザーが搭載されていた。レーザーは建物など沿道の物体までの距離を測定するためだった。システムはこれによって3Dモデルを作り、画像を整合性を保って貼り合わせることができた。カメラはバンの車内のコンピュータ・アレイに接続され膨大な写真がその場で処理された。しかしまだまだ初歩的ななレベルだった。Vincentによれば―

フランケンシュタインみたいな不気味な外見の車だったが、われわれの目的に十分なくらいベイエリアの画像データを収集することができた。われわれは警備部門からバンを借りて街を乗り回した。しょっちゅうエラーが出て仕事が止まった。

Street View van

IMG_0308

正規のプロジェクトになる

しかし本格的にやるとものすごい費用が…

20%ルールで自分の好きなことをするのと、他人を巻き込み、正式なプロジェクトとして承認を受けるべく努力するのは全く別だ。Vincentのチームは十分なデータを集めてからそれを1つに継ぎ合わせてサービスとして意味のあるものに.した。

2005年の第3四半期にVincentのチームは金曜日の定例テクノロジー会議にストリートビューを持ちだした。ここで、エンジニアリング担当副社長を含めて、20%ルール以外の社員を充てることが承認された。2005年の10月にストリートビューは正式にGoogleの新プロジェクトに格上げされた。いよいよ後戻りはできなくなったわけだ。地球を隅から隅まで1ピクセルも余さずにデジタル画像化する途方もないプロジェクトが動き出した。対外的には秘密のままだったが、VincentはStreetViewプロジェクトに新規の人材を採用することができるようになった。Filipが最初の採用者だった。今でもこの2人がストリートビュー事業のリーダーだ。

2006の始め、ストリートビュー・チームのフルタイムのメンバーは7人だった。目的は実際に稼働するサービスを作り上げること。

この時期、われわれはいくつかの問題に取り組んでいた。ユーザー・インタフェースの専門家はチームに1人しかいなかった。見た目のとおりのパノラマ画像をユーザーが扱いやすい形で表現するのに非常に苦労した。というのはその当時、まだGoogleマップがなかったからだ。

rosette3_22509_lg

意外に思う読者も多いだろうが、この時点では今われわれが見るようなGoogleマップは存在していなかった。ストリートビュー・チームはいわばGoogle自身と比べてさえ進みすぎていた。Vincentによれば、

われわれはまず新しいプラットフォームを作らねばならなかった。信頼性が高く、大規模に拡大可能でかつ車載可能なシステムでなければならなかった。われわれは8台のデジタル一眼レフを放射状の花びら形に配置した。完全な情報を得るためにシステムが高価になってもやむを得ないと覚悟していた。

cameracar

データ処理

なんでもいいからできる限りの情報を集め、その後で使い方を考える

他のすべてのGoogleの活動と同様、ストリートビューでも収集したデータに対する膨大な処理が行われている。Googleはしばしばものに取り憑かれたようにあらゆるデータを収集しようとし、これがプライバシーに敏感な一部人々の反感を買っている。しかしGoogleは「なんでもいいからできる限りの情報を集め、その後で使い方を考え、人々の役に立てる」というアプローチを繰り返してきた。

ストリートビューで収集される情報量は膨大なものだ。Vincentのチームのバンは写真撮影の他に、GPS情報、周囲4箇所のレーザーによる対象物までの距離、風速、その他あらとあらゆる情報を記録した。

しかも現在ストリートビューのデータは全世界47カ国に散らばった3000のシステムから収集されている。

Vincentによれば、

ストリートビュー車には4、5台のコンピュータを積んだラックを装備してあったが、いつも何かが壊れた。われわれはこういうストリートビュー車を3、4台作って主にカリフォルニアでテストを繰り返した。始終不調になるので、なかなか規模を拡大することができなかった。

IMG_0311

800万キロを走破した現在、不調が起きる確率は著しく減った。

データから意味を引き出す

われわれの両親の世代でも意味のある情報を簡単に引き出せるようにするためにストリートビュー・チームはありとあらゆる地理情報を処理できる部内用ツールを開発した。GPS、レーザー測距装置から得られたデータと写真を重ね合わせて、意味ある結果が得られるかを検討した。大量の試行錯誤の末に、ついに意味のある利用法にたどり着いた。

CB View - depth map

ストリートビュー・カーのドライバーは撮影済みデータを収めたハードディスクを5台ずつまとめてGoogleに送る。 それらはデータセンターで情報を吸いだされ、情報は中央データベースに格納される。

データセンターでの処理の1つは、人物の顔と車両のナンバープレートにモザイクをかけることだ。今となっては当たり前に思えるプライバシー上の配慮だが、ストリートビューが登場するまではこんなことは誰も思いつかなかった。そこでGoogleはこの作業が自動的に実行できるシステムを開発しなければならなかった。またストリートビュー・カーは同じ場所を15回撮影する。システムは15枚の写真を合成して露出、光線の反射、陰などを調整してできるだけ多くの情報が表示されるようにする。こうして完璧なパノラマ画像を用意するのだ。

同時にシステムは画像から道路標識などの情報を読み取り、Googleマップシステムに転送する。これも膨大な処理量となる。

CB View - 3D facade generation & geometry

ストリートビュー車のそれぞれのカメラが写真を撮ると同時にその瞬間の位置情報とレーザー測距による空間情報も記録されている。これによってストリートビュー・チームはここに見られるような見事なパノラマ写真を合成することが可能になる。

IMG_0275

水平方向を撮影するカメラと天頂を向いた魚眼レンズを装備したカメラによって沿道の建造物の3D画像が合成される。

CB View - unstitched image2

この取材で知ったのだが、水平方向のカメラの視界が他の車両で遮られたときには他のアングルから撮影された写真で隠された部分を補うことができるシステムが用いられている。3D画像に撮影車自身が写らないのもこの技術によるものだ。

Streetview_after

リリース、そして現在

トラフィックはあっという間にわれわれの処理能力を超えてしまった

2007年にストリートビューが公式にローンチされたとき、対象地域はサンフランシスコ、ニューヨーク、ラスベガス、マイアミ、デンバーだけだった。当時のカメラはそれぞれ5メガピクセルで、これは今の携帯のカメラ程度だ。現在用いられているカメラの解像度はなんと75メガピクセルだ。

ストリートビューはリリースと同時に大人気となったのだが、実はGoogleもストリートビュー・チームも公開前は果たしてユーザーにどのように受け止められるのかまったく予想がついていなかった。もちろんGoogleは公開に備えてそれなりにコンピュータの処理能力を用意はしていた。

〔ストリートビューの〕トラフィックは見ている前で天井まで跳ね上がった。そしてあっという間にわれわれの処理能力を超えてしまった。Googleで仕事をしていて良い点はそのサービスへのトラフィックと関心をリアルタイムでモニタできることだ。ストリートビューはローンチの直後からでとてつもない関心を集めていた。世界中のウェブサイトがストリートビューから引用した面白い写真を掲載し始めた。

ストリートビューのユーモラスな写真やショッキングな写真は以来、さまざまな議論を呼びつづけている。最近もストリートビュー車が野生のロバをはねたという非難がいわれないものだと説明しなければならなかった。

いずれにせよ初期型のバンは大量に製造するのに向かなかった。ここに写っているカメラはテントウムシ型で、水平方向の8台のカメラと天頂を向いた魚眼レンズ装着のカメラで構成されている。これを搭載した自動車が世界中を日夜走り回った。目にした読者も多いに違いない。

IMG_0313

しかしこのストリートビュー・カメラが現在の形になるまでにはかなりの時間と努力が必要だった。Vincentによると、Googleが社内で利用する他のハードウェアの多くと同様、結局カメラもフレームもGoogleが独自に開発することになった。いちどテクノロジーのコア部分が完成すると、ストリートビューは小さな町や外国でも必要とされるようになったので、チームは二輪車にも搭載できるようにシステムのダウンサイジングを図った。有名なストリートビュー・トライク(人力三輪車)は自動車が入れない狭い路地や史跡の内部などを走り回っている。

IMG_0239

IMG_0250

2010年にバンクーバーで冬季五輪が開催されたとき、チームのメンバーの一人が山の景色をストリートビューに加えようと発案した。それはいいアイディアだということになって、カメラがスノーモービルに搭載された。気温がカメラには低すぎたのでエンジニアは自分のジャケットを脱いでカメラに被せなければならなかった。その後も次々に新しいアイディアが湧きでた。

われわれは人々を結びつけたかったのです

どうして屋外の写真ばかり撮っているのだ? 屋内のパノラマ写真もクールじゃないか? 特に有名な美術館、博物館の中は皆が見たいはずだ。そこでストリートビュー・カメラを載せたトロリーが開発された。屋内ストリートビューについてVincentはこう言う。

われわれは広い屋内空間を撮影するために小型のコンピュータシステムを開発し、すべてを手押し車に載せた。三脚では時間を食いすぎる。難しかったのは屋内ではGPS信号が受信できない点だった。そこでわれわれはGPSなしにトロリーの正確な位置を決定できるようレーザー位置測定に基づく複雑なアルゴリズムを開発しなければならなかった。このトロリーのおかげで現在50箇所の美術館、博物館の内部をストリートビューで見ることができる。

trolly

Vincentがストリートビュー・システムは十分な数の写真を撮影していないと感じるようになったため最新タイプのストリートビュー撮影システムには15台ものカメラが装備されている(魚眼レンズのカメラは必要がなくなった)。Googleは画像の質と正確性の限界を一歩先へ進める努力を常に続けている。Appleが地図サービスを独自にローンチしようとして大いに苦労していることは記憶に新しいが、Googleはこうしたすべてを2005年から延々と続けてきたのだ。そればかりでなく、2007年以降、Googleの地図プロジェクトは信じられないほど巨大なスケールに拡大している。これに追いつくのは並大抵のことではあるまい。

インタビューの最後に、私はVincentに「そもそもなぜこんなことを始めようと考えたのか?」と尋ねてみた。彼大真面目な表情で答えた。「われわれは人々を結びつけたかったのです」〔Facebookのモットーとして有名)

複雑高度なものを日常ありふれたものに

IMG_0297

Googleのテクノロジーのほとんどは舞台裏に隠れていてユーザーの目には触れない。ユーザーはソーセージがどうやって作られるかいちいち細かいことを知りたいとは思わない。気にするのはおしいかまずいかだけで、おいしければユーザーは戻ってくる。友だちにも勧めるだろう。VincentはGoogleのプロダクトが一般ユーザーにとって「当たり前のもの」になるのを好んでいる。そうなればイノベーションをさらに先へ進めることができるからだ。

将来、ストリートビューができそうなことは多い。バックパックで人が背負って歩けるトレッカー撮影装置は森や山で遭難した人々を捜索するのも応用できる。すでにグランドキャニオンの壮大な景色がいながらにして体験できるようになっている。

IMG_0307

地図サービスでGoogleに追いつくためにはまずこうした高度に洗練されたハードウェアを今すぐ大量に配備する必要があるだろう。なにしろ現在も何千台ものこのカメラが世界中を撮影しつつあるのだ。

また関心のある場所の映像をスマートフォンでこれほどスムーズに閲覧できるのも驚くべきテクノロジーだということを忘れないほうがよい。もしかすると、そのうち読者もGoogleマップづくりに参加できるかもしれない。あのGoogle Glassのユーザーが目の前の光景を撮影してGoogleに送ると、それがストリートビューの一部になるかもしれない。

今はクレージーに聞こえるアイディアかもしれないが、なにしろ巨大なデジタルカメラを自分の車の屋根に積んで走り回るファウンダーのいる会社だ。どんなクレージーなことを始めるか予想もつかない。

[原文へ]

(翻訳:滑川海彦 Facebook Google+

ビデオカメラ付きのRaspberry Piは4月発売, カメラの性能を極限まで引き出すテスターを募集中

raspberry pi camera

超小型のコンピュータRaspberry Piが今後は、視覚を持つ。それは先月本誌もご紹介したビデオカメラ素子だ。この、デベロッパがビデオアプリケーションも作れる新型のRaspberry Piは、Pi FoundationのLiz Uptonによると4月発売だそうだ。

“カメラを載せた基板はすでに生産に入っている。4月中には発売できるだろう”、彼女はFoundationのブログにそう書いている。

そしてGoogle Glassのやり方に倣ってPi Foundationは、Piのカメラ機能を最高におもしろく活用できる、と名乗り出たテスターたち10名に、カメラ基板を無料で進呈する。それはGoogle Glassのように1500ドルという高値ではないし、とにかく無料進呈である。

カメラ基板をもらえるのは、“Raspberry Piのカメラボードの、すばらしくて、想像力に富んでいて、コンピュータの使い方としておもしろい使い方”を考えた人だ。Uptonによると、テストなのに難しいオマケが付いている、というもの。

彼女はこう書いている:

カメラを無料で進呈するのは、ちょっと難しいテストをやっていただきたいからだ。このカメラ基板をさし上げた方には、計算機が行う処理としては難しくて、想像力豊かな仕事を、やらせてみていただきたいからだ。つまり、Piのカメラを酷使して、とんでもないことをやらせ、そのパフォーマンスの限界を知るためのテストだ。そんなテストの結果、必要なら最終製品において新たな調整を盛り込む。想像力豊かな、とは、たとえば顔認識をやらせてみる、カメラ付きPiを2基使って立体画像(3D画像)を作る、視界におかしなものが入ってきたら、何かをする、といったこと。単に美しい画像や映像を撮影しただけでは、このたびのテストとしては不十分だ。Dave Akermanには、彼が撮っている物のクールさに免じて、一台進呈することにしたい。彼の、宇宙のPiなんか、ほんとにすてきな写真だ。

この、Piの視覚テストに参加してみたい方はiwantacamera@raspberrypi.orgにメールをする。自分はそれで何をやりたいか、を書くこと。これまで経験したプロジェクトの説明や、それのGitHub上のコードなども、履歴情報として良い。もらえるのはカメラが載ってる小さな基板だけだから、テストに参加する人は自分のPiをすでに持っていなければならない。

テストへの参加者は世界中の誰でもよい。郵便物の宛先も、明記すること…なにしろ今回はコードではなく、「物」をテストするのだから。なお、申し込みの締め切りは3月12日までだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

モバイルのカメラの画質向上でAppleが特許を出願–それは質よりも量優先?

Apple - iPhone 5-1

AppleInsiderが見つけたAppleの特許出願状によると、同社は今なお、スマートフォンのカメラ体験を向上し、ユーザに最良の写真を提供する方法を模索しているようだ。その発明がiPhoneやiPod touchやiPadに搭載されると、ユーザがカメラアプリを立ち上げるとすぐに、デバイス自身が自動的に最大解像度の写真を撮り始め、それらをメモリに保存する。そしてユーザがシャッターを押したときには、その大量の画像の中から最良のものを選ぶ。

つまりこの方法は、連続的に画像を捕捉することによって写真の質を高め、現在のモバイルカメラの欠点を補おうとする。Appleが特許申請で説明しているところによると、カメラの仮想ファインダーには捕捉した画像の低解像度のバージョンが表示され、そしてシャッターを押すと、最大解像度に切り替える一瞬の間があって、そのあと実際に写真が撮られる。つまりユーザにとっては、自分が今見たもの≠今撮ったもの、という結果になる。ユーザが写真を撮ろうとするとカメラが勝手に高解像度で撮影を開始し、それらの写真をキャッシュに保存すれば、ユーザが「撮りたい!」と思った瞬間の画像が得られるだろう。

13.02.14-Cam-2

Appleのこのシステムは、写真の選択をタイミングだけでなく画質にも配慮して行う。コントラストや精細度、ダイナミックレンジ(明暗の幅)、露出時間、などに基づいて写真に得点を与え、いちばんピントが合っているものを選ぶ。メモリに保存した画像は一定時間後にクリアされ、次の撮影に備える。ユーザに高解像度のプレビューを見せて、その中から選ばせるという実装もありえる。特許項目の中には、そのほかの細かいオプションもある。

この技術を今のiOS機に実装するのは、それほどの大工事にはならないと思われるが、でもAppleはこれを、鳴り物入りで発表するだろう。モバイルのカメラは、AndroidのOEM間でも、そしてiOS vs. Androidにおいても、競争の激しい部分だからだ。たとえばBlackBerryのZ10は、写真の‘顔選び’機能でこれと似た技術を使っている。Nokiaは、類似技術を開発した企業を買収して、同社のWindows Phone 8搭載機でこれとほぼ同じ機能を提供している。

短時間にたくさん露光して、その中から選ぶ、という方法は、画質向上の一手段だが、それが唯一の方法ではない。ほかにも方法が山ほどあり、たとえばLytroは、同社の焦点選択技術をモバイル業界にもOEMしたいと考えている。しかしいずれにしてもカメラは、消費者が携帯電話やスマートフォンを選ぶときの重要な要素になっているから、Appleがこの部分でも勝負に勝ちたいと考えるのは当然だ。この特許出願(日付は2012年10月)も、まさにそのことを証明している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Raspberry Piにビデオカメラカードが登場

2013-02-06-0176_zps535da89a

Raspberry-piのファウンダEben Uptonの奥さんでブロガーでもあるLiz Uptonが、同社のWebサイト上で、Raspberry Pi用のビデオカメラ素子を紹介している。一枚レンズのユニットで、重さは“ほぼゼロ”、年内に25ドルで発売される。

このカメラはPiに直接接続でき、Piをビデオ方面のアプリケーションにも利用できるようになる。カメラ本体はOV5647で、固定焦点、センサーの解像度は5メガピクセルだ。HDビデオも撮れる。写真でお分かりのように、ユニットには、Piに接続するためのリボンも付いている。

仕様の詳細等はここにある。小さなプリント基板に小さなカメラが乗ってるだけの品物だが、今Raspberry Piは大人気だから、発売後数秒で売り切れると予想される。Raspberry Pis今や、電子工作界のBeanie Babiesだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

DARPA、1.8ギガピクセルの監視カメラを開発―高度6000mから26平方キロの範囲を撮影して15cmの物体を識別

アメリカ国防省のDARPA〔国防高等研究計画局〕は、無人機に搭載される予定の1.8ギガピクセルの監視カメラ、ARGUS-ISについてより詳細な情報を公開した。このカメラは世界最高クラスの解像度を持ち、15cm程度の対象を6000mの高度から識別できるという。一度に25.9平方キロの範囲を撮影しながら驚くべき解像度で任意のスポットにズームインできる。

このカメラは1基の望遠レンズに対して5メガピクセルの撮像素子368台をアレイ状に配置しており、地表を歩く人間や鳥が飛ぶのもはっきり認識できる。ARGUS-ISはAutonomous Real-Time Ground Ubiquitous Surveillance Imaging System(自律的リアルタイム・ユービキタス地上監視画像システム)の頭文字とされる〔ギリシャ神話の100の目を持つ怪物アルゴスとの語呂合わせ〕

このシステムは毎秒600ギガバイトの情報を生成する。画像処理はカメラ内で行われる。これほど大量のデータをリアルタイムですべて地上に伝送するのはおそらく不可能だろう。そこでDARPAは空中のARGUSが撮影する膨大なリアルタイム画像データから任意の地点を自由に拡大できるPersisticsというシステムを開発した。

上にエンベッドしたビデオは6000m上空から撮影されたものだが、地上で手を振っている人の姿がはっきりと識別できる。もう少し高度を下げればもっと細部まで見えるだろう。驚くべき監視能力だ。

via ExtremeTech

[原文へ]

(翻訳:滑川海彦 Facebook Google+