「偏光」でデジタルセンシングをアップグレードするMetalenzのPolarEyes技術

技術的な見方を変えれば、LiDAR、赤外線、超音波など、私たちが知覚できない複数の種類のデータを融合させることができる。先端センシングに使用する非常にコンパクトな「2D」カメラのメーカーであるMetalenzは、PolarEyes技術を使い、セキュリティと安全性確保のために偏光を取り入れたいと考えている。

偏光は、あまり注目されていない光の性質だ。偏光は、空気中を波打つ光子の運動の向きと関係があるが、一般的に光から必要な情報を得るには、偏光を確認する必要はない。だからといって役に立たないというわけではない。

「偏光は、一般的には考慮から外されてしまうものですが、対象が何でできているかを教えてくれるものなのです。また、通常のカメラでは見えないコントラストを見つけることができます。医療分野では、昔から細胞が癌かどうかを見分けるのに使われてきました。可視光では色や強度は変わりませんが、偏光で見ると変わるのです」とMetalenzの共同設立者兼CEOであるRob Devlin(ロブ・デブリン)氏はいう。

しかし偏光カメラは、ほとんどはその特異な性質が必要とされる医療や工業の現場でしか見られない。したがって、それを行う装置は異様に高価で、かなり大型のものになる。たとえ1000万出せるとしても、パソコンの画面上部にクリップで留めておけるような代物ではない。

2021年、私がMetalenzについて書いたときの彼らの進歩は、複雑なマイクロスケールの3D光学機能を確実かつ安価に製造し、小さいながらも効果的なカメラをチップ上に実現したことだった。これらのデバイスは現在、STMicroelectronicsとの部分的な提携により、産業用3Dセンシングモジュールの一部として市場に投入されているとデブリン氏は述べている。しかし偏光には、より消費者に関係のある応用方法がある。

関連記事:カメラの受光素子をMetalenzが2Dでブレイクスルー、3M、TDKなどから10億円調達し大量生産へ

「顔認識における偏光は、見ているものが本物の人間の肌なのか、シリコンマスクなのか、それとも高画質の写真なのか、といったことを教えてくれます。車載用設定では、黒くて見えない薄氷を検出することができます。これは通常のカメラでは難しいのですが、偏光を使うとわかります」とデブリン氏はいう。

顔認証の場合、iPhoneに搭載されているLiDARユニット(小型レーザーで顔をスキャンする)のように、前面カメラと並べて設置できるほど小型化できる可能性がある。偏光センサーは、(この例では)おそらく4つの異なる偏光軸に対応して画像を4つに分割し、それぞれがわずかに異なるバージョンの画像を表示する。これらの違いは、わずかな距離や時間をおいて撮影された画像間の違いと同じように評価することができ、顔の形状や細部を観察することができる。

画像クレジット:Metalenz

偏光は素材の違いも見分けることができるという利点があり、肌はリアルなマスクや写真とは異なる光を反射する。おそらくこれは日常生活では一般的な脅威ではないが、もし携帯電話メーカーが同じ「Face ID」タイプの機能を手に入れ、なりすまし防止セキュリティを追加でき、小さなLiDARよりも派手でないものを使えるとしたら、おそらくそのチャンスに飛びつくだろう(そして、Metalenzのターゲットは適切だ)。

偏光は自動車や産業においても役に立つ。あるピクセルが何でできているかを知ることは、かなり複雑な問題で、通常はそのピクセルが構成する物体を特定しなければならない。しかし、偏光データを使えば、さまざまな素材を瞬時に見分けることができる。実は、これがVoyantの新しいLiDARの価値提案の一部となっている。100個の通常の画素に対して1個の偏光画素があれば、それほど高い解像度は必要ない上、場面についての非常に多くの洞察を得ることができる。

関連記事:小さくて安価なLiDAR技術の生産拡大を目指すVoyantが約17.7億円調達、ロボティクスや工作機械がターゲット

画像クレジット:Metalenz

これらはすべて、Metalenzが偏光カメラユニットをこのような状況で使用できるように小型化し、高感度化できるかどうかにかかっている。当社は、産業界で使用されているブレッドケースサイズのユニットをクラッカーのサイズに縮小し、テストを行っている。また、ロボット、自動車、パソコン、そしておそらく携帯電話のカメラユニットに追加したり交換したりできるように、チョコボール程度の大きさのカメラスタックを開発中だ。研究開発の「開発」の段階にしっかり入っている。

Metalenzは現在、3M、Applied Ventures、Intel、TDK(利益をもたらす可能性のある新しいタイプの部品への投資を行う企業だ)などから2021年得たAラウンドの資金をもとに活動している。PolarEyesへの関心が、同社が最初のセンサーで集めた関心と同じ程度になっていれば、スケーリングコストをカバーするための新たな資金調達が間もなく行われると予想される。

画像クレジット:Metalenz

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)

ライカが新型フラッグシップのデジタルレンジファインダーカメラ「M11」発表、税込118万8000円

Leica(ライカ)は奇妙な会社である。毎年、ほんのひと握りのカメラしか出さず、そのほとんどが過去のモデルのリミックスかマイナーチェンジ版だ。2017年以来、同社のフラッグシップモデルは、堅実だがどこか古風な「M10」だったが、同社は今回、その後継モデルとして、さらに堅実だがどこか古風な「M11」を発表した

ライカは、カメラにおけるレンジファインダーのスタイルを確立し、そのフィルム用モデルは伝説的だ。デジタル時代のライカは、何よりもその高い価格で知られている。M10やQ2などのカメラのつくりや画質は文句のつけようがなかったものの、他のメーカーならもっとはるかに安い価格でもっと多くのカメラを手に入れることができた。この点についてはM11でも変わないが、少なくともこの最新モデルでは、必要とされていた現代的な機能がいくつか搭載されている。

中でもおそらく最も重要なのは、裏面照射型センサーへの変更だろう。裏面照射型センサーとは、センサーの受光部を配線などに囲まれた状態ではなく、裏面の開口側に向けて配置することをいう。裏面照射型センサーは通常、従来の表面照射型よりも性能が高く、ライカは概して当初からセンサー技術に長けていた。興味深いことに、ライカは優れたピクセルビニングを意識して、非ベイヤー方式のサブピクセルレイアウトを選択したようだ。

新しいフルフレーム(フルサイズ)6030万画素の裏面照射型CMOSセンサーは、もちろん最大解像度で撮影できるものの、最近ではそれを必要とする人はほとんどいない。6030万画素以外に選べる3650万画素と1840万画素での記録時には、線や領域だけでなく、センサー全体をサンプリングし、ノイズやアーティファクトを低減する。もし私がこのカメラを手に入れたら、36MP(3650万画素)に切り替えて、決して戻すことはないだろう。また、1.3倍と1.8倍のクロップモードも、そうやって楽しみたい人向けに用意されている。

画像クレジット:Leica

M11には簡単に割り当て可能な3つのファンクションボタンが新たに備わっている。背面のタッチスクリーンは、旧型のM10より解像度が2倍に増えているが、本当のライカファンであれば、光学ファインダーに目が行くだろう。

興味深いが議論の余地がありそうなのは、M11では常にCMOSセンサーを使って測光する方法が採られたことだ。基本的にこのカメラは常に「ライブビュー」モードにしておけば、正確な露出が得られるが、DPReviewに掲載された最初のレビューによると、起動時間が長くなっているという。一般的にライカのカメラは、電源を入れてから電光石火で撮影できるものなのだが。

M11にはUSB-Cポートが備わり、新しい大容量バッテリーを充電したり、SDカードや64GBの内蔵メモリからショットを取り出したり、スマートフォンやコンパニオンアプリに直接吸い出したりすることができる(フルレゾで撮影しないもう1つの理由だ)。

ライカのMシリーズは比類のないカメラであり、単に楽しむために写真を撮っているような人が選ぶカメラでは決してない。そういう人は、M11ボディの8995ドル(日本での価格は税込118万8000円)という価格には当然ながら抵抗を感じるだろう。M10は2017年に6600ドル(日本では税別85万円)で発売されたが、インフレを考慮しても新モデルの価格には目が飛び出そうになる。もちろん、これはレンズを購入する前に払う金額だ。

しかし、今回の記事のポイントは、特にこのカメラを人々に勧めることではない。それよりも私が言いたいことは、ライカという会社が今でも技術的に興味深く、非常に優れたカメラを作っており、その技術は時折、私やあなたのような一般人でも(1~2カ月間カップラーメンを食べて生活した後なら)買えるような価格にまで下がることがある、ということだ。

今後、M11のバリエーションが増えることを期待しつつ、ここで示されたデザインの知見の一部が、より手頃な価格の製品に応用されることも期待したい。いや「手頃な」価格ではなく「中古の自動車よりも安い」価格だ。

なお、ライカM11は日本では1月21日発売予定となっており、現在予約を受け付けている。

画像クレジット:Leica

原文へ

(文:Devin Coldewey、翻訳:Hirokazu Kusakabe)

韓国Doosanがコンテンツクリエイター向けロボットカメラを発表、さらに約39億円を調達

Doosan Robotics(斗山ロボティクス)は韓国時間1月4日、Praxis Capital PartnersとKorea Investment Partnersが主導して3370万ドル(約39億円)を調達したことを発表した。この資金調達のニュースは、ソウルを拠点とする同社が、ラスベガスで開催中のCESに新製品を出展するのと時を合わせ発表された。

同社はこの資金調達により、研究開発を強化し、新しいパートナーを獲得して、世界的な事業拡大を目指すとしている。また、Doosanはリリースの中で、同社の協働ロボットシステム(コボット)が年間販売台数1000台に達し、韓国以外の地域(主に北米と西ヨーロッパ)での販売がその約70%を占めるようになったと述べている。同社はIPOも視野に入れているとのこと。

Junghoon Ryu(リュウ・ジョンフン)CEOはリリースでこう述べている。「今回の資金調達により、事業の成長を加速させたいと考えています。当社独自の技術を搭載した新製品やソフトウェアの競争力をさらに高め、世界のコボット市場でシェアNo.1の地位を獲得することを目指します」。

Doosanは協働ロボット(collaborative robot=cobot)で知られており、その用途は製造業や研究機関から、2021年末にデビューしたコーヒーを作るバリスタロボット「Dr. Presso」まで多岐にわたる。

今回の発表では、資金調達の他に「NINA(New Inspiration. New Angle)」カメラシステムも発表された。数週間前にCESイノベーションアワードを受賞した際の記事で言及したが、今週、3月に発売予定の同ロボットシステムの情報をさらに得られた。

同社はNINAを「プロシューマー」システムと呼んでいるが、複雑な撮影を比較的簡単にボタン操作だけで行えるようにするためだろう。その一部は、オブジェクトトラッキングなどの機能に加え、ユーザーがさまざまなショットをプログラムできるオープンプラットフォームによるものだ。

リュウCEOは別の声明で、次のように述べた。「NINAは、Doosanがエンターテインメントとコンテンツのジャンルにラインアップを拡大していく中で、当社にとってまったく新しい時代の到来を告げるものです。私たちの目標は、エンターテインメント、広告、ソーシャルメディア、その他の関連業界のプロのコンテンツクリエイターに、親しみやすく、かつ革新的なものを提供することでした。NINAはそれらすべての面で大きな成果を上げてくれると確信しています」。

画像クレジット:Doosan Robotics

原文へ

(文:Brian Heater、翻訳:Aya Nakazato)

【レビュー】Mevo Multicamは手ごろですばらしいライブ配信スタジオだ……必要なのは「それを信じる」ことだけ

Mevo Multicam Appと3つのカメラがセットになったMevo Start 3パックは999ドル(約11万4000円)。これに良い照明と適当なマイクを加えれば、2000ドル(約22万8000円)以下でフルマルチカムのストリーミングセットアップが完成する。数年前ではまったく考えられなかったことだ……人類の進歩は驚くべきことだとしみじみ思う。これにしっかりとしたインターネット接続を追加すれば、このキットよりも2桁は高価な機器を満載した衛星中継車の中核的な機能が再現される。

プロの放送局のニュースクルーがMevo Startキットを使うことはできるだろうか。それは難しいだろう。もっと高い信頼性と冗長性、そして生放送のニュースレポーターのニーズに対応した機器が必要だ。しかし、同じ問題を別の視点で考えてみると、非常にわかりやすくなる。

例えば、ユーチューバーが自分のスキルを発揮したいと思ったらどうだろう?ウェブカメラとOBS(録画とライブ配信用のアプリ)を組み合わせてライブ配信を行っている人なら、もっと簡単に分解・再構築できるセットが欲しいと思うかもしれない。Twitchで音楽配信をしていたり、自分のバンドで何度かライブ配信したことがあったり、マルチカメラを使ったライブ配信の腕を上げたいと考えている人も、さまざまな会場で行われるイベントのライブ配信を始めたいと思っている人もいるだろう。この場合、Mevo Start 3パックは俄然お買い得に思える。何よりも、最初にセットアップしてしまえば、分解して再度組み立てるのも簡単だ。

少なくとも理論上は良い話だ。しかし、少しリラックスして考えてみよう。本当にこれだけのことができるのだろうか?

テクニカルレビュアーは時として不可能といってもいい課題に直面する。自分の用途ではない製品をどうやってレビューするのか、その製品が対象とするユーザーに適しているかどうかについて、どうしたら有意義なレビューをすることができるのか。Logitech for Creators(ロジテックフォークリエイターズ)のMevo MulticamアプリとMevo Start 3パックは、まさにそのような製品の1つだ。筆者はTwitchやYouTube、Facebookのストリーマーではないが、放送ジャーナリズムを中心としたジャーナリズムの学位を取得している。ニュースキャスターやテレビの生中継レポーターとして訓練を受けたことが懐かしい。BBCニュースの衛星中継車では(文字通り)熱い時間を過ごした。テレビのプロデューサーだったこともある。

問題は、ある業界で専門的な経験を積むと、普通の人とは異なる期待を持って製品に臨むようになることである。BBCに在籍していたときは、生放送中に衛星への信号がほんの一瞬落ちただけでも、ニュースルームの送受信センターにとって信じられないほどのストレスだった。一方で、端的にいえば、このキットは何百万、何千万もの人々にニュース速報を伝えるための中継車1台分の機材を置き換えるためにデザインされたものではない。ユーチューバーに使ってもらうためのものだ。

Mevo Multicamアプリは、マルチカメラを使用したライブ配信のコントロールセンターとして機能する。エレガントなすばらしい方法でマルチカメラストリーミングを行うことができる(画像クレジット:Haje Kamps for TechCrunch)

理論上はMevo Startは非常に良いアイデアのように思える。しかし、これはMevo Startが完ぺきという意味ではない。Mevo Startは明らかに、薄暗いクラブハウスでカメラ機材のセットアップに長い時間を費やしたことのない人によって設計され、その製品チームはMevo Startキットのセットアップと解体を連続して30回行うことを要求されていない。もしそうなら、製品の仕上がりに大きな影響を与えるほんの少しだけ異なる判断をしていただろう。

例えば、カメラの電源ボタンについては実に愚かだ。電源ボタンはゴム製ではあるものの、ボディに対して凹凸がなく、触っただけではどこがボタンかわからない。さらに悪いことに、マットブラックのボディに対して電源ボタンもマットブラックだ。暗闇の中で、何人ものミュージシャンに囲まれながらカメラを設置しようとしたらどうなるかを考えてみたらいい。公平を期すためにいえば、これは製品設計上よくあることである。CADで設計され、明るいハードウェアラボでテストされた製品を、誰かが「カメラが使用されるであろうユースケースに合わせて調整しよう」と考えるのが遅すぎたのだ。

カメラの背面:電源用のUSB-Cポート、ローカルレコーディング用のMicroSDカードスロット、マイク入力、そして暗闇の中では非常に見つけにくい電源ボタンがある(画像クレジット:Haje Kamps for TechCrunch)

デザイン上の特徴を1つだけ殊更に強調するのは申し訳ないとは思うが、電源ボタンはカメラの唯一のボタンであるので重要なことだ。電源ボタンが簡単には押せず、かなりの力で押さなければならない、という点はすばらしい。ライブ配信中の事故は絶対に避けたいものだが、誤って電源ボタンを押してしまうのを防ぐことができる。一方で、ライブ配信のために急いで何かを設定しようとすると、両手がふさがってしまう。筆者の場合、片手はマイクや他の機材でふさがっていて、常に片手でカメラの電源を入れたり切ったりする必要があった。(電源ボタンがかたいということは)つまり、カメラの電源ボタンを押すときには、電源ボタンの反対側の同じ位置をつかんでカメラを固定しないと力が入らない、ということである。残念ながら、電源ボタンを押す際、力をいれようとすると自然にレンズもつかんでしまうということになる。カメラの中で唯一指紋をつけてはならないのがレンズなのだが。

片手でカメラの電源を入れたり切ったりするには、このようにカメラを持つしかない。人差し指は電源ボタンを押しているが、親指はどうだ?次にやるべきことは、レンズについた親指の指紋を消すことか?(画像クレジット:Haje Kamps for TechCrunch)

電源ボタンはさておき、このカメラにはスマートなデザインも多くみられる。迷光を防ぐためにドーム型のレンズの上には小さなひさしがあり、レンズフレアの軽減に大いに役立っている。カメラ底部の三脚穴は取り外し可能で、穴の径を変えればカメラをマイクやライトスタンドに取り付けることができる。カメラ前面のライトLEDは、スタンバイ中のカメラを示す緑のLEDと、実際に撮影中であることを示す赤のLEDで構成されている。カメラにはバッテリーが内蔵されているので、電源がなくてもライブ配信を開始することが可能。外出先でのライブ配信にも適している。これらはすべて、非常に考え抜かれた機能である。

しかしながら、カメラのセットアップには非常に苦労した。3台とも使用する前にファームウェアのアップグレードが必要だった。もしかしたら筆者がAndroidデバイスを使用しているのが原因で、iOSのアプリの方がこなれているのかもしれないが、判読不能なエラーメッセージが表示されて完了までに何時間もかかった。最終的には使えるようになったものの、スマートフォンを6回も再起動する羽目になった。そのうち1回は最初に各カメラに接続するため、もう1回はファームウェアのアップグレードの失敗からリカバリーするためだ。

ファームウェアの問題が発生したことを受けて、筆者はMevoのプレスチームに連絡をしてみた。彼らは開発チームに連絡してカメラが動作するようサポートと提案してくれた。筆者はこれについて検討したが、その申し出は断ることにした。ハードウェアレビュアーとしては、製品の開発に携わった人と電話で話すことができるというメリットがあるが、消費者としては、このようなことは期待できない方が多い。

もし自分で使うためにこのカメラを購入していたなら、この時点で返品していたと思う。筆者はハードウェアのレビューを長年担当してきたが、レビューを始める前にスマートフォンを6回も再起動しなければならないような製品をテストしたことはない。数日間あきらめて、やっと重い腰を上げてカメラを本格的に試そうとしたら、またファームウェアのアップグレードがあった。今回は比較的スムーズに作業を進めることができたが、数週間のうちに2回もカメラのファームウェアをアップデートしなければならないというのは決して心強いとはいえない。

問題の核心は「信頼性」にある。製品の中には、2回、3回うまくいかなくても問題のないものがたくさんある。例えば、Google Nest Thermostatの温度を変更しようとして、最初はうまくいかなかったとしても、それはそれで問題ない。もう一度やってみる、うまくいく。それでOKだ。しかしながら、ライブ配信はエアコンをつけるようなものではない。数千人の人々がライブを観ている場合はストレスレベルが上がり、小さな技術的な問題であっても、とてつもないストレスとなる可能性がある。私の感覚は、何百万、何千万もの視聴者が観ているかもしれない衛星回線のライブや、現場からのライブレポートがニュースルームに届かずに台無しになってしまうテレビの生放送なので、おそらく他のライブストリーマーは、筆者のように技術的な問題に敏感ではないのだろう。

取り外し可能な三脚穴のデザインはありがたい。ネジは照明スタンドのサイズと三脚のサイズの2つ。ネジを外すとマイクスタンドのネジのサイズになる。非常によくできた仕組みだ。ボディに指紋がつきやすいのは指摘しておくべきだろうが、機能的には問題ない(画像クレジット:Haje Kamps for TechCrunch)

製品を完全にセットアップできたら、製品が輝くチャンス到来だ。カメラを操作するMevoのアプリは非常に優れている。Mevo Multicamアプリでは、1台のカメラで撮影を準備し、カメラ間でフェードイン / アウトすることができる。また、ズームインやオーバーレイの使用、さらにはデジタルパンニングも可能だ。基本的には非常にシンプルなセットアップでありながら、非常にパワフルな結果を生み出すことができる。

セットアップのプロセスについては不満を並べたが、それはここで打ち切るべきだろう。筆者はこのカメラをさまざまな場面でテストしたが、一度も期待を裏切られることはなかった。問題も起きなかったし、バッファリングし続けることも、遅延、切断もなかった。

マルチカメラによるストリーミングは、創作活動、音楽ライブ、実写イベントなどに最適である。Mevo Startは、小さなボディに驚くべき価値を秘めている(画像クレジット:Haje Kamps for TechCrunch)

問題は、筆者がこのカメラを完全に信頼することができなかったことであり、結果として筆者が担当するライブ配信にこのカメラを使用することはおそらくないだろう、ということだ。3台のカメラを用意して、もらったばかりの子猫たちが遊んでいる様子をライブ配信するか?もちろん、見応えのある愛らしい映像になると思う。友人が地元のバーで行う音楽ライブの様子を、何十人かのライブ配信愛好家に向けてライブ配信する際は利用するだろうか?おそらく「No」だ。ストレスレベルが高すぎる。長時間なんの問題なくライブ配信して初めて、重要な撮影にこのカメラを使ってもいいと思えるだけの信頼を置けるかどうか、といったところだ

ここに難問がある。ライブ配信は非常に危険で高ストレスなものなので、自分の機材を信頼できると感じることが重要である。私がこれまでにレビューした製品の中でも、Mevoのカメラは信頼という点で最悪のデバイスだ。とはいえ、逆もまた真なりだ。というのは、レビュアーという仕事では、ファームウェアの初期バージョンや、まだ本領を発揮していないソフトウェアを目にすることもある。Mevoは、このレビューで見つかった問題を解決してくれるかもしれないし、3カ月後、6カ月後にはカメラはすばらしいものになっているかもしれない。筆者は喜んでそれを受け入れよう。

少なくとも理論的には、マルチカメラにチャレンジしたいと考えているライブストリーマーにとって、Mevo Start 3パックは費用対効果の高い、完ぺきに近いソリューションとなるはずだ。この製品がおすすめできるかどうかは、数カ月後に再検討したいと思う。

画像クレジット:Haje Kamps for TechCrunch

原文へ

(文:Haje Jan Kamps、翻訳:Dragonfly)

テスラ、一部の故障したオートパイロットカメラを無償で交換との報道

CNBCによると、Tesla(テスラ)は一部の電気自動車のフロントフェンダーに搭載されているオートパイロットのカメラを無償で交換する。Teslaはまだリコールを発表していないが、CNBCは11月下旬に認定サービスプロバイダーに配布された内部文書を確認し、その中でTeslaは欠陥のある中継カメラを無償で交換するよう求めている。同社がカリフォルニア州フレモント工場で製造しているModel S、X、3の一部の車両に搭載されているカメラの回路基板に不具合があるようだ。

このカメラはクルマの死角を撮影するもので、これがないとオートパイロットは機能しない。カメラが意図したとおりに作動しなければ、ドライバーには、メインディスプレイのブロックボックスが見えるだけで、オートパイロットの機能に制限あることが警告される。CNBCによると、Teslaは使用したPCBの欠陥により、少なくとも数百台分のカメラを交換しなければならない可能性があるという。

TeslaのセールスマネージャーはCNBCに対し、内部サービス通知後に自主的なリコールが行われることもあるが、Teslaはまだ声明を出していないと述べている。Teslaは、過去にもさまざまな問題で何度かリコールを行った。10月には、フロントサスペンションのラテラルリンクのファスナーがゆるむ可能性があるとして、約3000台のModel 3とYをリコールした。また、2017年以降、そして11月にバグのあるフルセルフ ドライビングベータ版のアップデート後に誤作動でブレーキがかかりやすくなったため、同社は1万1704台をリコールした。

編集部注:本稿の初出はEngadget。執筆者のMariella MoonはEngadgetの共同編集者。

画像クレジット:Getty Images

原文へ

(文:Mariella Moon、翻訳:Nariko Mizoguchi

レーザー狙撃による害虫駆除の2025年までの実用化目指し、農研機構が害虫の飛行パターンから動きを予測する方法を開発

高出力レーザー狙撃による害虫駆除の2025年までの実用化目指し、農研機構が害虫の飛行パターンから動きを予測する方法を開発

農研機構

独立行政法人 農研機構は11月29日、害虫の飛翔パターンをモデル化し、ステレオカメラで撮影したリアルタイム画像から数ステップ先(0.03秒先)の位置を予測できる方法を開発したと発表しました。将来的には、予測された位置に高出力レーザーを照射するなどし、害虫を駆除するシステムに繋げたい考えです。

病害虫の防除と言えば、化学農薬のイメージがありますが、多額の開発コストや長期に渡る開発期間のため、新薬の開発数は減少傾向にあるとのこと。また、おなじ薬剤を使用し続けることで、害虫が耐性を獲得するなどの問題もあります。

このため、ムーンショット型農林水産研究開発事業「害虫被害ゼロコンソーシアム(先端的な物理手法と未利用の生物機能を駆使した害虫被害ゼロ農業の実現)」では、レーザー狙撃による物理的防除方法を開発しています。飛翔している害虫を検知し、レーザー光によって狙い撃ちするというものですが、害虫を検知してからレーザーで狙撃するまでに0.03秒程度のタイムラグが発生してしまうとのこと。虫は移動し続けているため、レーザーを命中させられないわけです。

高出力レーザー狙撃による害虫駆除の2025年までの実用化目指し、農研機構が害虫の飛行パターンから動きを予測する方法を開発

農研機構。レーザー狙撃による害虫防除システムの概略(イメージ)

これを解決するため、検知から0.03秒後の害虫の位置をリアルタイムで予測しようというのが、今回開発された方法です。

研究では、対象害虫としてハスモンヨトウの成虫を使用。3次元空間で不規則に飛行するハスモンヨトウをステレオカメラを用いて1秒間に55回のペースで撮影。飛行パターンをモデル化し、リアルタイムで計測される位置と組み合わせることで飛行位置を予測します。なお、ハスモンヨトウはタイムラグの0.03秒の間に、体長1個分(約2~3cm)移動するとのことです。

高出力レーザー狙撃による害虫駆除の2025年までの実用化目指し、農研機構が害虫の飛行パターンから動きを予測する方法を開発

農研機構。8匹のハスモンヨトウの位置を同時に計測した様子。1秒間に55回撮影した画像からハスモンヨトウを検出し飛行軌跡を描画した。青色は検出を開始したハスモンヨトウの位置を表し、赤色がその終点を表す。ハスモンヨトウは夜間に活発になるため、撮影は夜間を模した暗闇環境で実施。ステレオカメラの画像には壁や柱なども写り、暗闇環境で撮影するため画像中に小さい塵のようなノイズが含まれることがある。これら不要なものをリアルタイムで除去し、飛翔するハスモンヨトウだけを検出できる方法を考案した

害虫被害ゼロコンソーシアムでは、2025年までに、今回開発した手法で予測した位置にレーザーを照射して害虫を駆除する技術の実用化を目指します。将来的には、車両やドローンなどに搭載し、人的労力ゼロで害虫などによる被害を抑制するための基盤技術になることを期待しているとしています。

(Source:農研機構Engadget日本版より転載)

東芝、ズームレンズと単眼カメラで撮影した複数写真のみで遠隔地にある対象物のサイズ計測が可能なAIを開発

東芝、ズームレンズと単眼カメラで撮影した写真のみで遠隔地にある対象物のサイズ計測が可能なAIを開発

東芝は11月22日、ズームレンズと一般的な単眼カメラ(一眼レフカメラ)で撮影位置などの条件を変えて撮影した写真のみから、遠隔地にある対象物のサイズを3次元計測できる技術を世界で初めて開発したことを発表した。インフラ点検などにおいて、高所や傾斜地など危険な場所に近づくことなく計測が可能になる。

国内のインフラ設備の平均年齢が35年を超えるなど、道路・橋・トンネルといったインフラの老朽化が問題となり、早急な対応が求められているが、効率的な工事を行うには、補修箇所の正確なサイズ計測が重要となる。だが、高所や斜面など危険な場所では目視による計測が難しい。そこで東芝は、危険な箇所に近づくことなく、遠くからズームレンズで撮影した写真から簡単にサイズ計測ができるAI技術を開発した。異なる位置から撮影された複数の写真(多視点画像)から割り出された相対的な奥行き情報と、画像のボケ情報を組み合わせ、スケール情報と焦点距離を未知パラメータとする最適化問題を解くことで、撮影画像のみでサイズの絶対値がわかるというものだ。

カメラの画像でサイズが計測できるアプリはスマートフォンにも搭載されている。これには、多視点画像から得られた相対値に絶対値を与えるジャイロセンサーと、あらかじめ学習されたAIモデルが必要となる。そのため、学習の範囲を超える遠距離となると精度が落ちてしまう。

東芝が開発したシステムでは、7m離れたひび割れのサイズを高精度に計測できた。屋外の11カ所で、5〜7m離れた対象物のサイズを計測したところ、サイズ誤差は3.8%に抑えられた。この精度は、公益社団法人日本コンクリート工学会が定めるコンクリートのひび割れ補修指針に基づく数値シミュレーションで「高精度の補修の必要性を判別できる」と確認された。さらに、2mm以下のひびのサイズの絶対値の計測も行えた。

この技術は、インフラ点検のみならず、製造、物流、医療など、カメラによるサイズ計測が行われる分野に応用ができると東芝では話している。今後も様々なカメラやレンズを使った実証実験を進め、早期の実用化を目指すということだ。東芝、ズームレンズと単眼カメラで撮影した写真のみで遠隔地にある対象物のサイズ計測が可能なAIを開発

フェイスブックのMetaスマートウォッチ、リーク写真にはカメラのノッチが見える


Meta(メタ、つまり、かつてFacebookと呼ばれた会社)は、写真や動画を撮影できるスマートウォッチを開発しているかもしれない。Bloombergは、Apple Watchに似た角丸のスマートウォッチを示す画像を公開した。ただしそこには、フロントカメラのノッチもある。アプリ開発者のSteve Moser(スティーブ・モーザー)氏は、同社のスマートグラス「Ray-Ban Stories(レイバン・ストーリーズ)」の操作に使われるアプリ内でこの画像を発見し、将来的に同アプリがスマートウォッチの操作にも使われる可能性を示唆している。

画像クレジット:Meta

角が丸く、カメラを搭載していることに加え、ステンレススチールのケーシングと取り外し可能なストラップを備えているようだ。また、モーザー氏は、アプリ内のコードから、この時計が「Milan」と呼ばれる可能性があることや、この時計で撮影した写真や動画をスマホにダウンロードできる可能性があることを示しているという。

Bloombergによると、Metaは早ければ2022年にスマートウォッチを発売することを目指しているが、まだ何も決まっていないようだ。さらに、Facebookの親会社となった同社は、異なる時期に発売される3世代の製品にすでに取り組んでいると報じられている。今回の画像に写っているデバイスがそのうちの1つなのか、あるいは発売されるのかどうかも定かではない。しかし、The Vergeも2021年初め、Facebookがフロントカメラとオートフォーカス付きの1080p背面カメラ(手首から外して使うもの)を搭載したスマートウォッチを開発していると報じている。また、心拍計やLTE接続機能も搭載される可能性があるが、それらの機能は3種類のモデルに分散されるかもしれない。

編集部注:本稿の初出はEngadget。著者Mariella Moon(マリエラ・ムーン)氏は、Engadgetのアソシエイトエディター。

画像クレジット:Facebook

原文へ

(文:Mariella Moon、翻訳:Aya Nakazato)

【レビュー】DJIの最新アクションカメラ「Action 2」はすばらしいプロダクトだが、オーバーヒート問題は未解決

第2世代となったDJIの「GoProキラー」は、これ以上ないほどの出来栄えだ……スペックを見た限りでは。

この圧倒的に小さい「DJI Action 2(DJIアクション2)」は、コンパクトでありながら充実したスペックを誇り、コアカメラユニットの機能を拡張できる魅力的なモジュラーデザインを採用している。率直にいうと、Apple(アップル)が古い「GoPro Session(セッション)」カメラの再デザインを担当したらこんな感じになるのではないかといった印象だ。この製品には2種類のバリエーションが設定されている。コアカメラユニットと、それにマグネットで取り付けられて長時間の撮影が可能なバッテリーキューブが付属する税込4万9500円の「DJI Action 2 Powerコンボ」と、カメラユニットに取付可能なフロントタッチ画面モジュールがセットになった税込6万3800円の「DJI Action 2 Dual-Screenコンボ」だ。重量56グラムのAction 2コアカメラユニットは、4K/120fpsで撮影可能な最新の「GoPro Hero10 Black(ゴープロ・ヒーロー10ブラック)」に匹敵する性能を半分のサイズで実現する……少なくともそのように宣伝されている。

筆者はこのデバイスを数日間使用する機会を得たが、見出しが示すように、今回の試用では問題がないわけではなかった。要するに、このデバイスは非常に美しく、いくつかの明確な方法で革新をもたらしたものの、まだ発売に向けて準備が整っていないような状態だったのだ。

まず最初に、良い点を挙げよう。

ハードウェアは非常にすばらしく、モジュラーデザインは期待以上にうまく機能する。マグネットクリップやロック機構もしっかりしていて、全体的に密度の高い重厚感があり、これまで試したどのアクションカメラよりも高級感がある。映像画質は、この価格帯のアクションカメラとしては概ね期待どおりで、同梱されていたネックレスのようなマウントやマグネット式マクロレンズなどのアクセサリーも楽しめた。外付けのバッテリーユニットや画面モジュールに取り付けないと、中心のカメラユニットを充電できないといったクセはあるが、全体的に見てこのモジュール方式はうまくできている。

画像クレジット:DJI

このデザインは、主に携帯性とバッテリーライフのバランスを考えたものだ。Instagram(インスタグラム)に投稿するための短い動画を撮影するだけなら、追加モジュールは家に置いておくことができる。DJIはAction 2を、プロアスリートやインフルエンサーのような人向けのクロスオーバーアクションカメラとして販売することを目指しており、付属のマグネット式ストラップで胸に装着できるコンパクトなデザインになっている。

Action 2で4K動画を撮影した(というか、撮影しようとした)ところ、1回の充電で約30分の映像をコアカメラのみで撮影できることがわかった。これはソーシャルメディアに投稿するためのクリップとしては十分だが、一般的なアクションカメラとしては物足りない(DJIは最大70分の駆動時間を謳っている)。バッテリーモジュールや画面モジュールを取り付けて撮影すれば、より長時間の撮影が可能になる。

さて、次は悪い点だ。

理論上、120フレームの安定した4Kビデオをこの小さなパッケージで撮影できるというのは、信じられないほどすばらしいが、しかし残念ながら、この謳い文句は真実に対して良く言い過ぎだということがわかった。最高の画質設定で実際に撮影できた時間は5分に満たず、それを超えるとオーバーヒートのために自動的に録画を停止してしまうのだ。実際、どの設定にしても、最終的にオーバーヒートで停止することなく、4Kで撮影を続けることはできなかった。最も低い24fpsの設定でさえもだ(このモードでは15分弱の映像を撮影できた)。機能しないほど熱くなるというのは、DJIが胸部や頭部に装着できると宣伝している製品にとって厳しい問題だ。

DJIの広報担当者は、他のレビュアーでも同様のオーバーヒートによる問題があったことを確認しており、今のところは低い解像度で撮影することが唯一の解決策であると述べている。

画像クレジット:DJI

ハンズオンではこれ以上深く掘り下げることが難しい。なぜなら、どのフレームレートでも一貫して4K品質のビデオを撮影できるわけではないので、少なくとも発売当初は、誰かに購入をお奨めしにくい。Action 2の大きく世代を超えたデザイン変更の大胆さは評価できるが、GoProの段階的な連続したアップグレードにも敬意を持てるからだ。GoProにはAction 2のような華々しさはないものの、一貫して宣伝通りの機能を発揮することができる。

我々は概して、初代DJI Actionカメラの大ファンだった。2019年に発売された初代Actionは、GoProの強力なライバルになることを証明しただけでなく、非常に説得力のある数々の機能を披露し、その多くは歴代のGoProで採用されることになった。「しかし、今のところ、ここで見つけられる欠点はほとんどが小さなものだ。このことは、老舗企業の製品とはいえ、実質的に第一世代の製品としてはかなり注目に値する」と、同僚のBrian Heater(ブライアン・ヒーター)は当時書いていた。

DJIはファームウェアのアップデートでこれらの問題を解決するかもしれないが、現時点でこのデバイスは、明らかにレビュアーに送る準備ができていなかった。メーカーがいくつかの重要な修正を示すまで、私なら注文するのを控えたいと思う(DJI Action 2は10月27日より販売中)。

画像クレジット:DJI

原文へ

(文:Lucas Matney、翻訳:Hirokazu Kusakabe)

【レビュー】グーグル「Pixel 6 Pro」、ハード面でも真のブレークスルーを達成

家電製品の領域では、ヘイルメリーパス(アメフトで逆転勝利を狙って行ういちかばちかのロングパスのこと)を何度も出すことはできない。それがたとえ大企業であってもだ。例えば、Microsoft(マイクロソフト)の携帯電話に対する長年の思いを見てみよう。かつて圧倒的な強さを誇ったNokia(ノキア)を72億ドル(約8200億円)で買収しても、Apple(アップル)やSamsung(サムスン)と肩を並べることはできなかった。


初期の失敗を除けば、Google(グーグル)のモバイルハードウェアの野望は、全体的に見てより成功しているほうだ。しかし、Pixelシリーズは、このカテゴリーに費やされたリソースを正当化するのに必要な大ヒットを記録していない。これらのデバイスは、よくいえば、Googleがモバイルソフトウェアや機械学習で取り組んでいるクールなものを紹介するためのショーケースであり、悪く言えば、一種の劣等生のようにも感じられてきた。

スマートフォンのような混雑した分野に参入することは決して容易ではなかったが、同社が波風を立てずに奮闘している姿は、正直なところ奇妙なものだった。また、他社フラッグシップスマートフォンがどれも全体的に非常に優れており、この分野での継続的な優位性が主にこれまでの前進する勢いの結果によってもたらされている場合、これを達成させることは二重に困難だ。さらに面倒なことに、Googleは、真のブレークスルーはすべて「ソフトウェア側」で起こっていると長年執拗に主張してきた。

AppleやSamsungなどがスペック競争に明け暮れるのは時間の無駄だというのは、確かにおもしろい命題だ。確かにその通りだと思うが、少なくとも現状では、ハードウェアに依存しないことは不可能だ。人工知能や機械学習の重要性が増していることは間違いないが、カメラレンズ、ディスプレイ、プロセッサーのすべてが重要であることに変わりはない。少なくとも、今のところは。

Google Pixel 6 Pro

2020年5月、Pixelチームの主要メンバーが会社を去ったことが明らかになった。これは、大きな見直しの一環であり、その再考はさらに進むことになる。2021年の8月には、Sundar Pichai(サンダー・ピチャイ)CEOが、同社が4年前から自社製の半導体を開発していることに言及した。Qualcomm(クアルコム)のようなチップメーカーからの脱却は、ヘイルメリーパスを出す(リスクをとる)上で、大きな意味を持つ。そして、それには大きな携帯電話が必要になってくる。

2020年の同時期に発売された「Pixel 5」は、旧来の方法の最後の名残となった。大きな変化は一夜にして起こるものではなく、ましてや主要な家電製品ラインに関しては1年で起こるものでもない。Googleにとっては残念なことに、小規模なリストラのニュースが発売前に流れてしまい、Googleでさえ、より良い時代が来るのはまだ随分先だということを認めざるを得なかった。今回の「Pixel 6」が、Googleの製品ラインを決定するものではないが、何世代にもわたって刺激のない販売を続けてきたGoogleは、物事が正しい方向に向かっていることを証明する必要がある。

その基準からすれば、本モデルは大成功といえるだろう。

Google Pixel 6 Proレビュー

スペックにこだわらないGoogleの姿勢とは対照的に、優れたソフトウェアにはやはり優れたハードウェアが必要だということを証明している。Pixel 6は、決してオーバークロックされた最先端のスペックマシンではないが、適切なハードウェアを与えられたときに、Googleの優れたソフトウェアにどんなことができるのかを示す例となっている。

しかし「Pixel 6 Pro」を手にした瞬間、何かが違うと感じた。この端末は、Pixelの系列というよりも、Samsungの製品のように感じられる。Galaxyシリーズを彷彿とさせるサイズ感と重厚感があり、曲面ガラスのエッジによってその美しさはさらに増している。

発表当日、正直なところ最も驚いたことの1つは、オンラインコミュニティで曲面ガラスについての意見がいかに二極化しているかということだった。今回の発表では、Samsungのようにエッジを用いた機能を盛り込むのではなく、主に美しい外観を重視した使い方がされている。私が耳にした曲面ガラスに対する最大の反論は、携帯電話の両脇をつまんだときに誤ってタッチスクリーンを作動させてしまうリスクだ。この問題に関しては、私は経験していないし、正直なところ、私は全体的に曲面スクリーンには興味がない。

Google Pixel 6 Proレビュー

6 Proのディスプレイは6.7インチで、512ppiのQHD+(3120×1440)OLEDだ。最大リフレッシュレートは120Hzで、大きくて明るいのがいい。一方、スタンダードのPixel 6は6.4インチ、411ppi、90Hzのディスプレイだ。どちらを選んでも間違いではないが、Proはこの点で優れたアップグレードといえる。前面のカメラはピンホールデザインで、デフォルトの壁紙では見えづらくなっている。

また、下部にはディスプレイ内蔵指紋認証リーダーがあり、すばやくロックを解除することができる。ディスプレイはGorilla Glass Victusで覆われており、背面にはGorilla Glass 6が使用されている。背面の上部3分の1は、大きくてはっきりとしたカメラバーで独占されている。デザイン的には気に入っている。競合他社がこぞって採用している標準的な四角いカメラバーからの良い変化だ。

しかし、このカメラバーにはかなりの高さがあるため、背面に置いたときに携帯電話が斜めになってしまう。しかし、標準的なケースを装着することで、この影響はほとんどなくなるだろう。カメラの配置でもう1つ気になるのは、ランドスケープモードで撮影する際に、手の位置を少し気にしなければならないことだ。この点については、私は特に問題を感じなかったしし、もし問題があったとしても簡単に正すことが可能だ。

  1. PXL_20211020_202724275

  2. PXL_20211020_205606592

  3. PXL_20211020_210136151

  4. PXL_20211020_200038741

  5. PXL_20211020_201037316

  6. PXL_20211020_195716958

  7. PXL_20211020_201141829

  8. PXL_20211020_201930032

  9. PXL_20211020_202455176

  10. PXL_20211020_202856092

  11. PXL_20211020_202906327

  12. PXL_20211020_210449977

カメラバーの上下のガラスにわずかな色の違いがある。これは、Pixelの旧モデルで電源ボタンに採用されていたような、ちょっとした遊び心だ。Googleが、どれも瓜二つの競合製品との差別化を図る方法をいまだ開発し続けてくれていることは明らかだ。ありがたいことに、これはほんの些細なポイントだ。デザイン言語全体は、退屈さと突飛さの間のちょうどよいラインだ。

カメラシステムは、優れたソフトウェアとハードウェアが互いに影響し合うことを示す究極の例といえる。「Surface Duo」と同時にPixel 6 Proをテストしていたのだが、特に光が混ざった状態や光量の少ない状態では、Microsoftのデバイスがしっかりとしたカメラリグを持っているにもかかわらず、(いわば)昼と夜のような違いがでた。

何世代にもわたって独自のカメラシステムを開発してきたことが功を奏したのだと思う。私は、このカメラで撮影できた写真がとても気に入っている。Proに搭載されている4倍の光学ズームもいい感じだ。デジタルでは最大20倍まで可能だが、Googleのコンピュータ写真処理を使っても、すぐに画像にノイズが入るようになってしまう。

標準的なPixelカメラの機能に加えて、いくつかのクールな新機能が搭載されている。「消しゴムマジック」は、Photoshopの「コンテンツに応じた塗りつぶし」ツールと原理的には似ている。不要な背景画像の上に指を置くと、周囲の設定を使ってその部分を埋め、被写体を効果的に「消す」ことができる。しかし、完璧とは言えない。よく見ると、ムラのある部分が見つかるのと、周囲の環境が複雑であればあるほど、一般的に出来栄えは残念なものになる。それでも、アプリに搭載された新機能としては、すばらしい働きをしてくれている。

「アクションパン」も同様だ。この機能は、ポートレートモードと同様に、被写体の背景に擬似的なぼかし効果を加えてくれる。車のような大きくて幾何学的にシンプルな形状のものによく合う。一方、自転車に乗っている人などは、ポートレートのように輪郭周辺部が気になる。「長時間露光」はその逆で、動いているものをぼかし、背景は静止したままにしてくれる。

正直にいうと、私はパンデミックで閉じこもりがちな生活を送っているため、ヒトを撮影する機会があまりなかった。また、2台のカメラと顔検出機能を使って、動いている被写体にシャープな画像を合成する「フェイスアンブラー(顔のぼかし解除)」機能も注目されている。「リアルトーン」機能については、近日中にもう少し詳しく紹介する予定だが、幅広い肌色をよりよく撮影できるようになったことは、大いに歓迎すべきことだ。ただし、この機能も顔検出に依存しているため、問題が発生することもある。

また、Pixelに搭載された一連のテキストツールも印象的だ。私の限られたテストでは、リアルタイム翻訳がうまく機能し、テキスト入力にすばらしい効果をもたらしてくれた。アシスタントの音声入力はうまく機能しているが、音声による絵文字の追加など、時々問題が発生した(おそらく私の発音が悪いのだろう)。また、ドイツ語や日本語に対応した「レコーダー」などの既存の機能に加えて、このような機能が追加されたことは歓迎すべきことだ。

Google Pixel 6 Proレビュー

もちろん、今回のショーの主役はTensorだ。Googleは、現在増えつつあるQualcommの半導体の独占状態を避けて独自のチップを採用する企業の仲間入りを果たした。これは、4年前から計画されていたもので、GoogleがPixelシリーズに今後も力を入れていくことを示す良いサインといえるだろう。今回、同社はPixel 6の新機能の多くが自社製SoCによって実現されているとしている。同社は、最近のブログ記事で次のように述べている。

Google Tensorによって、モーションモード、フェイスアンブラー、動画のスピーチエンヘンスメントモード、動画へのHDRnetの適用など、最先端の機械学習を必要とする驚くべき新しい体験が可能になります(詳細は後述)。Google Tensorは、スマートフォンにおける有用性の限界を押し広げることを可能にし、スマートフォンを画一的なハードウェアから、多種多様なスマートフォンの使い方を尊重し、それらに対応することができるほど大きな知能を持つデバイスへと変えてくれます。

Geekbenchテストでは、シングルコアで1031点、マルチコアで2876点を記録した。これは、Pixel 5の平均値である574と1522を大幅に上回るものだが、Pixel 5はSnapdragon 765Gというミドルレンジのプロセッサーを採用していた。フラッグシップモデルとは言えない。Snapdragon 888を搭載したSamsungの「Galaxy S21」の1093と3715と比較すると、処理能力の点でGoogleの自社製チップにはまだまだ課題があることがわかる。「iPhone 13 Pro」のテストで得られた1728と4604と比較すると、結果はさらに悪くなる。

Google Pixel 6 Proレビュー

バッテリーは、従来のモデルの最大の難点の1つだったが、Googleはこの点を大きく改善した。6には4614mAh、6 Proには5003mAhのバッテリーが搭載されており、Pixel 5の4080mAhからしっかりとアップグレードされている。それがPixel 4からのすばらしい飛躍だった。Googleによると、満充電で24時間使用可能とのことだが、私の適度な使用で26時間ほどもったので、その点では朗報だ。

ここ数年、Pixelのハードウェアと売上は中途半端だったため、Googleは、低迷するモバイル部門を前進させるためのデバイスを本当に必要としていた。これまでの4年間にわたるプロセッサーの開発、6世代にわたるソフトウェア、そしてピカピカの新しいハードウェアが、1つのパッケージにうまくまとめられている。Googleはこれまで、Pixelシリーズは単に新しいAndroidソフトウェアをアピールするだけのものではないと主張してきたが、今回はそれが現実のものとなった。

画像クレジット:Brian Heater

原文へ

(文:Brian Heater、翻訳:Akihito Mizukoshi)

あらゆる肌色の顔を美しく見せるPixel 6カメラのReal Tone、多様性を広げるAI技術

スマホメーカー各社が写真での顔の写り方に特別な注意を払っているのは、理に適っている。米国時間10月19日、Google(グーグル)が発表した新しいPixel 6には、人間をこれまで以上によく見せるための、AIを搭載した新しいツール群が導入されている。その中でも特に注目されているのが、動く顔のブレを軽減する「Face Unblur(顔のぼかし解除)」と「Real Tone(リアルトーン)」だ。後者は、Googleの新しいTensorチップを搭載したAIによる後処理機能で、あらゆる肌色の顔を可能な限り美しく見せることを目指している。

関連記事
Google Pixel 6のカメラはAIでスナップショットをスマート化する
Pixel 6のAI機能向けに設計されたTensor SoCで、グーグルは独自チップに賭ける

スマートフォンで撮影される写真の大半は、自撮りであれ、他撮りであれ、人間が写っている。従来、複数の顔が写っている写真、特に顔の肌色がすべて異なる場合、露出をきれいにするのは非常に難しいとされてきた。新しいPixel 6では、コンピュテーショナルフォトグラフィーのレイヤーが加わり、写真に写っている全員ができるだけきれいに見えるようになっている。Pixelチームは、さまざまなエキスパートのイメージメーカーやフォトグラファーと協力して、ホワイトバランス、露出、アルゴリズムの調整を行った。同社は、これにより、どんな肌色の人でもうまく撮れるようになったとしている。

Googleは、リアルトーンをフォトグラファーが直面している課題に対する決定的な解決策ではなく、同社のカメラシステムの改善そして、1つのミッションとして捉えていると強調している。Googleは、すべての人々、特に有色人種が、カメラによる顔の撮影においてよりよく表現されるよう、多大な資源を投入している。

AndroidチームのAdvanced PhotographyプロダクトマーケティングマネージャーであるFlorian Koenigsberger(フロリアン・ケーニヒスベルガー)氏は、Pixel新機種の発売に先立って行われたブリーフィングインタビューで、次のように述べた。「私の母はダークな肌の黒人女性で、父は白人のドイツ人です。私の人生を通じて、ずっと疑問でした。どうしたらみんながきれいに見える写真が撮れるだろう。新しいカメラは、その道のりの一歩です。Googleの多様性の数値はもはやミステリーではありません。当社には、実体験や、この問題に関してオーセンティックに語ることができる人材という点で、明らかに不足しているものがあると理解していました」。

カメラチームは、フォトグラファー、カラリスト、シネマトグラファー、撮影監督、ディレクターなどと協力して、多様な肌色の人々、特により暗い肌色の人々に照明を当てて撮影する際の課題を深く理解しようとした。中でも、ドラマシリーズ「Insecure(インセキュア)」の撮影監督であるAva Berkofsky(アヴァ・バーコフスキー)氏、フォトグラファーのJoshua Kissi(ジョシュア・キッシー)氏、撮影監督のKira Kelly(キラ・ケリー)氏など、幅広い分野のプロフェッショナルの経験を活用した。

「エスニシティや肌の色だけでなく、さまざまな手法を含め、実に多様な視点を取り入れることに注力しました」とケーニヒスベルガー氏は語る。「カラリストたちは、映像制作の過程で起こるサイエンスとして考えているので、実際に話してみると最も興味深い人たちでした」とも。

Googleのプロダクトチームは、画像処理の専門家たちと協力して彼らにカメラを渡し、混合光源、逆光、室内、1枚の画像に複数の肌色を入れるなど、非常に難しい撮影状況に挑戦してもらった。

「私たちは、特にこのようなコミュニティにおいて、どこが問題なのかを学び、そこからどのような方向に進むべきかを考えなければなりませんでした」とケーニヒスベルガー氏は説明する。「イメージングのプロフェッショナルたちは非常に率直で、我々のエンジニアと直接会話をしていました。私はこの会話の進行を手伝いましたが、技術的な学びだけでなく、この空間で起こった文化的な学びも興味深いものでした。例えば粉っぽさ、よりダークな肌のトーン、質感などのことです。ミッドトーンのニュアンスはさまざまです」。

このプロセスは、カメラの顔検出アルゴリズムから始まる。カメラが顔を見ていることを認識すると、カメラはどのように画像をレンダリングすればうまくいくかを考え始める。複数のデバイスでテストを行った結果、Pixel 6は競合メーカーの製品や旧世代のPixelデバイスよりも一貫して優れたパフォーマンスを発揮していることが、Googleのチームによって明らかになった。

この機能が実際にどのように機能するのか、グローバルな編集(画像全体に同じフィルターを適用すること)を行うのか、あるいはAIが編集パスの一部として個々の顔を編集するのかは、すぐには明らかになっていない。近いうちに、カメラのこの特定の側面が実際にどのように機能するのか、より詳しく調べてみたいと思う。

カメラチームは、この分野での取り組みにより、カメラアルゴリズムを作成するためのトレーニングセットの多様性が25倍になったことを強調している。リアルトーン機能は、カメラアルゴリズムの中核をなすものであり、オフにしたり無効にすることはできない。

画像クレジット:Google

原文へ

(文:Haje Jan Kamps、翻訳:Aya Nakazato)

Google Pixel 6のカメラはAIでスナップショットをスマート化する

Google(グーグル)の最新のフラッグシップモデルには、スマートブラー、オブジェクト除去、スキントーン露出などの写真をより美しく見せるための自動化されたAIツールが搭載されている。これらが宣伝通りに機能するかどうかは、実際に試してみないとわからないが、Pixelを気にしている人から気軽にスナップショットを撮る人まで、誰にとっても便利な機能となるかもしれない。

そもそも新しいカメラ自体が非常に印象的だ。Pixel 6とPixel 6 Proで共有されているメインのリアカメラは、そこそこの大きさのピクセルウェルとF/1.85相当の絞りを備えた5000万画素だ(デジタル一眼レフカメラのF/1.8ほどの光を取り込むことはできないが、それでも十分だ)。ウルトラワイドの方は、1200万画素とより小さなセンサーでF/2.2なので、圧倒的な画質は期待できない。6 Proには4800万画素の望遠があり、低照度能力は劣るが、4倍相当のズームが可能だ。いずれも手ぶれ補正機能とレーザーアシストオートフォーカスを搭載している。

基本的には、どんな状況でも最高の画質を求めるならメインカメラを使い、光量に自信があるならワイドやズームを使える。新しいカメラの機能はすべてのカメラで使えるようだが、一般的に、最初に良い写真を撮れば撮るほど、最終的な結果も良くなる。

最も簡単なツールは、「顔のぼかし解除」だ。完璧な写真を撮っても、シャープさに欠けることがあるだろう。Pixel Cameraでは、(今では普通の撮影プロセスの一部となった)自動的に常に多重露光撮影を行い、1つのカメラで撮影したメインショットと、別のカメラで撮影した顔の鮮明なショットを組み合わせる。そうするには、ギャラリーにあるシャープではない写真をタップし、「顔のぼかし解除」のオプションがあれば、すぐに実行できる。

画像クレジット:Google

確かに、上の画像のように、ぼやけた写真の中で顔だけがシャープになるのはちょっと変だが、この写真が欲しいのか欲しくないのか、と言われると欲しいと思う。

また、写真のボケに関しては、2つの新しい「モーションモード」を搭載している。1つは「アクションパン」で、背景を「クリエイティブ」にぼかしながら、通過する車などの動きのある被写体を鮮明に捉えることができる。つまり、通常の手持ちのボケではなく、演出されたズームのボケを適用するので、ちょっと「修正された」感じがするが、楽しいオプションだ。もう1つは長時間露光用ヘルパーで、背景をはっきりさせたまま動く被写体にボケを加えるものだ。三脚を使わずにヘッドライトの光を撮るときなどに便利だ。これらは、カメラアプリ内のモーションモードエリアにある。

画像クレジット:Google

「消しゴムマジック」は、最も明らかに「AI」なものだ。写真を撮ったときに、背景に人が入ってきたり、景色の良いところに車が止まっていたりしても、それらの厄介な現実世界の物体を消して、その存在を忘れられるようにしてくれる。ツールをタップすると、遠くにいる人や車など自動的に削除したいものがハイライトされる。さらに、例として挙げられているように、邪魔な丸太やその他のランダムな形状のものも削除できる。ビーチにある流木を消すなんて、本当に?幸いなことに、記憶の穴に捨てるものは選ぶことができ、無理強いされることもなく、認識できないものに丸を付ければ、最善を尽くして処分してくれる。

「スピーチエンハンスメント」は明らかに画像用ではないが、フロントカメラモードでは、デバイスが周囲のノイズを低減し、あなたの声に集中するよう選択できる。基本的にはGoogle版ノイズキャンセリングアプリKrisp(クリスプ)だ。これのような機能があれば、ずっと使っていたいと思うだろう。

「リアルトーン」は興味深い機能だが、危険をともなう可能性のある機能でもあるので、近々詳しく紹介する。Googleはこの機能について次のように説明している。「Googleのカメラや画像製品がすべての肌の色に対応できるようにAWB(オートホワイトバランス)、AE(自動露出)、迷光のアルゴリズムの調整を、画像制作者や写真家の多様な専門家と協力しました」。

確かにすばらしいが、彼らはモデルだ(画像クレジット:Google)

基本的には、彼らの「スマート」カメラのコア機能が、他の肌色よりも特定の肌色でより良く機能したり、より良く見えたりしないことを確認したかったのだ。このようなことは、これまでに何度も起こってきたことであり、10億ドル(約1140億円)規模の企業が何度も失敗することは、屈辱的で恥ずかしいことだ。リアルトーンがうまくいけばいいが、たとえうまくいったとしても、写真の中の人の肌を明るくしたり暗くしたりするだけなのかという多くの人にとってセンシティブな根本的な問題がある。Googleは「この機能はオフにも無効にもできません」と言っているので、よほど自信があるのだろう。我々は、この機能をテストし、開発者や写真家にこの機能について話を聞いてみる予定で、興味深いが複雑なこの分野をより深く掘り下げていく。

これらの機能のうち、どれだけのものがPixelラインの携帯電話以外でも利用できるようになるのか、また、いつ利用できるようになるのかについては、完全には明らかになっていないが、何かわかったらお知らせする。

画像クレジット:Brian Heater

原文へ

(文:Devin Coldewey、翻訳:Yuta Kaminishi)

Pixel 6のAI機能向けに設計されたTensor SoCで、グーグルは独自チップに賭ける

Google(グーグル)のPixel 6とPixel 6 Proほど、正式発表前に詳しい情報が得られたスマホは今までなかったのではないだろうか。しかし、同じようなAndroid携帯電話が多い中で、Googleは、特にそのすべてを動かすチップに関して、興味深い選択をした。Googleは今回、自社設計のSoCを搭載したスマートフォンを初めて提供する。

「Tensor」と名付けられたこのチップについて、Googleは2021年夏のはじめに初めて言及した。これはスマートフォンのすべてのオンデバイスAIを動かす。基本的には、Google独自のAI / MLアクセラレータに、比較的既製のArmのCPUコアとGPUコア、そしてGoogleの新しいセキュリティコアであるTitan 2を組み合わせたものだ。

画像クレジット:Google

Googleは、TensorがPixel 5に搭載されていたチップよりも最大80%高速なパフォーマンスを提供することを約束している。率直に言って、Pixel 5はよりミッドレンジのスマートフォンだったが、日常的な使用では完全にスムーズに感じられる。米国時間10月19日の発表に先立ってリークされたベンチマークでは、Qualcommの最新のSnapdragonモバイルチップと同等とされているが、これらのベンチマークにはGoogle独自のAI / MLコアは含まれておらず、Pixel 6のカメラとその複雑なコンピュテーショナルフォトグラフィーのキレを良くするためにこれらの専用コアが果たす役割は、標準的なベンチマークでは実際には捉えられない。

しかし、これらの初期のリーク情報からわかったことは、Tensorは、Armのパフォーマンス重視のモバイル設計のフラッグシップであるArm Cortex-X1チップを2つ搭載しているということだ。比較すると、Snapdragon 888は1つしか搭載していない。最近のSoCではほとんどがそうであるように、低パフォーマンスでバッテリーを節約するコアもある。噂によると、古いA76ベースのコアと最近の超高効率のA55コアが混在しているとのことだ(これらはすべて、Pixel 6が約束された24時間のバッテリー寿命を達成するのに役立っている)。Google自体は、これらの詳細については完全に沈黙を守っているが、これは、同社がこのシステムのAI機能に全面的に注力しようとしていることを考えると、理に適っている。

また、このチップには、低消費電力のAI「Context Hub」が搭載されており、デバイス上で常時稼働する機械学習機能の一部を支えている。

Googleのハードウエア部門責任者であるRick Osterloh(リック・オスターロー)氏は、19日の発表の中で、ライブ翻訳から携帯電話の写真・動画機能まで、これらのAI体験を強調した。

Google SiliconのシニアディレクターであるMonika Gupta(モニカ・グプタ)氏は、発表の中で次のように述べた。「Google Tensorによって、Motion Mode(モーションモード)、Face Unblur(フェイス アンブラー)、動画の音声強調モード、動画へのHDRnetの適用など、最先端のMLを必要とする驚くべき新しい体験を実現しています。Google Tensorは、スマートフォンの利便性の限界を押し広げ、画一的なハードウェアから、私たちが携帯電話を使用するさまざまな方法を尊重し、それに対応するのに十分な知能を持つデバイスにしてくれます」。

19日のイベントで同氏は、このチップがここ数年の間に開発されたものであることにも言及した。チームが行った設計上の選択はすべて、それらのAI機能を最大限に生かすことに基づいていたという。


画像クレジット:Google

原文へ

(文:Frederic Lardinois、翻訳:Aya Nakazato)

Google Pixel 6の相次ぐリークでカメラ・セキュリティ戦争が激化

Google 公式Pixel 6紹介ページのスクリーンショット(画像はトリミング済み)

小売業界とGoogle(グーグル)は、来たるべき同社のフラグシップモデルGoogle Pixel 6とGoogle Pixel 6 Proの情報をどちらが多くリークできるかのチキンレースを展開しているかのようだ。GoogleのPixel端末シリーズは、Android(アンドロイド)オペレーティングシステムができる限りいじられないことを望んでいる我々Android無敵艦隊にとって、伝統的な旗艦モデルだ。Pixel 5ではミッドレンジの3モデル併存で真の旗艦機種がなかったことで失望されたのをGoogleは学習したようだ。新モデルの発売数週間前に自らリークするというAppleと正反対のアプローチによって、すべての注目は新モデルデュオに向けられている。

関連記事:Google Pixelのミッドレンジ3機種併存という構成はわかりにくい

米国時間10月19日の発売日を前に、情報が公にされるペースが落ちる様子はない。先週末、英国の携帯ショップCarphone Warehouse(カーフォン・ウェアハウス)は2台の携帯電話の販売ページを公開した。もちろん同社はそのページをできる限り早く取り下げたが、1人のリークハンターの鷹の目がスクリーンショットを撮るより遅かった。Googleも、未発売製品の広告をさまざまなメディアで展開しており、おそらく懐疑的な人々がAppleの最近発売されたiPhone 13の「今すぐ購入」ボタンを押すのを思い止まらせようとしているのだろう。はるかに遡る8月から広告・マーケティング活動を始めているGoogleは、クパチーノ生まれの従兄弟たちに対するいくつかの優位性を強調し、激しい勢力図の中を闊歩している。

関連記事
新iPhone?Apple Watch?AirPods?アップルのバーチャル新製品発表をチェックしよう
グーグルが正式に新スマホPixel 6を公開、専用チップTnsor搭載

みなさんが想像する通り、スマートフォン戦争の大部分が好戦的行動をシフトしていることを受け、リークされたページはカメラ品質を重点的に強調している。

Google Pixel 6は、Androidのトレンドである写真撮影プロセスへのコンピュータービジョンとAI機能の追加を続けている他、トップクラスのハードウェアも加えている。報道によるとPixel 6は50mpxの広角カメラと12mpxの超広角カメラを搭載している。Pixcel 6 Proは3基のカメラを備え、弟分と同じ2基に48mpxの望遠レンズが加わる。

もう1つの大きな注目点は両新機種でデビューを飾るすでに話題となっているTensor(テンサー)チップだ。

関連記事:グーグルがPixel 6用にカスタムチップを開発、AIとMLを自社スマホの差別化要因にする

そのマーケティングページでは、バッテリーテクノロジーに関するGoogleの宣伝にも光を当てている。適応型バッテリー性能とは、端末のバッテリーが、放電状態から50%状態までわずか30分で充電可能というもので、オペレーティングシステムには、昨今の電源からはるか遠くへ冒険する人たちのバッテリー寿命をいっそう引き伸ばすための知能が組み込まれている。同社は、ケーブル不要の高速ワイヤレス充電も力を入れて宣伝している。

主要なライバルたちがセキュリティに大きく力を入れている中、Googleもその最前線に参加し「他のどの端末よりも多いレイヤーのハードウェアセキュリティ」を謳い、セキュリティチップ、Titan M2の採用と「5年間のアップデート」による「長期にわたるセキュリティ」の確保を約束した。それがファームウェアのアップデートなのかOSアップデートなのかはまだ不明だが、Androidが、年を経て忘れられそうな端末にも責任を持つというのは明るい話題だ。

発売日が近付くにつれ、さらに多くの情報が入る予定だ。予約は来週10月19日に始まると思われる。

原文へ

(文:Haje Jan Kamps、翻訳:Nob Takahashi / facebook

【インタビュー】iPhone 13シネマティックモードの開発経緯をアップル副社長とデザイナーに聞く

iPhone 13 Proモデルのシネマティックモードは、先に行われたApple(アップル)の同端末のプレゼンテーションで特に強調されていた。これまでに公開されたレビューを読んだ人たちは、このモードの賢さは認めているものの、その利便性に疑問も感じているようだ。

筆者はこの機能を試してみた。最新のiPhoneをディズニーランドに持っていって、今後数年で数千人いや数百万人の人たちが行うような方法で実際にこの機能をざっと試してみた。筆者が行った個人的なテストの一部は、この記事でも触れる他、こちらの筆者のiPhoneレビューでも紹介している。この記事では少し掘り下げた情報をお届けする。

関連記事:【レビュー】iPhone 13 Proを持ってディズニーランドへ!カメラとバッテリー駆動時間をテスト

この記事では、世界iPhone製品マーケティング担当副社長Kaiann Drance(カイアン・ドランス)氏とアップルのヒューマンインターフェースチームのデザイナーJohnnie Manzari(ジョニー・マンザリ)氏に、この機能の目標と開発の経緯について話を聞いた。

「動画で高品質の被写体深度(DOF:ピントの合う最も近い距離と遠い距離の間)を実現するのはポートレートモードよりもはるかに難しいことはわかっていました」とドランス氏はいう。「静止画と違い、動画は撮影時に動く(撮影者の手ぶれも含め)ことが前提です。ですから、シネマティックモードで、被写体、人、ペット、モノを撮影するには、さらに高品質の深度データが必要になります。しかも、その深度データをすべてのフレームに追いつくように継続的に維持する必要があります。このようなオートフォーカスの変更をリアルタイムで実行すると、非常に重い計算負荷がかかります」。

シネマティックモードではA15 BionicチップとNeural Engineを多用する。Dolby Vision HDRでエンコードすることを考えると当然だ。また、ライブプレビュー機能も犠牲にしたくはなかった(アップルがこの機能を導入後、大半の競合他社は数年間、この機能を実現できなかった)。

しかし、アップルは最初からシネマティックモードの概念を機能として考えていたわけではない、とマンザリ氏はいう。実際、設計チームでは、機能とは反対の側面から取り掛かることが多い(同氏)。

「シネマティックモードなどというアイデアはありませんでした。ただ、興味深いとは思いました。映画製作が今も昔も人々を惹き付けるのはなぜだろうか、と。そして、それが徐々におもしろい方向へと進み始め、このテーマについて調査が始まり、社内で広く検討されるようになり、それが問題解決につながります」。

ドランス氏によると、開発が始まる前、アップルの設計チームは映画撮影技術の調査に時間を費やし、リアルな焦点移動と光学特性について学んだという。

「設計プロセスではまず、現在に至るまでの映像と映画撮影の歴史に深い敬意を払うことから始めました。映像と映画撮影のどの部分が今も昔も人々を惹き付けるのか、映画撮影のどのような技術が文化的な試練に耐えて生き残ったのか、またそれはなぜなのか、という疑問には大変魅了されました」。

マンザリ氏によると、従来とは異なる技法を選択する決断を下すときでさえ、アップルのチームはもともとのコンテキストの観点から慎重かつ丁寧に決断を下そうとするという。アップルのデザインとエンジニアリング能力を活かして、複雑さを排除し、人々が自身の可能性を引き出せるような何かを作成する方法を見出せるようにすることに重点を置く。

ポートレートライティング機能の開発プロセスでも、アップルの設計チームは、アヴェンドンやウォーホルなどの古典的な肖像画家やレンブラントなどの画家、および中国のブラシポートレートなどを研究し、多くの場合、オリジナルを見に足を運んだり、研究室でさまざまな特性を分析したりした。シネマティックモードの開発でも同様のプロセスが使用された。

画像クレジット:Matthew Panzarino

設計チームはまず、世界中の最高の映画撮影スタッフに話を聞いた。また、映画を観たり、昔のさまざまな映像例を分析したりした。

「そうすることで、いくつかの傾向が見えてきました」とマンザリ氏はいう。「ピントとピントの変更はストーリーテリングには欠かせない基本的な道具であること、私たちのように職能上の枠を超えたチームではそうした道具を使う方法とタイミングを把握する必要があることは明らかでした」。

それができたら、撮影監督、撮影スタッフ、第一助手カメラマン(ピント調整役)などと緊密になる。セットで彼らを観察したり、質問したりする。

「浅い被写界深度を使う理由、またそれがストーリーテリングという観点からどのように役に立つのかについて、撮影スタッフと話すことができたことも本当に良い刺激になりました。そこで覚えたのは、これは本当に陳腐化することのない知見ですが、見る人の注意を誘導する必要がある、ということです」。

「しかしこれは、現在のところ、スキルのあるプロ向けのアドバイスです」とマンザリ氏はいう。「あまりに難しいため、普通の人は試してみようとも思いません。1つのミスで数インチずれただけでだめです。これはポートレートモードで我々が学習したことです。いくら音楽やセリフで見る人の聴覚を刺激しても、視覚に訴えることができないなら、使いものになりません」。

その上にトラッキングショットがある。トラッキングショットでは、カメラが移動し、被写体もカメラに対して移動している状態で、ピント調整担当者は継続的にピントを合わせる必要がある。高度なスキルを要する操作だ。トラッキングショットを成功させるには、カメラマンは数年間、徹底的に練習を重ねる必要がある。マンザリ氏によると、アップルはここにビジネスチャンスを見出したのだという。

「これはアップルが最も得意とする分野なのです。つまり、難しくて、習得が困難とされている技術を、自動的かつシンプルにできるようにしてしまうというものです」。

チームはまず、フォーカスの特定、フォーカスロック、ラックフォーカスなどの技術的な問題に取り組む。こうした研究からチームは凝視にたどり着く。

「映画では、凝視と体の動きによってストーリーを組み立てていくのは極めて基本的なことです。人間はごく普通に凝視をコミュニケーションに使います。あなたが何かを見れば、私も同じものを見るという具合です」。

こうして、アップルのチームは凝視を検出する仕組みを組み込んでピントの対象をフレーム間で操作できるようにすることで、観る側がストーリーを追えるようにする必要があることに気づく。アップルは撮影現場で、こうした高度なスキルを備えた技術者を観察し、その感覚を組み込んでいったとマンザリ氏はいう。

「我々は撮影現場でこうした高い技術を備えた人たちと出会うことができます。彼らは本当に最高レベルの人たちです。そんな中、あるエンジニアが気づきます。ピント調整担当者というのはピント調整ホイールの感覚が体に染み付いていて、我々は、彼らがそれを操る様子を観ているだけだと。つまり、本当にピアノがうまい人が演奏しているのを観ていると、簡単そうに見えるけれど、自分にはできないことはわかっているのと同じ感覚です。ピント調整担当者が行っていることをそのまま真似ることなどできないのだと」とマンザリ氏はいう。

「第一助手カメラマンはアーティストで、自分がやっている仕事が本当にうまく、すばらしい技量を備えています。ですから、我々チームもフォーカスホイールを回すアナログ的感覚をモデル化しようと多くの時間を費やしました」。

これには、例えば長い焦点距離の変更と短い焦点距離の変更では、フォーカスホイールランプの操作スピードが速くなったり遅くなったりするため、変更の仕方が異なるといったことも含まれている。また、ピント調整が意図的かつ自然に感じられない場合、ストーリーテリングツールにはならない、とマンザリ氏はいう。ストーリーテリングツールは観る側に気づかれてはならないからだ。映画を観ていて、ピント調整テクニックに気づいたとしたら、おそらくピントが合っていないか、第一助手カメラマン(または俳優)が失敗したからだ。

最終的に、チームは映画撮影現場での調査研究を終えて多くの芸術的および技術的な課題を持ち帰ったのだが、それを解決するには極めて難しい機械学習の問題を解く必要があった。幸いにも、アップルには、機械学習研究者のチームとNeural Engineを構築したシリコンチームがいつでも協力してくれる体制があった。シネマティックモードに内在する問題の中には、これまでにない新しい独自のMLの問題が含まれていた。それらの問題の多くは非常に厄介で、微妙な差異や有機的な(人間くさい)感覚を維持するという掴みどころのないものを表現するテクニックを必要としていた。

シネマティックモードを試す

このテストの目的は、1日でできること(と午後のプールでのひととき)を撮影することだった。ディズニーランドに行けば誰もがやりたいと思うようなことだ。1人でカメラを持ち、特別なセットアップもなければ、撮影者の指示もほとんどない。ときどき、子どもにこっちを向いてというくらいだ。下の動画は、誰が撮っても大体こんな感じになるだろうというレベルを維持した。これは肝心なところだ。B-ROLL(ビーロール)はあまり用意していないし、何度も撮り直すようなこともしなかった。編集もしていない。唯一、撮影後にシネマティックモードを使っていくつか重要な場所を選択した。これは、エフェクトを入れるため、または自動検出機能によって選択されたカ所が気に入らなかったためだ。といっても大した編集ではなかったが、編集結果には満足している。下のデモ動画を再生できない場合は、こちらをクリックしていただきたい。

この動画はもちろん完璧なものではないし、シネマティックモード自体も完璧ではない。アップルがポートレートモードで導入して大成功した人工的なぼけ味(レンズブラー)は、1秒あたりの実行回数があまりに多くなる点が非常に苦しい。焦点追跡もカクカクすることがあるため、撮影後に編集するケースが想定していたよりも多くなるようだ。低照度設定でも問題なく動作するように思うが、高い精度を求めるならライダー光線の届く範囲内(約3メートル以内)で撮影するのがベストだ。

それでも、何を追跡しているのか、どこに向かっているのかはわかるし、このままでもとても便利で使っていて楽しい。多くのレビューがこのあたりを軽く流していることは知っているが、この種の新機能を(実際に使ってみるのではなく)人工的な負荷を与えてテストするのは、ごく普通の人がどの程度便利に使えるのかを確認するには、いささか雑な方法ではないかと思う。筆者が、2014年にディズニーランドでiPhoneのテストを始めた理由の1つもそこにある。iPhoneが数百万の人たちに使用されるようになって、処理速度とデータ量の時代はあっという間に過ぎ去りつつある。どのくらいの高い負荷を高速処理できるかはもうあまり重要なことではなくなってしまった。

人工的なテストフレームワークによって多くの早期レビューワたちが主に欠点を見つけているのを見ても別に驚きもしない(実際欠点は存在するのだ)。だが筆者は可能性のほうに注目したい。

シネマティックモードとは

シネマティックモードは実は、カメラアプリの新しいセクションに存在する一連の機能であり、iPhoneのほぼすべての主要コンポーネントを利用して実現されている。具体的には、CPUとGPUはもちろん、アップルのNeural Engineによる機械学習作業、加速度計による動きの追跡、そしてもちろんアップグレードされた広角レンズとスタビライザーも利用されている。

シネマティックモードを構成している機能の一部を以下に示す。

  • 被写体認識と追跡
  • フォカースロック
  • ラックフォーカス(ある被写体から別の被写体に自然にピントを移動する)
  • イメージオーバースキャンとカメラ内蔵スタビライザー
  • 人工的ぼけ(レンズブラー)
  • 撮影後編集モード(撮影後にピント変更可)

上記のすべての機能はリアルタイムで実行される。

動作原理

これらすべてを、リアルタイムプレビューや後編集で毎秒30回も実行するためには、控えめにみても、かなり大きな処理能力が必要だ。アップルのA15チップで、Neural Engineのパフォーマンスが飛躍的に向上しており、GPUの処理能力も大幅に向上しているのはそのためだ。上記の機能を実現するには、そのくらいの処理能力が必要なのだ。信じられないのは、シネマティックモードを1日中かなり使ったにもかかわらず、バッテリーの駆動時間が明らかに短くなるということがなかった点だ。ここでも、アップルのワットあたりのパフォーマンスの高さがはっきりと現れている。

撮影中でも、ライブプレビューによって撮影内容を極めて正確に確認できるので、そのパワーは明らかだ。撮影中、iPhoneは加速度計からのシグナルを拾って、ロックした被写体に自分が近づいているのか、逆に被写体から遠ざかっているのかを予測し、すばやくピントを合わせることができるようにする。

と同時に「凝視」のパワーも利用している。

凝視検出機能により、次の移動先となる被写体を予測し、撮影シーン中のある人物が別の人物を見たり、フィールド中の物体を見ている場合、システムはその被写体に自動的にラックフォーカスできる。

アップルはすでにセンサーをオーバースキャンしてスタビライザーを実現している(つまり、事実上フレームの「エッジを越えて」見ている)ため、設計チームは、これは被写体予測にも使えるのではないかと考えた。

「ピント調整担当者は被写体が完全にフレーム内に収まるまで待ってからラックを行うわけではなく、被写体の動きを予測して、その人がそこに来る前にラックを開始します」とマンザリ氏は説明する。「そこで、フルセンサーを実行することで動きを予測できることがわかったのです。このように予測することで、その人が現れたときには、すでにその人にピントが合っている状態になります」。

これは上記の動画の後半のほうで確認できる。娘がフレームの左下に入ってきたときにはすでにピントが合っている。まるで、目に見えないピント調整担当者がそのシーンに娘が入ってくるのを予測して、そこ(つまりストーリーに新しく入ってきた人)に観る人の注意を惹きつけているかのようだ。

撮影した後も、焦点を修正して、クリエイティブな補正を行うことができる。

シネマティックモードの編集ビュー(画像クレジット:Matthew Panzarino)

撮影後の焦点選択ですばらしいのは、iPhoneのレンズは非常に小さいため、当然の結果として、被写界焦点が極めて深くなる(だからこそポートレートモードやシネマティックモードで人工的なぼけを実現できる)。つまり、物体に非常に近い位置にいない限り、フレーム内の任意の物体を選択してピントを合わせることができる。その後、シネマティックモードがすべての動画について保持している深度情報とセグメンテーションマスキングを使用してリアルタイムで変更が行われ、人工的なぼけエフェクトが再生される。

筆者は、iPhone 13 Proのレビューで、シネマティックモードについて次のように書いた。

このモードは、マーケティング上はともかく、焦点距離の設定や膝を曲げてのスタビライズ、しゃがんで歩いてラックしてのフォーカシングなどの方法を知らない大多数のiPhoneユーザーに、新たなクリエイティブの可能性を提供することを目的としている。今までは手の届かなかった大きなバケツを開けるようなものだ。そして多くの場合、実験的なものに興味があったり、目先の不具合に対処したりすることを厭わない人は、iPhoneの思い出ウィジェットに追加するためのすばらしい映像を撮影することができるようになると思う。

この機能をデモするためにアップルがどの映画会社と組もうと興味はないが、この機能から最大の恩恵を受けることができるのは、必ずしもカメラの操作に長けている人たちとは限らないと思う。幸いにも手が空いていて、このコロナ禍という厳しい現実の中でも、そこにいたときの気持ちを撮りたいという基本的な欲求を持っている人たちこそ最大の恩恵を受けるのではないか。

そして、それこそが映画という媒体の持つパワーだ。そこにいたときの気持ちになれる。シネマティックモードは、この初期バージョンではまだまだ完璧には程遠いが、従来よりもはるかに容易で、扱いやすい形で、これまではとても手が出せなかった世界への扉を開く道具を「ごく普通の人たち」に与えてくれるものだ。

現時点では、詳しく見ていけば不満な点もたくさんあるだろう。しかし、初めて実物のカイロ・レンを目の当たりにしたときの子どもの反応を撮影したことがある人なら、気にいる点もたくさんあるはずだ。完璧ではないからといって、この種の道具が使えることに異を唱えるのは難しい。

「私が誇りに思うのは、誰かが私のところにやってきて、写真を見せてくれたときです。写真の出来栄えを誇らしげに語り、自分が突如として才能あるクリエーターになったかのように満面の笑みをたたえて、こんな風に話してくれる。『私は美術学校など行ったこともないし、デザイナーでもない。私を写真家だと思った人など1人もいないけど、この写真は本当にスゴイでしょ』と」とマンザリ氏はいう。

「映画は人間のさまざまな感情やストーリーを見せてくれます。そして、基本を正しく抑えていれば、そうした感情やストーリーを観る側に伝えることができる。iPhoneであなたにも新しい世界が開けるのです。私たちはシネマティックモードに長い間、本当に懸命に取り組んできました。お客様に実際に試していただけるのを本当に楽しみにしています」。

画像クレジット:Matthew Panzarino

原文へ

(文:Matthew Panzarino、翻訳:Dragonfly)

良い運転にご褒美、悪い運転にはリアルタイム通知を送るNetradyneの商業ドライバー向け安全性向上システム

Netradyne(ネトラダイン)は商業ドライバーの安全を向上させるためにカメラとエッジコンピューティングを使用するスタートアップである。今回シリーズCの資金調達で1億5000万ドル(約164億円)を達成した。CEOで共同設立者のAvneesh Agrawal(アヴニーシュ・アグラワル)氏によると、新鮮な資金が最新製品Driveri(ドライブライ)の強化につながる。

Agrawal(アグラワル)氏はTechCrunchに、良い運転には褒美を、悪い運転には運転手にリアルタイム通知を送るプロダクトに対する大きな自信を示し、現行の北米およびインドからヨーロッパへと、市場拡大に注力していると述べた。

2021年初めにネトラダインはそのハードウェアおよびソフトウェアを配送車にインストールするためAmazon(アマゾン)と提携を結んだ。このテクノロジー大手は、ドライバーの安全よりもスピードと効率を優先しながら、第三者企業を雇うことによって事故の法的責任を負わないようにしているとの非難を受けてきた。

他の会社には、それほどの道徳的に問題視される余裕がなかったのだろう。だからこそ、ネトラダインのサービスはフリート企業にとって妥当なのである。保険会社のAlera Group(アレラ・グループ)の報告書では、 2021年の商用車の保険料率は14.2%上昇することが予想されている。その大きな要因がスマートフォンに気を取られたドライバーによる死亡事故の増加だ。またその調査では、現代の自動車の修理費と医療費はインフレよりも速く上昇を続けている。費用削減を目指すフリート管理会社は、安全運転が約束される点に惹かれるのかもしれない。

「一部の統計によると、評決額が1000万ドル(約11億円)を超える「核兵器評決」は約500%増加しました」とアグラワル氏はTechCrunchに語る。「商業用フリート会社にとって、ドライバーと燃料に次ぐ最大の出費です。多くの商業保険会社が事業を撤退するか、リスクをフリート会社に押し付けています」。

アグラワル氏の話では、ネトラダインのサービスは需要が非常に大きく、契約者と年間経常収益は2020年に3倍増加した。基準値を明らかにしていないが、ネトラダインの今日の顧客数は1000人を上回るという。

ネトラダインはNational Interstate Insurance(ナショナル・インターステート・インシュランス)と、製品の助成金を払ってもらう合意を結んだが、本来のネトラダインの販売先はフリート会社だ。フリート会社の事故が減ることで、そのデータを保険会社に送り、請求額を交渉するのである。

ネトラダインはいかにそのカメラとソフトウェアにより運転が安全になるか平均を出していないが、アグラワル氏は製品を使用した企業2~3社の請求額が1年で最大80%減少したと述べた。

その仕組みは?

ネトラダインという名称は、サンスクリットで「ビジョン」を意味する「ネトラ」と、ギリシャ語で力の単位を意味する「ダイン」を組み合わせたものだ。アグラワル氏によると、純粋にビジョンを基にしたフルスタックシステムを構築したという。簡単な言葉にするとカメラだ。システムには2つのフォームファクターがある。D-210は小型から中型車両用に構築され、ドライバーと道路の両方を録画する内向きと外向きのカメラが特徴のデュアルダッシュカム。D-410は2サイドウィンドウビューを含めて360度撮影できる4つのHDカメラで、重量車に最適だ。

カメラは、急に割り込まれても正確に減速し前方の車と距離を空けられるドライバーから、メールを打つことに気を取られたドライバーまで何でも捉える。クラウドに接続したデバイスが車両に搭載され、デバイスのエッジでリアルタイムでコンピューティングを行う。ドライバーは「運転に集中していません」「減速してください」などのフィードバックや自動提案を受け取るのかもしれない。

「一番重要な点は、良い運転を追跡することです。それは当社がドライバーとの議論を変えたいと考えているからです」。アグラワル氏はいう。「ドライバーは罰せられることによく慣れており、ほとんどの場合、事が起きた後か顧客の苦情に基づきます。反対に、これは非常に積極的で前向きなのです」。

現在ドライバーへの報奨として、良い運転を続ける気になる、ちょっとしたドーパミン分泌を促す通知を行っている。ドライバーに授与されるドライバースターだ。これはポイント獲得を奨励し、仕事のための運転をゲーム化する試みで、ポイントはボーナスや他の報奨に換えられる。

「ドライバーはフリート企業の最大の資産です。これまでなら、フリート企業に最悪なドライバーが誰か尋ねたら、事故を起こし、顧客が文句を言ったドライバーを挙げたでしょう」。アグラワル氏はいう。「安全運転をするドライバーが誰か尋ねても、名前を言えない。しかし当社では事故を起こさなかったドライバーだけでなく、積極的に安全運転に取り組むドライバーも細かく特定しているため、フリート企業はそのようなドライバーに残留特別手当を設け、報奨金を与え、マネージャーやリーダー職に昇進さえることもできます」。

もちろん、ドライバーの行動にまつわるこのすべてのデータ収集にはもう1つ利点がある。アグラワル氏は彼の会社が1カ月分のデータでは7億ドル(約767億円)を集めたことについて、ドライバーのためのあらゆる潜在的なシナリオを特定するために分析している。そしてそれはすべてエッジで行われている。それにおける、またそれ自体の実験である。

「自動運転への投資は確かな可能性ですが、今の当社の関心事項ではありません」。アグラワル氏は述べる。

シリーズCラウンドはソフトバンク・ビジョン・ファンド2によりリードされた。既存の投資会社であるPoint72 VenturesとM12もラウンドに参加し、ネトラダインの資金調達総額を1億9700万ドル(約215億円)にまで増やした。アグラワル氏はTechCrunchに、年末までの目標収益を1億ドル(約109億円)とすると話した。

画像クレジット:Netradyne

原文へ

(文:Rebecca Bellan、翻訳:Dragonfly)

【コラム】物理的セキュリティにおける「IoT」の過去、現在そして未来

Axis Communicationsが1996年のアトランタオリンピックの後に最初のインターネットプロトコル(IP)カメラをリリースしたとき、初期の混乱がある程度存在した。コネクテッドカメラはその当時市場が求めていたものではなく、多くの専門家が必要かどうかを疑問視していた。

もちろん今日では、従来のアナログカメラはほぼ全面的に段階的廃止へと追い込まれており、組織がIoTデバイスのもたらす大きな利点を認識するようになったことを反映している。しかしその技術は、初期の頃は大きなリスクと感じられていた。

それ以来状況が変わったと述べることは、劇的に控えめな表現になるであろう。「モノのインターネット(IoT)」の成長は、物理的セキュリティが進化してきた過程の一端を象徴している。コネクテッドデバイスは標準的なものとなり、録画されるビデオの枠を超えたエキサイティングな新しい可能性を切り開いた。IPカメラの改良や広範な普及といったさらなる進展は、アナリティクスの改善、処理能力の向上、オープンアーキテクチャ技術の成長など、追加的なブレークスルーを後押ししている。IPカメラが最初に発売されてから25周年を迎えた今、この業界がどこまで来たのか、そしてこれからどこに向かうのかを考えてみる価値はあるだろう。

技術の改良がIPカメラ台頭の到来を告げる

現在のIPカメラを1996年に発売されたものと比較するのは、ほとんど滑稽とも言える。当時は確かに革新的だったが、これらの初期のカメラは17秒に1フレームしか処理できなかった。今日のものとはかなりの差がある。

だがこの欠点があった一方で、物理的セキュリティの最先端にいる人々は、IPカメラがどれほど壮大なブレークスルーをもたらすかを理解していた。つまり、カメラのネットワークを構築することでより効果的な遠隔監視が可能になり、この技術を拡張できれば、さらに大規模なシステムを配備して別々のカメラグループを結びつけることが可能になるだろうということだ。初期のアプリケーションとしては、油田、空港の着陸帯、遠隔地の携帯電話基地局の監視などが含まれていただろう。さらに良いことに、この技術は、まったく新しいアナリティクスケイパビリティの世界を開くポテンシャルを有していた。

もちろん、その無限のポテンシャルを現実のものにするには、より優れたチップセットが必要だった。革新的であろうとなかろうと、初期のこの種のカメラの限られたフレームレートでは、従来の監視アプリケーションに広く採用されるほどの有効性は望めなかった。この問題を解決するのに多大なリソース投資を必要としたが、ほどなくこれらのチップセットが改良され、IPカメラは17秒に1フレームから1秒に30フレームの性能を持つようになった。フレームレートの低さはもはやIPカメラを避けてアナログカメラを選ぶ理由にはなり得ず、開発者はこのデバイスのアナリティクスのポテンシャルを探り始めることができるようになった。

おそらく最も重要な技術的飛躍は、組み込みLinuxの導入であろう。これにより、IPカメラは開発者の観点からより実用的なものになった。1990年代は大半のデバイスが独自のオペレーティングシステムを使用していたため、開発に困難をきたしていた。

企業内でさえ、プロプライエタリシステムは開発者が特定の技術について訓練を受ける必要があることを意味しており、時間と費用の両面のコストが企業に生じていた。Wind Riverオペレーティングシステムなど、業界内で標準化が試みられたが、最終的には失敗に終わっている。それらはあまりにも小規模で、その背後には限られたリソースしか置かれてなかった。さらに、より優れたソリューションとしてLinuxがすでに存在していた。

Linuxは広範囲の利点をもたらしたが、その中でも特に大きかったのは、オープンソースコミュニティの他の開発者とのコラボレーションである。これは2つの方向に走る1つの道筋だった。ほとんどのIPカメラにはLinuxを実行するのに必要なハードディスクがなかったため、デバイスがフラッシュメモリチップをハードディスクとして使用できるようにする、JFFSとして知られるハードウェアが開発された。この技術はオープンソース化されており、現在は3世代目だが、今でも広く利用されている。

圧縮技術も同様の課題を呈しており、90年代後半から2000年代前半にかけてのデータ圧縮モデルはビデオにはあまり適していなかった。当時、ビデオストレージでは個々のフレームが1つずつ保存されていたため、データストレージは悪夢のような状況に陥っていた。幸いなことに、H.264圧縮方式がビデオを念頭に置いて設計され、2009年に普及が進んだ。

その年の終わりまでに、IPカメラの90%超と大部分のビデオ管理システムがH.264圧縮方式を使用するようになった。圧縮機能の向上により、メーカーのビデオ解像度も改善された点を注記しておくことが重要である。この新しい圧縮方式が登場するまで、ビデオ解像度は60年代のNTSC/PAL以降変化することはなかった。今日ではほとんどのカメラが高解像度(HD)で録画できるようになっている。

  • 1996年:最初のIPカメラがリリース。
  • 2001年:ビデオモーションを検知するエッジベースのアナリティクスが登場。
  • 2006年:最初のダウンロード可能なエッジベースアナリティクスが利用可能になる。
  • 2009年:フルHDが標準のビデオ解像度に; H.264圧縮が主流になる。
  • 2015年:スマート圧縮がビデオストレージに革命をもたらす。

アナリティクスの成長

アナリティクスは、必ずしも「新しい」技術というわけではない。IPカメラの黎明期にも顧客はさまざまなアナリティクスケイパビリティを求めていた。しかし、この技術は飛躍的な進歩を遂げている。今日の高い基準からすると古めかしく思えるかもしれないが、ビデオモーション検出はIPカメラに搭載された最初期のアナリティクスの1つだった。

顧客が必要としていたのは、特定のパラメータの範囲内で動きを検出して、木が風に揺れたり、リスが通り過ぎることで誤アラームが発生しないようにする方法だった。この種の検出および認識技術のさらなる改良により、物理的セキュリティの多くの側面が自動化され、疑わしいアクティビティが検出された場合にアラートをトリガーし、それが人間の注意喚起につながるようにした。人間の可謬性の問題を解決することで、アナリティクスはビデオ監視をリアクティブツールからプロアクティブなツールへと変化させた。

信頼性の高い動きの検出は、今でも最も広く利用されているアナリティクスの1つである。誤アラームを完全に排除することはできないものの、近代的な改良を経て、潜在的な侵入者を検出する信頼性の高い方法として機能するようになっている。オブジェクト検出も人気が高まっており、自動車、人、動物、その他のオブジェクトを分類する能力の向上が進んでいる。

ナンバープレート認識は多くの国で普及しており(米国ではそれほどでもないが)、犯罪行為に関与する車両を特定するためだけでなく、駐車場での認識のようなシンプルな用途にも利用されている。車のモデル、シャツの色、ナンバープレートの番号といった詳細情報は、人間の目では見逃されたり、認識できなかったりする可能性が高い。しかし、モダンアナリティクスにより、データは容易に参照できるようにカタログ化され、格納される。ディープラーニングのような技術の出現は、ラベリングとカテゴライズの改善によるパターン認識とオブジェクト分類の機能向上を特徴としており、アナリティクスのこの領域におけるさらなる前進を促すだろう。

アナリティクスの台頭は、セキュリティ業界がオープンアーキテクチャ技術を採用した理由を浮き彫りにすることにもつながる。簡単に言えば、単一のメーカーでは顧客が必要とするすべてのアプリケーションに対応することは不可能だということだ。オープンアーキテクチャ技術を使用することで、メーカーは、特定のユースケースに合わせてデバイスを特別に調整することなく、顧客が自身に適したソリューションを追求できる環境を整えることができる。病院は患者の苦痛の兆候を検出する音声分析の追加を検討しているかもしれない。小売店は人数の集計や盗難の検出にフォーカスする可能性がある。法執行機関が発砲の検知に重点を置くことも考えられる。これらのアプリケーションのすべてが同じデバイスモデル内に組み込まれ得るのだ。

新型コロナウイルス(COVID-19)のパンデミックにより、物理的セキュリティデバイスとアナリティクスの両方に興味深い新たな用途が生まれたことにも注目する必要がある。ただし、発熱の測定に対するサーマルカメラの使用など、一部のアプリケーションについては高い精度での実装が難しいことが判明している。医療業界の間ではカメラの使用が大幅に増加したが、こうした精度の問題に変化が生じる可能性は低い。病院は病室内におけるカメラの利点を見出しており、安全な環境を維持しながら、医療専門家が患者をモニタリングし、患者と通信することを可能にするビデオおよびインターコム技術を活用している。

クロスライン検出のようなシンプルなアナリティクスでも、転倒リスクのある患者が指定されたエリアから出ようとする場合のアラートを生成でき、事故や全般的な障害を低減できるポテンシャルがある。このようなアナリティクスが今日ではわずかな言及でしかないという事実は、物理的セキュリティがIPカメラの黎明期からどれほど進んでいるかを浮き彫りにしている。

セキュリティの将来を見据える

つまり、今日のトレンドを検証することで、セキュリティ業界の将来を垣間見ることができる。例えば、ビデオ解像度は確実に向上し続けるだろう。

10年前、ビデオ監視の標準解像度は720p(1メガピクセル)であり、さらにその10年前はアナログNTSC/PAL解像度の572×488、すなわち0.3メガピクセルであった。今日の標準解像度は1080p(2メガピクセル)で、ムーアの法則を定石通りに適用すると、10年後には4K(8メガピクセル)になることが見込まれる。

これまでと同様、高解像度ビデオが生成するストレージの量が制限要因となっているものの、Zipstreamのようなスマートストレージ技術の開発が近年大いに貢献している。高解像度ビデオを可能にするスマートストレージとビデオ圧縮のさらなる改良が期待できるだろう。

サイバーセキュリティはまた、メーカーとエンドユーザーの双方にとって大きな懸念となりつつある。

先頃、スウェーデンの大手小売業者の1社がハッキングのために1週間閉鎖された。他企業も安全性の低いデバイスを使い続ければ同じ運命をたどるだろう。どのようなソフトウェアにもバグが含まれている可能性があるが、これらの潜在的な脆弱性を特定して修正することにコミットする開発者とメーカーだけが信頼できるパートナーと見なされ得る。世界全体にわたって、サイバーセキュリティの改善を義務づける新たな規制が政府により可決される可能性が高くなっている。カリフォルニア州の最近のIoT保護法は、業界が期待し得ることを示す早期の指標となるだろう。

最後に、倫理的な行動がより重要になり続けるだろう。顔認識のような技術が悪用されることなく、どのように使用されることを想定しているかを示すガイドラインを公表し、自社の倫理ポリシーを前景化し始める企業が増えている。

新しい規制が登場する一方で、規制自体は常に遅れをとっている。ポジティブな評価を得たい企業は独自の倫理ガイドラインに準拠する必要がある、ということを特筆すべきであろう。新型コロナウイルス(COVID-19)のパンデミックを受けて、倫理的な配慮を主要な懸念事項として挙げる消費者が増えている。今日の企業は、責任あるプロダクトの使用をどのようにブロードキャストし実施するかについて、強く検討する必要がある。

変化は常にすぐ近くにある

IPカメラが導入されて以降、物理的セキュリティは大きな発展を遂げた。ただし、そこで起こった変化の数々は、顕著ではあるものの、20年を超える年月をかけてもたらされたことを心に留めておくことが重要だ。変化には時間がともない、多くの場合、予想以上に時間がかかる。それでも、現在の業界の状況と25年前の状況を比較するとき、感銘を受けずにはいられない。技術は進化し、エンドユーザーのニーズもシフトしていく。業界の主要プレイヤーでさえ、時代に対応する能力に応じて現れたり消えたりしている。

変化は避けられない。しかし、今日のトレンドを注意深く観察し、それが今日の進化するセキュリティニーズにどのように適合しているかを把握することは、今日の開発者やデバイスメーカーが将来に向けた自らの位置づけを理解することに役立つ。パンデミックは、今日のセキュリティデバイスが、ほんの数年前には誰も予想しなかった方法で付加価値を提供できるという事実を浮き彫りにした。そして、オープンなコミュニケーション、信頼できる顧客サポート、倫理的な行動の重要性をさらに際立たせている。

私たちが将来に向かって進む中で、これらのコアバリューを優先し続ける組織は、最も大きな成功を収める組織の1つとなるであろう。

編集部注:Martin Gren(マーティン・グレン)氏はAxis Communicationsの共同創業者であり起業家、そして最初のネットワークカメラの発明者。

画像クレジット:Erlon Silva/TRI Digital / Getty Images

原文へ

(文:Martin Gren、翻訳:Dragonfly)

GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K/60フレーム撮影や4K/120フレーム撮影対応

GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応日本時間9月16日、GoProはアクションカムの新モデル「GoPro HERO10 Black」(以下、HERO10)を発表。GoPro.comにて販売を開始しました。GoPro.comでの価格は6万4000円(税込)となり、年額6000円の「GoProサブスクリプション」加入者、もしくは購入と同時に加入する場合は5万4000円(税込)で購入できます。

ちなみにGoProの製品ラインナップはHERO10が追加された格好となり、1世代前のHERO9に加え、GoPro HERO8 Black(以下、HERO8)やGoPro MAXも併売されるとのこと。GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応

そんなわけで今回は、HERO10を先行して試用させていただく機会が得られたので、実機とともにご紹介していきます。GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応

プロセッサーの刷新で撮影性能がアップ

GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応

GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応

HERO10(左)とHERO9(右)を並べてみました

早速ですが、やはり気になるのは「昨年のGoPro HERO9 Black(以下、HERO9)と何が違うのか」ですよね。HERO10の最も大きな進化点は、GoPro HERO6 Blackから採用されていた「GP1」プロセッサーが「GP2」へと刷新されたこと。GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応

これにより撮影性能が大幅に向上し、動画撮影では5.3K/60フレームまで、4Kでは120フレームまで、2.7Kでは240フレームまでに対応(静止画撮影は23MP)しました。また、高感度性能の向上により、暗所でのノイズ軽減も実現したと言います。加えて、手ブレ補正機能のHyperSmoothは「HyperSmooth 4.0」へと進化、従来よりもブレ補正が強化されているとのこと。タッチ操作の反応向上やフロントディスプレイのフレームレート向上といった操作性アップもGP2採用によるものです。

5.3K動画から切り出した静止画。切り出しでも15.8MP(5K 4:3からの切り出し時は19.6MP)と十分な解像度です

5.3K動画から切り出した静止画。切り出しでも15.8MP(5K 4:3からの切り出し時は19.6MP)と十分な解像度です

以下の動画はHERO10とHERO9でHyperSmoothの効き具合を比較したもの。そもそもHyperSmooth 3.0でもブレ補正がかなり効いているのですが、HERO10のほうがよりブレが少ないように思えます。とはいえ正直なところ劇的な差ではないかな……。

続いて下の動画は暗所撮影での比較。こちらは差がはっきりわかるレベルで、HERO9と比べるとHERO10のノイズが少ないのがわかります。ただし動きが激しくなるとHERO10でも厳しい印象でした。また、ISO感度は最大6400まで設定可能ですが、3200以上はかなりノイジーになるので注意が必要です。

5.3K/60フレームでも撮影してみましたが、解像度が高いほどファイルサイズも大きくなる(5.3K60フレームだと15秒で200MB程度)ので、なんでもかんでも5.3Kで撮影するのではなく、用途に合わせて設定変更するのが良さそうです。

GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応そのほか機能面でHERO9からの大きな変更はなく、耐衝撃性や10m防水対応も従来どおり。GoProをWebカメラとして使ったり、スマートフォンとGoProのみでライブ配信が行ったりといった、HERO9でできていたことは基本的にHERO10でも同様にできます。

GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応

基本的にはUIも変更はありません

目新しい機能として挙げられるのは、スマートフォンとGoProを有線で接続し、ファイルの転送が行えるようになったことでしょうか。HERO8以降(GoPro MAX除く)のモデルが対応しており、従来の無線接続よりも高速にスマートフォンへファイルの転送が行えます。

iOS、Androidともに対応しますが、iPhoneの場合は「Lightning - USBカメラアダプタ」などの変換アダプターが必要になります

iOS、Androidともに対応しますが、iPhoneの場合は「Lightning – USBカメラアダプタ」などの変換アダプターが必要になります

外観はほぼ変更なし。HERO9向けアクセサリーがそのまま利用可能

iOS、Androidともに対応しますが、iPhoneの場合は「Lightning - USBカメラアダプタ」などの変換アダプターが必要になります一方で外観はと言うと、なんとなくお気づきの方も多いかもしれませんが、見た目はほぼ変わらずです。

正面(左)と背面(右)

正面(左)と背面(右)

左側面(左)と右側面(右)

左側面(左)と右側面(右)

上部(左)と底面(右)

上部(左)と底面(右)

背面に2.27インチのタッチ対応ディスプレイ、レンズ側に1.4インチカラー液晶を備える点に違いはなく、本体サイズもHERO9と全く同じ(W71.0mm x H55.0mm x D33.6mm)。左側面に電源ボタン、上部に撮影ボタン、底面の格納式マウントフィンガーなども従来どおりです。変更点は重さがHERO9より5g軽い153gとなったことと、ロゴの色が青に変わったことくらいしかありません。

見た目で違いはわかりませんが、レンズカバーの撥水性が向上しているとのこと

見た目で違いはわかりませんが、レンズカバーの撥水性が向上しているとのこと

カメラ底面には格納式のマウントフィンガーを装備

カメラ底面には格納式のマウントフィンガーを装備

バッテリーはHERO9と共通で容量1720mAhのものを採用。バッテリーの充電やPCなどとの接続はUSB Type-Cポート経由で行えます

バッテリーはHERO9と共通で容量1720mAhのものを採用。バッテリーの充電やPCなどとの接続はUSB Type-Cポート経由で行えます

そのため、アクセサリー類はHERO9向けのものと共通になります。指向性マイクや3.5mmマイク端子、ミニHDMIポートなどが追加できる「メディアモジュラー」や、強力な手ブレ補正でカメラをぶん回しても水平維持をしてくれる「Maxレンズモジュラー」なども現行のHERO9向けのものがそのまま利用できます。

「メディアモジュラー」と「ディスプレイモジュラー」を装着するとこのような感じに

「メディアモジュラー」と「ディスプレイモジュラー」を装着するとこのような感じに

HERO9と同じくレンズカバーの取り外しが可能で、「Maxレンズモジュラー」にも対応します

ただし「Maxレンズモジュラー」は現段階では利用不可で、今後のファームウェアアップデートでの対応になるようです

ただし「Maxレンズモジュラー」は現段階では利用不可で、今後のファームウェアアップデートでの対応になるようです

自動編集が優秀なスマーフォンアプリ「Quik」

スマートフォン向けアプリ「Quik」と連携させればGoPro本体の操作もできます

スマートフォン向けアプリ「Quik」と連携させればGoPro本体の操作もできます

HERO9をレビューした時にも感じましたが、GoProと連携して使えるスマートフォン向けアプリ「Quik」が便利。アプリ上から、設定変更を含めたGoProのコントロール、動画 / 写真の確認、1080p 品質でのライブストリームなどが行えるほか、動画の自動編集機能まで備えています。

カメラに触れずにGoProの操作ができるのもメリットですが、動画の自動編集機能が秀逸です。複数の動画を選ぶだけで、アプリが自動的にいい感じのシーンを抜き出して音楽やモーションをつけて1つの動画に仕上げてくれます。完成した動画をスマートフォンに転送すれば、SNSなどでのシェアも簡単というわけです。

というわけで、車のダッシュボードにHERO10を設置してTimeWarpで撮影し、自動編集機能を使ってみました。編集そのものにかかった時間はわずか1〜2分でしょうか。もっと作り込むこともできますが、ある程度のクオリティの動画が気軽に作れるのは良いですね。

やっぱり使いやすい定番アクションカム

GoPro HERO10 Black実機レビュー、新プロセッサーGP2搭載で5.3K60フレーム撮影や4K120フレーム撮影対応HERO10は現状のGoProで最もハイスペックなモデル。外観は前モデルとあまり変わりませんが、中身は確実に進化していました。また、長い間進化を続けている製品なので、アプリなどを含めて使い勝手は良好です。

少しでもコストを抑えたいのであればHERO8、HERO9を選択肢に入れてもいいのかもしれませんが、HERO9との価格差が5200円(GoProサブスクリプション加入者の場合)なので、悩むならHERO10を選んでおけば後悔することもないでしょう。HERO9ユーザーであれば、アクセサリーが共有できるので買い増しして、2台体制にするというのもありかもしれませんね。

自撮りもバッチリ GoPro HERO9 Black 速攻レビュー  5K動画撮影やWebカメラ化も可能

(こばやしなおき。Engadget日本版より転載)

GoProがより進化した主力モデル「HERO10 Black」アクションカメラ発売、5.3K60の撮影が可能に

GoProは米国時間9月16日、アクションカメラの新しいフラッグシップモデル「HERO10 Black」を発表した。このカメラの主なアップデート点は、GP2と呼ばれる全く新しいプロセッサーを搭載したことで、画質と動画撮影が大幅に改善され、5.3K解像度で最大60fps、4K動画撮影で最大120fps、そして2.7K動画で240fpsのスローモーション撮影が可能になった。

また、新しいHERO10 Blackでは、23.6MPの静止画を撮影でき、低照度での性能も向上している。暗い場所での撮影が改善されたのは動画でも同じで、3Dノイズリダクションを適用することで、夜のシーンでも粒状感が少なくなった。また、GP2チップの処理能力が向上したことで、カメラに搭載されているGoProのインターフェースやソフトウェアの使用感も格段に向上している。

もう1つの新機能は、ソフトウェアでジンバルのような手ぶれ補正を実現するGoProの技術、HyperSmoothの4.0バージョンだ。HyperSmoothはすでに優れていたが、我々の初期テスト(詳しいレビューは近日中に予定)によると、この新世代カメラではすばらしいものになっている。また、HERO10には、アップグレードされた水平維持機構が搭載されており、本体が最大45°どちらの方向に傾いても水平を維持する。

画像クレジット:GoPro

GoPro HERO10には、フロントスクリーンに加えて背面タッチスクリーンが搭載されており、前面のセルフィースクリーンのフレームレートが向上している。新しいレンズカバーには疎水性処理が施されており、水に濡れてもはじく能力が向上している。また、既存のGoProカメラ用のMedia Mod、Display Mod、Light Modと連動する。箱から出してすぐにウェブカメラとして機能し、急速充電にも対応し、クラウドへのアップロードやワイヤレス転送に加えて、スマートフォンやデバイスへの有線接続によるコンテンツ転送も可能になった。

また、こちらも前バージョンから引き継がれたSuperViewレンズは、より広いアングルでの撮影を可能にし、11月16日のファームウェアアップデートで、新たに5.3K 30/25/24 fpsの撮影モードが利用できるようになる。これにより、GoProのMax Lens Modsへの対応や、以下の追加キャプチャーモードを実現する。

  • 5K 4:3 24fps
  • 4K 4:3 30/25/24fps
  • 5.3K 24fps
  • 1080 24fps

GoProのHERO10は現在発売中で、価格は1年間のGoProサブスクリプション付きか既存サブスクユーザーの場合は399.98ドル(日本では税込5万4000円)、サブスクリプション抜きの場合は499.99ドル(日本では税込6万4000円)。サブスクトライアル後は年額49.99ドル(日本では6000円)、月々4.99ドル(約547円)で自動更新される。HERO10 Blackには、Shorty三脚マウント、マグネティックスイベルクリップ、スペアバッテリー、32GB microSDカードをセットにしたバンドル製品があり、そちらはサブスクリプションなしで549ドル(日本では税込7万円)、サブスクリプション付きで449ドル(日本では税込6万円)となっている。また、米国のGoProサブスクライバーは、既存のカメラから本バンドルにアップグレードすることで、さらに割引された399ドル(約4万3800円、日本での価格は不明)で購入できる。

同社は今後も、HERO10に加えてGoPro HERO9 BlackとHERO8 Blackをより低価格で提供するほか、MAX 360アクションカメラも提供していく。

関連記事:GoProがHERO9 Blackをサードパーティー製品と連携可能にするオープンAPI「Open GoPro」を発表

画像クレジット:GoPro

原文へ

(文:Darrell Etherington、翻訳:Aya Nakazato)

iPhone 13 Proのカメラに「マクロ」「暗所での撮影」「映画製作向け機能」のアップデート

Apple(アップル)はコンシューマ向けデバイスの写真撮影機能を向上させるという伝統を、米国時間9月14日に発表したiPhone 13とiPhone 13 Proも受け継いでいる。iPhone 13とiPhone 13 Proは、日本では9月17日21時から予約開始、9月24日に発売開始となる。

2020年発売のiPhone 12の背面カメラにはレンズが2つ、iPhone 12 Proには3つあった。これについてはiPhone 13とiPhone 13 Proでも踏襲されている。iPhone 13には広角(f/1.6絞り値)と超広角(f/2.4絞り値)のレンズが搭載され、これはiPhone 12と同じだ。これに対し、iPhone 13 Proはまったく新しいカメラシステムになっている。

関連記事:iPhone 13はバッテリー性能だけでなくはカメラ機能も向上、税込9万8800円から

iPhone 12 Proのメインのレンズの絞り値がf/1.6であったのに対し、iPhone 13 Proではf/1.5となり、明るさが足りない場所でのパフォーマンスが向上している。超広角レンズも同様で、iPhone 12 Proのf/2.4に対してiPhone 13 Proではf/1.8となった。このように絞り値が変更されたことで、バーやコンサート会場といった暗い場所でもこれまでより多くの光を取り込むことができ、画質の向上につながることが期待される。Appleは「超広角カメラは92%多くの光をとらえて」と表現しているが、これは実際にテストしたいところだ。

画像クレジット:Apple

最も注目されるのは、おそらく望遠レンズの向上だろう。絞り値こそiPhone 12 Proのf/2.4からf/2.8に変更されたが、iPhone 12 Proの望遠が52mm相当であったのに対しiPhone 13 Proでは77mm相当だ。このため、画質を犠牲にすることなく遠くのシーンにこれまで以上にズームできる。望遠レンズは、これまで対応していなかったナイトモードにも対応した。

iPhone 13 Proで利用できるマクロモードも発表された。超広角レンズとオートフォーカスシステムの連携で、2cmの距離まで寄れる。ここまで寄るのはプロ向けの、スマートフォンでないカメラでも難しい。ビデオや、さらにはスローモーションビデオもマクロ撮影ができるので、おもしろいオプションとなるだろう。

画像クレジット:Apple

フォトグラフスタイルとシネマティックモードも発表された。両方ともiPhone 13でもiPhone 13 Proでも利用できる。

フォトグラフスタイルは、写真がレンダリングされるとき必要なエリアだけをリアルタイムで編集する機能だ。4つのプリセットから1つを選んで構図を決め、シャッターボタンを押す前に仕上がりを確認できる。もちろんリアルタイムでフィルタをかけて撮る機能は以前からあるが、Appleによればフォトグラフスタイルはもっと先進的なテクノロジーで、機械学習を利用して被写体のスキントーンを損ねることなくインテリジェントに適用できるという。

画像クレジット:Apple

シネマティックモードにより、ビデオを撮影した後で背景のボケ効果を調整したりフォーカスを変えたりすることができる。この機能はどちらかというとプロの映画製作者向けのようだ。映画監督のKathryn Bigelow(キャスリン・ピグロー)氏と撮影監督のGreig Fraizer(グレイグ・フレイザー)氏が撮影しメイキングで語るビデオで、この機能が紹介された。キヤノンやニコンが心配するには及ばない。カメラであることの利点はこれからも常に存在するからだ。これに対して、こちらはスマートフォンのカメラだ。とはいえ、スマートフォンで撮影した映画がアカデミー賞で話題になったことがないわけではない。

iPhone 13の価格は税込9万8800円からで、エントリーレベルのデジタル一眼レフカメラとちゃんとしたレンズよりも高い。望遠レンズやマクロ撮影機能も備えたiPhone 13 Proは税込12万2800円からだ。

画像クレジット:Apple

原文へ

(文:Amanda Silberling、翻訳:Kaori Koyama)