Zoom・Teams・TikTok対応、AIで自分の外観をDXできる「xpression camera」正式版リリース―1.5億円の資金調達も

Zoom・Teams・TikTok対応、AIで自分の外観をDXできる「xpression camera」正式版リリース―1.5億円の資金調達も

「学習し模倣するAI」を「想像し創造するAI」へ進化させることをミッションに掲げるテック企業EmbodyMe(エンボディーミー)は、ビデオ会議などで自分の映像を別のものに置き換えられる「xpression camera」(エクスプレッションカメラ)の正式版をリリースした。WindowsとMacに対応し、無料で使うことができる。アプリはこちらからダウンロードできる。

また同社は、FreakOut Shinsei Fund、DEEPCORE、キャナルベンチャーズ、山口キャピタルを引受先として、1億5000万円の資金調達を実施したことも発表した。

xpression cameraは、使いたい画像が1枚あれば、それをAIにより自分の外観と置き換えて、リアルタイムでコミュニケーションができるようになるというツール。Zoomのほかに、Teams、YouTube、TikTokなどあらゆるビデオアプリで利用できる。たとえばパジャマ姿でも、スーツを着た自分の画像に置き換えてリモート会議に参加するということが可能になる。自分だけでなく、顔として認証されるものなら、絵画や動物の写真を使うこともできる。

 

2020年9月からベータ版を提供していたが、AIのコアエンジンを一新してクオリティーを高め、バーチャル背景などの機能も追加した。映像の録画・読み込み・画像検索・バーチャル背景の編集が可能な有料版の「Pro Plan」もある。さらに、企業向けの「Enterprise Plan」の提供も予定しており、現在はパイロットプログラムへの参加企業を募集している。

EmbodyMeは、「最終的にはAIで目に見えるあらゆるものを誰もが自由自在に作り出せるツールになることを目標とし、今まで想像もできなかったようなまったく新しいメディア、業界をも創造していきます」と話している。

AI活用の水泳コーチングシステム「スマートスイミングレッスンシステム」を全国約100カ所のコナミスポーツクラブが導入へ

AI活用の水泳コーチングシステム「スマートスイミングレッスンシステム」を全国約100カ所のコナミスポーツクラブが導入へソニーネットワークコミュニケーションズは3月29日、映像とAIを活用したスイミングスクール向けコーチングシステム「スマートスイミングレッスンシステム」について、コナミスポーツが導入を決定したと発表した。4月1日より「運動塾デジタルノート」の名称で、コナミスポーツクラブの「運動塾スイミングスクール」で使われる。まずは東京の本店に導入し、2023年3月末までに全国約100店舗に順次導入してゆく。

スマートスイミングレッスンシステムは、撮影と動画編集、クラウドによる配信、コーチ用アプリケーションという技術で構成されている。撮影は、プールの水上と水中に設置した複数台のカメラで行われる。通常は、水面の揺れ、光の反射、屈折などにより難しいとされる泳ぐ人の画像認識と追従を独自開発のAIアルゴリズムで実現した。さらにAIは、複数の水面・水中映像から最適なものを選び出して自動編集を行い、動画コンテンツにまとめる。この映像は、プールサイドに設置したタブレットで自動再生されるため、プールから上がった生徒は、タブレットを操作することなく、すぐに見ることができる。コーチ用のアプリケーションは、レッスン中にも使いやすい画面デザインとなっていて、進級テストでは、動画とともに結果とコメントをまとめて個人用ページに配信できるようになっている。これは保護者の端末にも配信され、親子で共有できる。

ソニーのセンシング技術・AI活用の「スマートスイミングレッスンシステム」を全国約100カ所のコナミスポーツクラブが導入へこのシステムでは、レッスン前に個人ページに配信されるお手本動画での予習が可能であり、レッスン中はコーチがお手本動画を示しながら説明が行えるという特徴がある。自分の泳ぎの映像と合わせることで、生徒は自分の課題を視覚的に理解しやすく、自発的な行動が促されるという。また、上達を実感できるためモチベーションが向上し、積極的な学びにつながるとのことだ。

カメラは、防水対応を施したソニーの小型リモートカメラ(SRG-XP1)が使われている。水中カメラは約4kgという軽量の4Kカメラで、持ち運ぶことも可能。これまで特別な施設でなければ水中撮影は難しかったが、このシステムなら、どのスイミングスクールでも4Kの水中映像の撮影が可能になる。

スマートスイミングレッスンシステムは、2021年5月からルネサンスが運営するジュニアスイミングレッスンに導入され、現在約80店舗に展開されている。そこでは、生徒の意欲向上が見られるほか、コロナ禍で見学ができない保護者からはレッスンの様子が見られることが評価されている。スクール運営者やコーチにも支持されているそうだ。ソニーネットワークコミュニケーションズでは、指導ノウハウのデジタルコンテンツ化やレッスンの品質管理にも役に立つこのシステムを、スイミングスクールのDXを支援するソリューションとして広く展開してゆくと話している。

無料の動画プログラミング講座「paizaラーニング 学校フリーパス」導入校が838校に達し、累計ユーザー数が8万人突破

無料の動画プログラミング講座「paizaラーニング 学校フリーパス」導入校が838校に達し、累計ユーザー数が8万人突破

ITエンジニア向けの転職・就職・学習プラットフォーム「paiza」(パイザ)を提供するpaizaは3月8日、2019年8月から学校向けに無料提供している動画プログラミング学習サービス「paizaラーニング 学校フリーパス」の導入校が838校に、累計ユーザー数が8万820人に達したことを発表した。

paizaでは、初学者向けの動画プログラミング学習サービス「paizaラーニング」を月額1078円(税込)で提供しているが、「paizaラーニング 学校フリーパス」は、その全内容を、小・中・高・大学・専門学校を対象に無料提供するというもの。

小学校、中学校、高校では、プログラミング教育が必修化され、2024年からは国立大学の入試科目に「情報」が加わるなど、IT人材の育成が期待されているものの、学校の現場では、予算がない、プログラミング教育ができる教員の不足や知識差がある、環境構築や教材の準備が難しいといった課題を抱えている。そんな中で「paizaラーニング 学校フリーパス」の需要が高まり、直近1年では累積利用校が約450校増加したという。

「paizaラーニング 学校フリーパス」の無償提供を可能にする仕組み

「paizaラーニング 学校フリーパス」の無償提供を可能にする仕組み

paizaラーニング 学校フリーパスには、無料であること以外に、こうした課題を解決する特徴がある。ウェブブラウザーが使えるPCがあればよく、環境構築が不要であること、コンテンツが豊富で指導レベルの標準化が可能であること、生徒は自分に合った教材を選択できるので、教員が個別に教材を準備する必要がないことなどだ。

「言語仕様」「ウェブアプリ開発」「ロジック力」「周辺知識」の4分野で、160レッスン、1278本の学習動画、2000題の学習課題を利用でき、動画コンテンツと演習課題は毎月追加される。また、動画にはプロの声優を起用したり、学習の進捗をRPG形式で表示するなど、楽しく学べる工夫がされている。自宅での学習も行いやすく、あらかじめ自宅で学んでから学校の授業に望める「反転学習」が可能になっている。反転学習とは、映像教材などを用いて自宅で先に学んでから学校に集まり、課題を解いたり、学習内容に関するディスカッションしたりすることを指す。

ゲーム形式でプログラミングを学べる特別コンテンツも一部用意しており、学生に人気という

ゲーム形式でプログラミングを学べる特別コンテンツも一部用意しており、学生に人気という

paizaラーニング 学校フリーパスが支持されるもう1つの理由に、就職支援がある。paizaラーニングは就職プラットフォームでもあり、学んだ後に「paiza新卒」に登録すれば、スキルに合った仕事とのマッチングが行える。

セーフィーのウェアラブルカメラSafie Pocket2を千葉県八千代市消防本部が試験導入、訓練形式の人命救助実証試験

セーフィーのウェアラブルカメラ「Safie Pocket2」を千葉県八千代市の消防本部が試験導入、訓練形式の人命救助実証試験

クラウド録画サービスを展開するセーフィーは3月8日、ウェアラブル・クラウドカメラ「Safie Pocket2」(セーフィー ポケット ツー)が千葉県八千代市の消防本部に試験導入され、訓練形式の人命救助実証試験を実施したことを発表した。千葉県は近年、豪雨による甚大な被害を受けたことから、その経験を教訓として活かし「災害に強いまちづくり政策パッケージ」を策定、最新テクノロジーを積極的に採り入れている。

Safie Pocket2は、バッテリーとSIMを搭載し、電源を入れるだけで現場と本部とを映像と音声で結ぶことができる小型カメラ。2021年3月にも、キヤノンマーケティングジャパン、シーデーシー情報システムと連携して行われた千葉市の災害対策実証試験において採用された。これまで数回にわたる実証試験を通してSafie Pocket2の仕様と機能は最適化され、災害現場の状況を正確に迅速に把握できるようになっている。

この実証試験で検証できた内容は、以下の4つ。

要救助者の重症度などの状況を現場と本部とでリアルタイムに共有

隊員のカメラとドローンの映像を組み合わせて本部が状況確認・情報共有し、活動方針を判断。担架で運び出される救助者の様子を接写映像で把握。他機関とも映像をリアルタイム共有して連携した。

要救助者を遠隔からフォロー可能に

要救助者が閉じ込められた狭い空間に隊員が入り、内部の詳細な状況を収集・伝達。音声だけでは伝わりにくい状況を映像で共有。救助されるまでの間、要救助者とカメラを通して声かけし、監視した。

カメラの位置情報を確認し、各活動場所にいる隊員に的確な指示出し

災害現場に投入した消防力を確認しつつ、隊員を適正に配置した。

隊員による消防活動の行動の振り返りに利用

事後検証、隊員の教育にカメラの映像を利用した。

また、火災現場では無線機やマイクが水滴や粉塵で使えなくなってしまうことがあるが、Safie Pocket2なら現場の状況を「映像と音声の二軸で判断」でき、通常業務に支障をきたすことがなかったとのことだ。セーフィーのウェアラブルカメラ「Safie Pocket2」を千葉県八千代市の消防本部が試験導入、訓練形式の人命救助実証試験

InstagramがスタンドアローンのIGTVアプリを3月中旬にアプリストアから削除

Instagram(インスタグラム)は米国時間2月28日、IGTVのスタンドアローンアプリについてサポートを終了すると発表した。Instagramの親会社であるMeta(メタ)はTechCrunchに対し、3月中旬にアプリストアからIGTVが削除されることを認めた。Instagramはブログ記事で、この変更は動画の発見と作成をできるだけシンプルにするための取り組みの1つであると説明している。Instagramによれば、同社はこれから動画をすべてInstagram本体のアプリに統合することに集中し、今後数カ月間かけて本体アプリの動画機能をシンプルにし、向上させるという。

2021年10月にInstagramはIGTVのブランディングを廃止し、IGTVの長尺動画とInstagramのフィードの動画を「Instagram動画」という新しいフォーマットに一本化した。その時点でInstagramは、IGTVアプリは廃止せずリブランドすると述べていた。

米国時間2月28日に同社は、リールに集中するためインストリーム動画広告(旧IGTV広告)のサポートを終了することも発表した。同社は、インストリーム動画広告で精力的に収益化しているクリエイターには、最近の収益に基づいて一時的に毎月臨時金が支払われるとしている。これはクリエイターの収益化に関して言えば後退のように思えるが、同社はユーザーが収益を得る方法をさらに増やすべく模索していることを明らかにした。2022年中にはInstagramの新たな広告機能のテストを開始し、この機能によりリールに表示される広告から収益を得られるようにする予定だという。この新しい収益化のオプションは、クリエイターが毎月収益化するチャンスであるリールのボーナスプログラムに追加されるものだ。

同日の発表の中でInstagramは、TikTokの競合である短尺動画のリールに注力する考えを再び述べた。同社は、リールは引き続きアプリのエンゲージメント向上に最も大きく貢献するもので、今後も投資を続けていく計画であるとしている。

ブログ記事で同社は「動画は、人々がInstagramを利用する大きな動機の1つです。クリエイターのみなさんが動画を自己表現や他のクリエイターとのコラボに、そしてフォロワーとのつながり構築に活用していることをうれしく思います。リールは今後も成長し、Instagramの重要な機能であり続けることから、私たちはこのフォーマットによりいっそう注力する考えです」と述べた。

IGTVはスタンドアローンのプロダクトとしてはすでに人気を失っていたことから、アプリの終了が決定した。2020年初めにInstagramは、トラクションが少ないためInstagramのホームページからオレンジ色のIGTVボタンを削除していた。以前にTechCrunchがSensor Towerの調査を引用して報じた通り、10億人以上いるInstagramユーザーのうちスタンドアローンのIGTVアプリをダウンロードしたのはせいぜい700万人だった。

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Aisha Malik、翻訳:Kaori Koyama)

話者映像とPC画面を組み合わせ「非同期コミュニケーション」を支援するQudenのzipunkが5000万円調達、正式版も公開

B2BビデオコラボレーションSaaS「Quden」(クデン)を提供するzipunk(ジパンク)は2月7日、シードラウンドとして5000万円の資金調達を行ったことを発表した。引受先はOne Capital。同時にプランや機能を拡充した正式版を2022年2月よりリリースしたことを明らかにした。

調達した資金は、「プロダクト開発体制の強化」「PLG(Product-Led Growth)モデルの実践を通じたグロースサイクルの確立」「ユースケース・事例などのコンテンツ制作」、またこれらに必要な採用活動にあてる。

Qudenは、話者の映像とPC画面を自由に組み合わせた動画をワンクリックで作成・共有できるSaaS。テクニカルサポートやサービスの機能説明といったカスタマーサクセス業務に活用することで、顧客対応効率や顧客満足度が改善できるとしている。また、社内トレーニング用動画コンテンツや業務フィードバックに用いれば、繰り返し発生する定型業務やビデオ会議を削減でき、組織の生産性が向上するという。

同社は、Qudenを単なる画面録画ツールではなく「時間や場所に制約のない働き方を推進するコミュニケーションインフラ」と捉え、社内外のあらゆるワークフローに活用されるサービスを目指しているという。代表取締役CEOの兵藤佑哉氏は、「業務コミュニケーション手段として『非同期×動画』というフォーマットを活用することで、業務の中断を招く同期的(≒リアルタイム)なコミュニケーションを減らし、異なる時間帯や場所で働くメンバーとの協働がよりスムースになると考えています」とコメントしている。

またこの2022年2月にフリープラン(無料)と、より多くの機能を備えたチームプラン(月額750円)を用意し正式に公開した。フリープランの利用の際は、カード情報などは不要。話者映像とPC画面を組み合わせたビデオメッセージを作成・共有可能なQudenのzipunkが5000万円調達、正式版もローンチ

ジパンクは2019年12月に設立されたスタートアップ。「『働く』をもっと自由に」というミッションを掲げ、Qudenの開発と運営を行っている。

話者映像とPC画面を組み合わせ「非同期コミュニケーション」を支援するQudenのzipunkが5000万円調達、正式版も公開

B2BビデオコラボレーションSaaS「Quden」(クデン)を提供するzipunk(ジパンク)は2月7日、シードラウンドとして5000万円の資金調達を行ったことを発表した。引受先はOne Capital。同時にプランや機能を拡充した正式版を2022年2月よりリリースしたことを明らかにした。

調達した資金は、「プロダクト開発体制の強化」「PLG(Product-Led Growth)モデルの実践を通じたグロースサイクルの確立」「ユースケース・事例などのコンテンツ制作」、またこれらに必要な採用活動にあてる。

Qudenは、話者の映像とPC画面を自由に組み合わせた動画をワンクリックで作成・共有できるSaaS。テクニカルサポートやサービスの機能説明といったカスタマーサクセス業務に活用することで、顧客対応効率や顧客満足度が改善できるとしている。また、社内トレーニング用動画コンテンツや業務フィードバックに用いれば、繰り返し発生する定型業務やビデオ会議を削減でき、組織の生産性が向上するという。

同社は、Qudenを単なる画面録画ツールではなく「時間や場所に制約のない働き方を推進するコミュニケーションインフラ」と捉え、社内外のあらゆるワークフローに活用されるサービスを目指しているという。代表取締役CEOの兵藤佑哉氏は、「業務コミュニケーション手段として『非同期×動画』というフォーマットを活用することで、業務の中断を招く同期的(≒リアルタイム)なコミュニケーションを減らし、異なる時間帯や場所で働くメンバーとの協働がよりスムースになると考えています」とコメントしている。

またこの2022年2月にフリープラン(無料)と、より多くの機能を備えたチームプラン(月額750円)を用意し正式に公開した。フリープランの利用の際は、カード情報などは不要。話者映像とPC画面を組み合わせたビデオメッセージを作成・共有可能なQudenのzipunkが5000万円調達、正式版もローンチ

ジパンクは2019年12月に設立されたスタートアップ。「『働く』をもっと自由に」というミッションを掲げ、Qudenの開発と運営を行っている。

ネットフリックスのTV向けアプリで「視聴中コンテンツ」削除機能が利用可能に

ネットフリックスのTV向けアプリで「視聴中コンテンツ」削除機能が利用可能に

Marvin Samuel Tolentino Pineda via Getty Images

Netflixは、「視聴中コンテンツ」に表示される作品を削除する機能がテレビを含むすべてのデバイスで利用可能になったと発表しました。

Netflixのホーム画面に表示される「視聴中コンテンツ」は、途中まで観ていた映画や、テレビ番組を継続して視聴するには便利な機能です。その反面、観始めたものの興味を無くした、あるいは間違えて再生してしまった作品などがいつまでも残り続けて目障りといったこともあります。こうした作品が、簡単に削除可能となりました。

ネットフリックスのTV向けアプリで「視聴中コンテンツ」削除機能が利用可能に

Netflix

削除するには、視聴中コンテンツにある削除したい作品にカーソルを合わせ、ページのオプションから「リストから削除する」を選ぶだけです。この削除機能、これまでもウェブやモバイル向けアプリでは提供されていましたが、あらたにApple TVやFire TVなどテレビ向けアプリでも利用可能となり、Netflixを利用できるすべてのデバイスで削除可能となっています。ネットフリックスのTV向けアプリで「視聴中コンテンツ」削除機能が利用可能に

(Source:Netflix。Via the VergeEngadget日本版より転載)

AIが自動で動画内の顔やナンバープレートにぼかし加工し匿名化、プライバシーを保護するビデオツールのPimlocが約8.7億円調達

英国のコンピュータービジョン関連のスタートアップであるPimloc(ピムロク)は、動画の匿名化を迅速に行うAIサービスを販売するために、顔やナンバープレートのぼかしを自動化したり、その他の一連のビジュアル検索サービスを提供したりするなど、事業内容を強化してきた。同社は今回、新たに750万ドル(約8億7000万円)のシード資金を調達したと発表。このラウンドはZetta Venture Partners(ゼッタ・ベンチャー・パートナーズ)が主導し、既存投資家のAmadeus Capital Partners(アマデウス・キャピタル・パートナーズ)とSpeedinvest(スピードインベスト)が参加した。

このスタートアップ企業は、2020年10月にも180万ドル(約2億1000万円)のシード資金を調達しているが、今回の資金は欧州と米国での事業拡大と、データ法制の広がりや生体認証のプライバシーリスクに関する世論の高まりへの対応に使用されるという。後者に関しては、一例として顔認識技術のClearview AI(クリアビューAI)に対するプライバシー面からの反発などを挙げている。

Pimlocは営業、マーケティング、研究開発チームを強化するとともに、動画のプライバシーとコンプライアンスに焦点を当てた製品ロードマップの拡大のために、この資金を投じると述べている。

同社が狙うビジネスニーズは、小売業、倉庫業、工場などの業界で、安全性や効率性を高めるためにビジュアルAIの利用が拡大していることに焦点を当てている。

しかし、AIを活用した職場の監視ツールの増加は、労働者のプライバシーリスクを生み、リモートでの生体認証を導入する企業にとっては、これが法的リスクや風評被害の原因となる可能性がある。

そこでPimlocは、AIがプライバシーのために機能する第三の方法を提案している。それは「生産効率を高めるために使われるビジュアルデータを匿名化し、労働者のプライバシーを優先するために役立てる」というものだ。これについて、企業と協議しているという。

Pimlocによると、同社の「Secure Redact(セキュア・リダクト)」は、SaaSとしてまたはAPIやコンテナを介して販売されており、現地のビデオワークフローやシステムに統合することができる。この製品は、データプライバシー規制(欧州の一般データ保護規則やカリフォルニア州の消費者プライバシー法など)に準拠したビデオ証拠を提供しなければならない団体で、すでに使用されているという。

Pimlocは、顧客数を明らかにしなかったものの、CEOのSimon Randall(サイモン・ランドール)氏はTechCrunchに次のように語った。「欧州と米国を中心に輸送、製造、教育、健康、自動走行車、施設管理、法執行機関など、さまざまな分野で多くのユーザーにご利用いただいています。興味深いのは、そのすべてが同じニーズを持っているということです。つまり、CCTVでも、ダッシュボードでも、装着式カメラの映像でも、いずれもデータプライバシーやコンプライアンスのために映像の匿名化を必要としているのです」。

画像クレジット:Pimloc

原文へ

(文:Natasha Lomas、翻訳:Hirokazu Kusakabe)

画面録画で情報共有、職場の生産性を高めるコラボプラットフォームCloudAppが約10億円調達

ビジュアルワークコミュニケーションツールのCloudApp(クラウドアップ)は、Grayhawk CapitalとNordic EyeがリードするシリーズAで930万ドル(約10億円)を調達した。このラウンドには、既存投資家のKickstart Fund、Cervin Ventures、New Ground Ventures、Bloomberg Beta、そして新たにPeninsula VenturesとForward VCが加わっている。また、CloudAppの顧客であるAtriumのCRO、Peter Kazanjy(ピーター・カザンジー)氏、Startup GrindとBevyのCEOであるDerek Andersen(ドレク・アンダーセン)氏も参加している。

CloudAppは、瞬時に共有できる動画、GIF、スクリーンショットを通じて、チームがより速く情報を共有できるようにすることを目的に2015年に設立された。このツールはHDビデオ、マークアップされた画像などをキャプチャしてワークフローに埋め込む、オールインワンの画面録画ソフトウェアだ。ユーザーが作成したファイルはすべてクラウド上に安全に保存され、CloudAppのネイティブMacアプリおよびWindowsアプリからアクセスできる他、パスワードで保護された安全なリンクを通じてウェブ上で共有することもできる。

同社の目標は、チームが電話や電子メールではなく、シンプルな共有可能な動画でメッセージを伝えられるようにすることだ。CloudAppは、ワークフローを中断することなくいつでも読むことができるビジュアルなボイスメールと自らを位置づけている。このツールはSlack、Atlassian、Trello、Zendesk、Asanaなど、数十のインテグレーションをサポートしている。サービス開始以来、CloudAppは400万人超のユーザーを獲得した。CloudAppの著名な顧客にはAdobe、Uber、Zendesk、Salesforceなどが含まれる。

CloudAppのCEOであるScott Smith(スコット・スミス)氏はTechCrunchに、今回調達した資金をツールの高速化、より深い統合、安全性向上のために使うと電子メールで述べた。同社はまた、より多くのチームが職場の生産性を高めるためにCloudAppに出会い、利用できるようにしたいと考えている。

画像クレジット:CloudApp

「これらの目標を達成するためには、当社がすでに持っているもの、つまりすばらしい人材がもう少し必要です」とスミス氏は話した。「スピードとユーザーエクスペリエンスを向上させるために、プロダクトチームとエンジニアリングチームを強化する予定です。また、マーケティングにも力を入れ、すべての職場でCloudAppがワークフローに欠かせない存在となるように努めます。営業チームの規模を拡大し、CloudAppを最も必要とするチームに直接提供できるようにします」。

将来については、従業員や顧客とのやりとりがこれまで以上に瞬時に検索・共有できるようになる世界をCloudAppは想定している、と同氏は話す。人工知能が最も関連性の高い重要なコンテンツを浮上させることができ、それがCloudAppのビジョンを可能にする、と同氏は指摘した。

「当初、我々はCloudAppを、共有する必要のあるものを非常に簡単かつ迅速に取り込むための方法だと考えていました。知識は力です。そこでチームは、ワークフローや統合を通じて、販売、サポート、製品、エンジニアリングチームなど、組織のあらゆる部分を助けるために使用できるコンテンツやクイックヘルプ動画のリポジトリを構築することができます」とスミス氏は書いている。「これからは非同期型の仕事です。そして、CloudAppは、すべてのチームメンバーがより生産的で超人的な存在になるのを支援できます」。

CloudAppのシリーズAは、2019年5月に発表された430万ドル(約5億円)のシードラウンドに続くものだ。シードラウンドはKickstart Seed Fundがリードし、既存投資家のCervin Ventures、Bloomberg Beta、当時Oracleの戦略担当副社長だったKyle York(カイル・ヨーク)氏も参加した。

画像クレジット:CloudApp

原文へ

(文:Aisha Malik、翻訳:Nariko Mizoguchi

広告クリエイティブ運用クラウドのリチカがCAMPFIREと連携、クラウドファンディングを支援するPR動画サービス開始

広告クリエイティブ運用型クラウドのリチカがCAMPFIREと連携、クラウドファンディングを支援するPR動画サービスを提供開始

広告クリエイティブ運用型クラウド「リチカ クラウドスタジオ」を運営するリチカは12月9日、クラウドファンディング事業の企画・開発・運営のCAMPFIREとの提携を発表した。クラウドファンディングのプロジェクト概要やプロジェクトオーナーの想いを動画で伝え、目標金額達成を支援する「プロジェクトPRムービー」の提供を開始する。

CAMPFIREは2011年のサービス開始以来、ジャンルや規模を問わず数多くのプロジェクトを支援。これまでのプロジェクト掲載数は5万9000件以上、支援者数は延べ630万人以上、流通金額は520億円に達している。

リチカが手がけるリチカ クラウドスタジオは、デジタル広告やSNS用途で動画や静止画を量産・運用できる「運用型クリエイティブクラウド」。配信面に最適化したクリエイティブを制作・検証・改善することが可能で、大手事業会社や広告代理店を中心に400社以上に導入されている。

今回のリチカとCAMPFIREの連携によって提供されるプロジェクトPRムービーは、クラウドファンディングのプロジェクトオーナー向けのサービス。プロジェクトオーナーからの依頼をもとに、リチカ クラウドスタジオでプロジェクトの概要やリターン紹介など、様々な用途の動画を最短3営業日で提供。プロジェクトオーナー自身が動画の告知コンテンツを作るハードルの高さを解消する。完成した動画はCAMPFIREのプロジェクトページだけでなく、SNSなどでも活用が可能。動画の掲載による支援額の伸長、目標金額達成率の向上を支援するサービスとなっている。

 

ペット動画のマーケットプレイスCamlistが約1.4億円のプレシード資金を調達、英国での成長を目指す

ペットのための動画マーケットプレイスのCamlist(カムリスト)は、プレシードラウンドで130万ドル(約1億4900万円)を調達した。この資金は、プラットフォームの開発と従業員の増員に充てられる予定で、2021年初めに参入したアラブ首長国連邦に次ぐ2番目の市場である英国での事業拡大を目指している。

他のマーケットプレイスとは異なり、Camlist(カメラリスティングからきている)では、売りたいペットの動画を掲載することができ、コンタクトが取れれば、買い手と売り手はアプリ内で動画とテキストチャットの両方を使ってやり取りすることができる。

マーケットプレイスでは、今のところペットだけ出品できるが、近い将来、他の商品にも拡大していく予定だ。

「クラシファイド、あるいはP2Pコマースは、eBayが登場して以来、古いやり方に固執しています。それ以来、大きな革新はありませんでした。ただ、画像と電話番号が掲載されているだけです」と、Camlistの共同設立者で最高経営責任者のMoustafa Mahmoud(ムスタファ・マフムード)氏は述べている。

「しかし、Camlistではそれを変えようとしています。マーケットプレイスをビデオ体験に変えようとしています。すべての所有物にストーリーがあるからです」。

マフムード氏は、誰もが安全にペットを探すことができるように、検証済みの健康診断や、一括払いができない人のためにサードパーティと提携した無利子融資も保証していると述べている。Camlistは、これまでに6000匹以上のペットを新たな飼い主に繋げている。

「当社のアプリ内GMV(流通取引総額)は、2四半期ごとに100%成長しています。そのため、四半期ごとに倍増しており、総GMVは月に約200万ドル(約2億3000万円)になります」とマフムード氏は語っている。

このY Combinator(Yコンビネータ)企業は、2020年、新型コロナウイルスのパンデミックが発生する直前に、アラブ首長国連邦のドバイで設立され、事業を開始した。その結果、家に閉じこもることを余儀なくされた人々が、一部退屈しのぎだが、世話をする時間も増えたため、ペットを購入するようになりサイトは人気を博した。

「私たちはマーケットプレイスをカテゴリーごとに構築していますが、ペットのリスティングは非常に大きく、また十分なサービスが提供されていないと感じています。今後、成長に合わせてさまざまなアイテムに拡大していく予定です」と、コンピューターサイエンティストでもあるマフムード氏は語る。

他の共同設立者には、最高製品責任者のMaha Refai(マハ・リファイ)氏がいる。彼女は、デジタル製品の構築と拡張での16年の経験を持っている。彼女は、MBC(中東最大の無料放送局)のプレミア・ビデオ・プラットフォームや、その他の複数のビデオ・ストリーミング製品のクリエイターでもある。

Camlistの最高技術責任者であるAlsayed Gamal(アルサイード・ガマール)氏は、15年のソフトウェアエンジニアリングの経験を持っている。モバイルプラットフォーム、データエンジニアリング、DevOps、API設計、マイクロサービス、サーバーレスアーキテクチャに関する知識と経験を持っている。

マフムード氏は、アラブ首長国連邦のドバイでクラシファイドサイトを利用して購入した際に、商品が誤って紹介されていたり、詐欺が多かったりした嫌な経験に対抗する必要があったことが、Camlistを始めるきっかけになったと述べている。

Camlistの最高経営責任者であるムスタファ・マフムード氏は、同社の最高製品責任者であるマハ・リファイ氏、最高技術責任者であるアルサイード・ガマール氏と共同で動画マーケットプレイスを設立した

駐在員の街でもあるドバイでは、クラシファイドサイトは荷物の処分のために利用されるため人気があるが、一方で詐欺師が無防備な人々を狙う機会にもなっている。このような状況に対処するため、Camlistはアプリ内での支払いを可能にしている。購入者がペットを受け取ったことを確認した時点で資金が支払われる仕組みだ。この機能により、業者を装った詐欺師を防ぐことができ、購入者が詐欺に遭うことがなくなる。

マフムード氏と彼の他の共同設立者は、購入者が購入する前に、興味のあるアイテムをビデオで体験できるマーケットプレイスを提供している。これは、購入者が詐欺の手口から守られ、高品質のサービスを保証することに加えてのことだ。

また、同社はプラットフォーム上の販売者が、ペットを健康的な環境で飼育・繁殖しているかどうか、ワクチン接種や駆虫、マイクロチップの装着などを行っているかどうかしっかりフォローアップしている。

「また、私たちはワクチン接種、マイクロチップ、駆虫、保険、ペットフードを無料で提供することで、購入者と販売者をサポートしています。買い手と売り手に最高の体験を提供することを心がけています」と同氏は述べている。

同スタートアップは、Y-Combinator、テクノロジー・スタートアップ・アクセラレーターであるAct One Ventures(アクトワン・ベンチャーズ)、アーリーステージのベンチャーファンド、そしてHouseparty(ハウスパーティー)、Mux(マックス)、Facebook(フェイスブック)などのエンジェル投資家から新たな資金を調達した。

「私たちは、未来のマーケットプレイスを構築するというビジョンを信じてくれる投資家を心待ちにしていました。そして、このビジョンを信じ、実際にビデオ業界で働き、アプリケーションを構築している人たちを得られたことは、本当に幸運でした」とマフムード氏は述べている。

英国での成功を収めた後、Camlistは米国市場への参入を計画している。これは彼らにとって巨大で重要な市場になると確信している。

「英国はかなり大きな市場なので、現在の私たちの状況は英国内での拡大です。ここで、私たちが行っていることの反響を確認することもできます。しかし、市場の過半数を占めるような一定の段階に達した時点で、米国への進出を開始する予定です」と、エジプトで生まれ、6歳のときに家族でドバイに移住してきたマフムード氏は語る。

画像クレジット:Camlist

原文へ

(文:Annie Njanja、翻訳:Akihito Mizukoshi)

小売・製造・物流・介護などデスクレスワーカーが働く現場向け動画教育サービスのTebikiが8億円のシリーズA調達

現場向け動画教育プラットフォーム「tebiki」を運営するTebikiは11月16日、シリーズAラウンドにおいて、第三者割当増資による8億円の資金調達を発表した。引受先はグロービス・キャピタル・パートナーズ。調達した資金は、主にチームの拡大にあて、開発・営業・カスタマーサクセス・マーケティング・デザイナーなどの全職種で積極採用を行う。

tebikiは、小売・サービス・製造・物流・介護・飲食といった、デスクを持たない社員(デスクレスワーカー)が働く「現場」向けクラウド型動画教育プラットフォーム。

難しいシステム操作を現場に強いるのではなく、作成から編集まで誰でも最新動画技術を直感的に使いこなせるUIを採用。現場のOJTをスマホで撮影するだけで、音声認識技術で字幕が自動生成され、シーンの削除・静止などの動画編集、音声吹き込みや図形挿入、自動翻訳が可能。また、動画閲覧データを自動分析し誰がどこまで習熟したかを可視化し、リアルタイムで教育の進捗を管理できるという。

Spotifyが教育番組「EDUCAST 熱中大学」配信、国内オリジナル番組として初の「ビデオポッドキャスト」形式導入

Spotifyが教育番組「EDUCAST 熱中大学」配信、国内オリジナル番組として初の「ビデオポッドキャスト」形式導入

Spotify

Spotifyは11月15日、その道のプロフェッショナルとして第一線で活躍するZ世代のクリエイターやインフルエンサーたちに、技術やノウハウ、独自の人生哲学などを学ぶ、講義形式のオリジナル教育ポッドキャスト番組「EDUCAST 熱中大学」の配信を開始しました。番組は日本テレビとの協業で作成されているとのこと。

EDUCAST 熱中大学は、国内オリジナル番組として初めて、ビデオポッドキャストのフォーマットを採用したのも特徴です。通常、ポッドキャストは音声のみですが、ビデオポッドキャストは映像も配信。動画コンテンツとしても利用できるというもの。とはいえ、音声がメインであることに変わりはなく、映像を見ずに音声のみでも番組として成立しています。

ビデオポッドキャストは、海外では2020年7月からサポートされているものですが、視覚情報を伴うことで、クリエイターをより身近に感じられると好評を得ているとのことです。

なお、EDUCAST 熱中大学は、Spotifyが提供する音声コンテンツ制作ツールAnchorを利用しており、Anchorに実装されているQ&A機能や投票機能を活用し、リスナーから各エピソードで最も印象に残った言葉を募集するとのこと。

各回3エピソードずつ、隔週月曜日の18時ごろに配信を行うとしています。

(Source:PR TimesSpotifyEngadget日本版より転載)

フェイスクブックの研究者がAIの訓練のために何千時間もの一人称視点の動画を収集

テック企業の多くが目指しているように、ARメガネやその他のウェアラブルに搭載されたAIが人間の目を介して物事を見るようになるのであれば、未来のAIは人間の視点をきちんと理解できるようになる必要がある。自身の視点というのは当然、我々にとっては自然なものだが、意外なことに日常的な作業を映した1人称視点のビデオ映像はほとんど存在しない。そこでFacebookは、数千時間に及ぶ映像を新たなデータセットとして公開するため収集した

Facebookが取り組んだのは、現在最も優れた物体・シーン認識モデルであっても、そのほとんどが三人称視点でのみ学習されているという課題だ。つまりキッチンに立っている場面を見れば、料理をしている人として認識することができても、料理をしている人の視点から見た場合では認識する事ができない。自転車を認識するにしても、自転車が映し出されれば認識できるが、自転車に乗っている人の視点では理解ができないわけだ。我々人間にとっては当たり前のことで、これまで見過ごされてきたことだが、コンピューターにとってはまだ難しい課題なのである。

機械学習の問題を解決するには通常、データを増やすかより優れたデータを得るかのどちらかが必要になる。今回の場合は両方あっても損はないだろう。Facebookは世界中の研究パートナーに協力を依頼し、料理や買い物、靴ひもを結ぶ様子から仲間と遊んでいる様子まで、一般的な行動の1人称映像を集めた。

13のパートナー大学が9カ国700人以上の参加者から何千時間ものビデオを収集。参加者はみんなボランティアで、自身の関与やアイデンティティのレベルをコントロールすることができた。これら数千時間にもわたる映像は、研究チームによって3000時間にまで縮小され、研究チームが映像を見て編集し、手書きで注釈を加え、さらに現実世界では撮影できなかった環境を演出した独自の映像も追加された。この研究論文にそのすべてが記されている

映像はメガネ型カメラ、GoPro、その他のデバイスなどさまざまな方法で撮影されている。研究者の中には、活動している環境を同時に収録した人もいれば、視線の方向やその他の指標を追跡した人もいる。これらのデータはすべてEgo4Dと呼ばれるFacebookのデータセットにまとめられ、研究コミュニティに広く提供される予定だ。

コンピュータービジョンが物体の識別に成功しているものと、1人称映像での識別に失敗しているもの(画像クレジット:Facebook)

「AIシステムが人間と同じように環境と関わり合うためには、AI分野が1人称視点の知覚というまったく新しいパラダイムに進化する必要があります。そのためには人間の目を通したリアルタイムの動き、関わり合い、多感覚の観察の中で、AIに日常生活の動作を理解することを教えなければなりません」と、主任研究員のKristen Grauman(クリステン・グラウマン)氏はFacebookのブログ中で話している。

Facebookは1人称視点での理解力があらゆる分野でますます重要になっていると考えてはいるものの、何とも信じ難いことにこの研究とRay-Ban Storiesのスマートシェードはまったく無関係とのこと(この3Dスキャンは同社のハビタットAIトレーニングシミュレーターに使用されるかもしれないが)。

「弊社の研究では、拡張現実やロボット工学への応用を強く意識しています。特にARメガネのようなウェアラブル製品が人々の日常生活や移動に不可欠な要素になるにつれ、将来AIアシストを実現するためには1人称視点の知覚が不可欠です。もし、あなたのデバイスに搭載されているアシスト機能が、あなたの目を通して世界を理解し、生活から認知的過負荷を取り除くことができたらどれほど有益か想像してみてください」とグラウマン氏はTechCrunchに話している。

世界中から映像を集めたというのは意図的な戦略である。1つの国や文化の映像だけを集めるようでは近視眼的だ。米国のキッチンはフランスのキッチン、ルワンダのキッチン、日本のキッチンとはまるで別物であり、また同じ食材を使って同じ料理を作ったり、同じ作業(掃除や運動)をしたりしても、個人間はさることながら、文化間となれば大きく異なるのは当然である。つまりFacebookの投稿にあるように「既存のデータセットと比較して、Ego4Dのデータセットは、シーン、人、アクティビティの多様性が高く、背景、民族、職業、年齢を問わずさまざまな人に向けてトレーニングされているため、モデルの適用性が高い」のである。

Facebookの1人称視点のビデオとその環境の例(画像クレジット:Facebook)

Facebookが公開しているのはデータベースだけではない。データ収集においてこのような飛躍的な進歩がある場合、あるモデルがどれだけこの情報を活用できているかをテストしたベンチマークを公開するのが一般的になっている。例えば犬と猫の画像があったとして、どちらがどちらかを見分けるというモデルの有効性をテストした標準的なベンチマークが知りたい場合もあるだろう。

しかし今回のような場合はもう少し複雑になる。1人称視点で物体を識別するというのはそれほど難しいことではなく、目新しさや便利さもない。「これはトマトですよ」と教えてくれるARメガネなど誰が必要だろう。他のツールと同様に、ARデバイスは私たちが知らないことを教えてくれるものでなければならないのだ。そのためにARデバイスは、意図、文脈、連動したアクションなどをより深く理解する必要がある。

そこで研究者らは、1人称視点の映像を分析することで理論的に達成可能な5つのタスクを考えた。

  • エピソード記憶:物体や概念を時間と空間の中で追跡し「私の鍵はどこにあるか」といった任意の質問に答えられるようにする。
  • 予測:一連の出来事を理解することで「レシピの次の手順は何か」といった質問に答えたり「車の鍵を家に忘れた」といったことを事前に指摘したりすることができる。
  • 手と物体のインタラクション:人がどのように物を掴み、操作しているのか、またその際に何が起こっているのかを把握することで、エピソード記憶やそれを模倣したロボットの動作に反映させることができる。
  • オーディオ・ビジュアル・ダイアライゼーション:音をイベントやオブジェクトに関連付けることで、音声や音楽をインテリジェントに追跡し「カフェでかかっていた曲は何だったのか」「会議の最後に上司は何と言ったか」といった質問のソリューションに適用する(「ダイアライゼーション」が「言葉」である)。
  • 社会的相互作用:誰が誰に向かって話しているのか、何が語られているのかを理解し、他のプロセスに情報を提供する目的と、複数の人がいる騒がしい部屋で字幕を表示するなどの瞬間的な使用の両方に対応する。

当然、このような活用法やベンチマークに限られているわけではなく、上記の例はAIモデルが1人称視点のビデオで何が起きているかを実際に理解しているかどうかをテストするための初期アイデアに過ぎない。論文に記載されている通り、Facebookの研究者らはそれぞれのタスクについてベースレベルの実行を行い、それを出発点としている。さらにこの研究をまとめた動画には、それぞれのタスクが成功した場合を想定した、非現実的とも言えるような例が挙げられている。

現在公開されているデータは、25万人の研究者が手作業で丹念に注釈を加えたという3000時間ものデータ数にははるか及ばないものの、まだ成長の余地があるとグラウマン氏は指摘する。今後もデータセットを増やしていく予定であり、パートナーも積極的に増やしていくという。

このデータの活用に興味がある読者は、Facebook AI Researchのブログをチェックして論文に掲載されている莫大な数の人々の1人に連絡を取ってみるといい。コンソーシアムが正確な方法を確定した後、数カ月以内に発表される予定だ。

画像クレジット:Facebook

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)

アマチュアスポーツ向け映像分析ツールのSPLYZAが約2.5億円調達、SPLYZA Teamsの機能追加や新製品開発・マーケ強化

アマチュアスポーツ向け映像分析ツールのSPLYZAが約2.5億円調達、SPLYZA Teamsの機能追加や新製品開発・マーケ強化

アマチュアスポーツにおける分析・改善の支援サービスを提供するSPLYZA(スプライザ)は10月4日、約2億5000万円の資金調達を実施したことを発表した。引受先はジャフコグループおよび栖峰投資ワークスがそれぞれ運営するファンド。

SPLYZAの主力製品である「SPLYZA Teams」(Android版iOS版)は、撮影したスポーツの映像をチーム内で共有することでメンバーの共通理解や分析力を向上させ、チーム内のコミュニケーションを活性化させるツール。ユーザーは学生からアマチュアチーム、プロのクラブまでと幅広く、サッカーやラグビー、バスケットボールなど20種類以上のスポーツ・600以上のチームに導入されている。ユーザー数は3万人を超えるという。

今回調達した資金は、SPLYZA Teamsの機能追加、新製品の開発、研究開発の強化といった開発体制をはじめ、営業およびマーケティング、カスタマーサクセスなどの販売促進活動と顧客フォロー体制の強化に充当。多様化するユーザーのニーズに応えるため企業としての総合力の向上を目指すという。アマチュアスポーツ向け映像分析ツールのSPLYZAが約2.5億円調達、SPLYZA Teamsの機能追加や新製品開発・マーケ強化

プロ農家の栽培技術を動画で継承するAGRI SMILEが3つの農業協同組合とともに「AGRIs by JA」を全国提供開始

プロ農家の栽培技術を動画で継承するAGRI SMILEが3つの農業協同組合とともに「AGRIs by JA」を全国提供開始アグリテック領域のスタートアップ「AGRI SMILE」は10月4日、持続可能な農業を実現するDXプラットフォームの一環として、動画で栽培技術を分かりやすく体系化することで農業協同組合(JA)の営農指導業務をDX化する「AGRIs by JA」(アグリス バイ ジェーエー)の提供を開始したと発表した。複数の産地のJAと連携して多品目の栽培ノウハウを網羅的に蓄積し、全国のJAの営農指導において活用できる仕組みを構築している。

プロ農家の栽培技術を動画で継承するAGRI SMILEが3つの農業協同組合とともに「AGRIs by JA」を全国提供開始AGRIs by JAは、従来対面で行われてきたJAの営農指導をDXすることで、営農指導業務の効率化や質の向上に寄与するという。プロダクトの開発や改善、配信する動画コンテンツの制作において、国内有数の農畜産物取扱高を有する「とぴあ浜松農業協同組合」「晴れの国岡山農業協同組合」「越智今治農業協同組合」とAGRI SMILEで協議会を設立し実行している。

AGRIs by JAが提供する主な機能は以下のとおり。

  • 協議会JAの営農指導員が実演・解説する100トピック以上の栽培基礎技術動画を視聴できる(農林水産省の作況調査対象となっている野菜計41品目のうち、87%を網羅)。作物ごとの栽培法はもちろん、畝立てや農薬散布、出荷調整などの作業、農業機械のメンテナンス、栽培基礎知識の講義などのコンテンツを揃えている(毎月更新予定)
  • 各JAからの産地内限定の動画の配信、また生産者へのお知らせを掲載できる掲示板を設置
  • 農林水産消費安全技術センター(FAMIC)の農薬登録情報に基づき、適用作物名用途から農薬を検索し、使用基準などを閲覧できるデータベースを搭載

プロ農家の栽培技術を動画で継承するAGRI SMILEが3つの農業協同組合とともに「AGRIs by JA」を全国提供開始AGRI SMILEによると、2019年より同社は、JA・行政機関とのプロジェクトにおいて栽培技術を動画にまとめて産地内で共有するAGRIs for Teamの取り組みを進めてきたという。プロジェクトを通して全国各地の生産者・指導員と対話する中で、信頼できる発信元からの栽培情報を生産者がオンラインでタイムリーに受け取れることや、就農者・従業員・直売所出荷者が基礎的な栽培技術を学べるインフラに関するニーズの高さに気づいたそうだ。

また、JAの営農指導員の業務は、良質で安全な作物を生産するための栽培指導だけでなく、農業経営の指導や生産部会活動の支援、農地の利用調整、地域農業振興ビジョンの策定など多岐にわたるという。営農指導の現場では、1対1、対面でのコミュニケーションのために、遠隔地への移動や生産者からの問い合わせ対応に割かれる時間も少なくない。新規就農支援や直売所の拡充といった、産地振興のための新しい取り組みを推進する上でも、業務の効率化による指導員のリソース確保が求められている。

そこでAGRI SMILEでは、基本的な栽培技術や農薬の使用基準、JAからのお知らせを生産者がオンラインで確認できるサービスを構築することで、産地の農業生産の底上げや、指導員の業務負担軽減に寄与できると考えた。この構想に共感した3つのJAとともに協議会を組織し、動画の撮影・編集やシステム構築を行ったという。プロ農家の栽培技術を動画で継承するAGRI SMILEが3つの農業協同組合とともに「AGRIs by JA」を全国提供開始

AGRI SMILEは、今後も、ユーザーアンケート等に基づくコンテンツ拡充や、営農に役立つ機能の追加などを、協議会JAとともに進めるとしている。対面指導とオンラインでの情報提供を組み合わせることで、産地の生産力を維持・向上させるために欠かすことのできない営農指導事業の充実を目指すという。また、プロダクトとR&Dにより栽培現場のDXを多面的に支援する。

東京大学がシンクロダンスの練習支援システムSyncUp発表、コンピュータービジョン技術でポーズ・動きのズレ可視化

東京大学がシンクロダンスの練習支援システム「SyncUp」発表、コンピュータービジョン技術でポーズ・動きのズレを可視化

SyncUpインターフェース全体図。画面上部左にダンス動画、上部右はポーズのズレを可視化する動画上にオーバーレイを示している。掲載写真の例では、左腕がダンサー間で大きくずれているため、赤色のオーバーレイが表示されている。また画面下部では、ポーズと動きのタイミングのズレをグラフで示したものがユーザーに提示している

東京大学大学院工学系研究科の矢谷浩司准教授、周中一(ジョウ・ツォンガイ。Zhongyi Zhou)氏、徐安然(ズ・アンラン。Anran Xu)氏は9月28日、コンピュータービジョン技術を応用したシンクロダンスのポーズのズレを可視化する練習支援システム「SyncUp」(シンクアップ)の構築を発表した(SyncUp: Vision-based Practice Support for Synchronized Dancing)。

SyncUpは、コンピュータービジョン技術により抽出されたスケルトンデータをもとに、体の各部位の相対的な位置の差異を定量的に検出することで、ダンサー間のポーズの類似性を推定する。またシンクロダンスでは、常に全員が同じ動きをするとは限らない。その場合はどれだけ同期性が高いかシンクロ感が出る。そこで、各ダンサーがどのタイミングで体の部位を動かしているかも定量的に推定するアルゴリズムを実装しているという。つまり、体の動きとタイミングの両方の差異がわかる。

特別な機器は必要とせず、ダンスの練習動画をアップロードするだけで使えるため、アマチュアのダンサーにも気軽に利用できるとのことだ。タイミングや動きのズレは、グラフ化されると同時に、実際の動画の上にオーバーレイとしてズレている体の部位やズレの程度が示される。

東京大学がシンクロダンスの練習支援システム「SyncUp」発表、コンピュータービジョン技術でポーズ・動きのズレを可視化

オーバーレイの例。ポーズのズレの大きさに応じて色が変化する。赤色に近い色ほど、ズレが大きいことを示す

実験を行った結果、SyncUpの認識結果がダンサーの主観的な評価とおおむね一致したとのこと。練習の効率が上がるほか、ダンサー同士のコミュニケーションが円滑になるという。また実験では、この技術を応用して、うまく踊れた部分だけを自動抽出し、ハイライト動画を生成してSNSなどで公開する方法の可能性も確認された。

同研究科では、SyncUpを「人々の芸術的表現を支援する人工知能技術の新しい応用を示すもの」としている。

【コラム】物理的セキュリティにおける「IoT」の過去、現在そして未来

Axis Communicationsが1996年のアトランタオリンピックの後に最初のインターネットプロトコル(IP)カメラをリリースしたとき、初期の混乱がある程度存在した。コネクテッドカメラはその当時市場が求めていたものではなく、多くの専門家が必要かどうかを疑問視していた。

もちろん今日では、従来のアナログカメラはほぼ全面的に段階的廃止へと追い込まれており、組織がIoTデバイスのもたらす大きな利点を認識するようになったことを反映している。しかしその技術は、初期の頃は大きなリスクと感じられていた。

それ以来状況が変わったと述べることは、劇的に控えめな表現になるであろう。「モノのインターネット(IoT)」の成長は、物理的セキュリティが進化してきた過程の一端を象徴している。コネクテッドデバイスは標準的なものとなり、録画されるビデオの枠を超えたエキサイティングな新しい可能性を切り開いた。IPカメラの改良や広範な普及といったさらなる進展は、アナリティクスの改善、処理能力の向上、オープンアーキテクチャ技術の成長など、追加的なブレークスルーを後押ししている。IPカメラが最初に発売されてから25周年を迎えた今、この業界がどこまで来たのか、そしてこれからどこに向かうのかを考えてみる価値はあるだろう。

技術の改良がIPカメラ台頭の到来を告げる

現在のIPカメラを1996年に発売されたものと比較するのは、ほとんど滑稽とも言える。当時は確かに革新的だったが、これらの初期のカメラは17秒に1フレームしか処理できなかった。今日のものとはかなりの差がある。

だがこの欠点があった一方で、物理的セキュリティの最先端にいる人々は、IPカメラがどれほど壮大なブレークスルーをもたらすかを理解していた。つまり、カメラのネットワークを構築することでより効果的な遠隔監視が可能になり、この技術を拡張できれば、さらに大規模なシステムを配備して別々のカメラグループを結びつけることが可能になるだろうということだ。初期のアプリケーションとしては、油田、空港の着陸帯、遠隔地の携帯電話基地局の監視などが含まれていただろう。さらに良いことに、この技術は、まったく新しいアナリティクスケイパビリティの世界を開くポテンシャルを有していた。

もちろん、その無限のポテンシャルを現実のものにするには、より優れたチップセットが必要だった。革新的であろうとなかろうと、初期のこの種のカメラの限られたフレームレートでは、従来の監視アプリケーションに広く採用されるほどの有効性は望めなかった。この問題を解決するのに多大なリソース投資を必要としたが、ほどなくこれらのチップセットが改良され、IPカメラは17秒に1フレームから1秒に30フレームの性能を持つようになった。フレームレートの低さはもはやIPカメラを避けてアナログカメラを選ぶ理由にはなり得ず、開発者はこのデバイスのアナリティクスのポテンシャルを探り始めることができるようになった。

おそらく最も重要な技術的飛躍は、組み込みLinuxの導入であろう。これにより、IPカメラは開発者の観点からより実用的なものになった。1990年代は大半のデバイスが独自のオペレーティングシステムを使用していたため、開発に困難をきたしていた。

企業内でさえ、プロプライエタリシステムは開発者が特定の技術について訓練を受ける必要があることを意味しており、時間と費用の両面のコストが企業に生じていた。Wind Riverオペレーティングシステムなど、業界内で標準化が試みられたが、最終的には失敗に終わっている。それらはあまりにも小規模で、その背後には限られたリソースしか置かれてなかった。さらに、より優れたソリューションとしてLinuxがすでに存在していた。

Linuxは広範囲の利点をもたらしたが、その中でも特に大きかったのは、オープンソースコミュニティの他の開発者とのコラボレーションである。これは2つの方向に走る1つの道筋だった。ほとんどのIPカメラにはLinuxを実行するのに必要なハードディスクがなかったため、デバイスがフラッシュメモリチップをハードディスクとして使用できるようにする、JFFSとして知られるハードウェアが開発された。この技術はオープンソース化されており、現在は3世代目だが、今でも広く利用されている。

圧縮技術も同様の課題を呈しており、90年代後半から2000年代前半にかけてのデータ圧縮モデルはビデオにはあまり適していなかった。当時、ビデオストレージでは個々のフレームが1つずつ保存されていたため、データストレージは悪夢のような状況に陥っていた。幸いなことに、H.264圧縮方式がビデオを念頭に置いて設計され、2009年に普及が進んだ。

その年の終わりまでに、IPカメラの90%超と大部分のビデオ管理システムがH.264圧縮方式を使用するようになった。圧縮機能の向上により、メーカーのビデオ解像度も改善された点を注記しておくことが重要である。この新しい圧縮方式が登場するまで、ビデオ解像度は60年代のNTSC/PAL以降変化することはなかった。今日ではほとんどのカメラが高解像度(HD)で録画できるようになっている。

  • 1996年:最初のIPカメラがリリース。
  • 2001年:ビデオモーションを検知するエッジベースのアナリティクスが登場。
  • 2006年:最初のダウンロード可能なエッジベースアナリティクスが利用可能になる。
  • 2009年:フルHDが標準のビデオ解像度に; H.264圧縮が主流になる。
  • 2015年:スマート圧縮がビデオストレージに革命をもたらす。

アナリティクスの成長

アナリティクスは、必ずしも「新しい」技術というわけではない。IPカメラの黎明期にも顧客はさまざまなアナリティクスケイパビリティを求めていた。しかし、この技術は飛躍的な進歩を遂げている。今日の高い基準からすると古めかしく思えるかもしれないが、ビデオモーション検出はIPカメラに搭載された最初期のアナリティクスの1つだった。

顧客が必要としていたのは、特定のパラメータの範囲内で動きを検出して、木が風に揺れたり、リスが通り過ぎることで誤アラームが発生しないようにする方法だった。この種の検出および認識技術のさらなる改良により、物理的セキュリティの多くの側面が自動化され、疑わしいアクティビティが検出された場合にアラートをトリガーし、それが人間の注意喚起につながるようにした。人間の可謬性の問題を解決することで、アナリティクスはビデオ監視をリアクティブツールからプロアクティブなツールへと変化させた。

信頼性の高い動きの検出は、今でも最も広く利用されているアナリティクスの1つである。誤アラームを完全に排除することはできないものの、近代的な改良を経て、潜在的な侵入者を検出する信頼性の高い方法として機能するようになっている。オブジェクト検出も人気が高まっており、自動車、人、動物、その他のオブジェクトを分類する能力の向上が進んでいる。

ナンバープレート認識は多くの国で普及しており(米国ではそれほどでもないが)、犯罪行為に関与する車両を特定するためだけでなく、駐車場での認識のようなシンプルな用途にも利用されている。車のモデル、シャツの色、ナンバープレートの番号といった詳細情報は、人間の目では見逃されたり、認識できなかったりする可能性が高い。しかし、モダンアナリティクスにより、データは容易に参照できるようにカタログ化され、格納される。ディープラーニングのような技術の出現は、ラベリングとカテゴライズの改善によるパターン認識とオブジェクト分類の機能向上を特徴としており、アナリティクスのこの領域におけるさらなる前進を促すだろう。

アナリティクスの台頭は、セキュリティ業界がオープンアーキテクチャ技術を採用した理由を浮き彫りにすることにもつながる。簡単に言えば、単一のメーカーでは顧客が必要とするすべてのアプリケーションに対応することは不可能だということだ。オープンアーキテクチャ技術を使用することで、メーカーは、特定のユースケースに合わせてデバイスを特別に調整することなく、顧客が自身に適したソリューションを追求できる環境を整えることができる。病院は患者の苦痛の兆候を検出する音声分析の追加を検討しているかもしれない。小売店は人数の集計や盗難の検出にフォーカスする可能性がある。法執行機関が発砲の検知に重点を置くことも考えられる。これらのアプリケーションのすべてが同じデバイスモデル内に組み込まれ得るのだ。

新型コロナウイルス(COVID-19)のパンデミックにより、物理的セキュリティデバイスとアナリティクスの両方に興味深い新たな用途が生まれたことにも注目する必要がある。ただし、発熱の測定に対するサーマルカメラの使用など、一部のアプリケーションについては高い精度での実装が難しいことが判明している。医療業界の間ではカメラの使用が大幅に増加したが、こうした精度の問題に変化が生じる可能性は低い。病院は病室内におけるカメラの利点を見出しており、安全な環境を維持しながら、医療専門家が患者をモニタリングし、患者と通信することを可能にするビデオおよびインターコム技術を活用している。

クロスライン検出のようなシンプルなアナリティクスでも、転倒リスクのある患者が指定されたエリアから出ようとする場合のアラートを生成でき、事故や全般的な障害を低減できるポテンシャルがある。このようなアナリティクスが今日ではわずかな言及でしかないという事実は、物理的セキュリティがIPカメラの黎明期からどれほど進んでいるかを浮き彫りにしている。

セキュリティの将来を見据える

つまり、今日のトレンドを検証することで、セキュリティ業界の将来を垣間見ることができる。例えば、ビデオ解像度は確実に向上し続けるだろう。

10年前、ビデオ監視の標準解像度は720p(1メガピクセル)であり、さらにその10年前はアナログNTSC/PAL解像度の572×488、すなわち0.3メガピクセルであった。今日の標準解像度は1080p(2メガピクセル)で、ムーアの法則を定石通りに適用すると、10年後には4K(8メガピクセル)になることが見込まれる。

これまでと同様、高解像度ビデオが生成するストレージの量が制限要因となっているものの、Zipstreamのようなスマートストレージ技術の開発が近年大いに貢献している。高解像度ビデオを可能にするスマートストレージとビデオ圧縮のさらなる改良が期待できるだろう。

サイバーセキュリティはまた、メーカーとエンドユーザーの双方にとって大きな懸念となりつつある。

先頃、スウェーデンの大手小売業者の1社がハッキングのために1週間閉鎖された。他企業も安全性の低いデバイスを使い続ければ同じ運命をたどるだろう。どのようなソフトウェアにもバグが含まれている可能性があるが、これらの潜在的な脆弱性を特定して修正することにコミットする開発者とメーカーだけが信頼できるパートナーと見なされ得る。世界全体にわたって、サイバーセキュリティの改善を義務づける新たな規制が政府により可決される可能性が高くなっている。カリフォルニア州の最近のIoT保護法は、業界が期待し得ることを示す早期の指標となるだろう。

最後に、倫理的な行動がより重要になり続けるだろう。顔認識のような技術が悪用されることなく、どのように使用されることを想定しているかを示すガイドラインを公表し、自社の倫理ポリシーを前景化し始める企業が増えている。

新しい規制が登場する一方で、規制自体は常に遅れをとっている。ポジティブな評価を得たい企業は独自の倫理ガイドラインに準拠する必要がある、ということを特筆すべきであろう。新型コロナウイルス(COVID-19)のパンデミックを受けて、倫理的な配慮を主要な懸念事項として挙げる消費者が増えている。今日の企業は、責任あるプロダクトの使用をどのようにブロードキャストし実施するかについて、強く検討する必要がある。

変化は常にすぐ近くにある

IPカメラが導入されて以降、物理的セキュリティは大きな発展を遂げた。ただし、そこで起こった変化の数々は、顕著ではあるものの、20年を超える年月をかけてもたらされたことを心に留めておくことが重要だ。変化には時間がともない、多くの場合、予想以上に時間がかかる。それでも、現在の業界の状況と25年前の状況を比較するとき、感銘を受けずにはいられない。技術は進化し、エンドユーザーのニーズもシフトしていく。業界の主要プレイヤーでさえ、時代に対応する能力に応じて現れたり消えたりしている。

変化は避けられない。しかし、今日のトレンドを注意深く観察し、それが今日の進化するセキュリティニーズにどのように適合しているかを把握することは、今日の開発者やデバイスメーカーが将来に向けた自らの位置づけを理解することに役立つ。パンデミックは、今日のセキュリティデバイスが、ほんの数年前には誰も予想しなかった方法で付加価値を提供できるという事実を浮き彫りにした。そして、オープンなコミュニケーション、信頼できる顧客サポート、倫理的な行動の重要性をさらに際立たせている。

私たちが将来に向かって進む中で、これらのコアバリューを優先し続ける組織は、最も大きな成功を収める組織の1つとなるであろう。

編集部注:Martin Gren(マーティン・グレン)氏はAxis Communicationsの共同創業者であり起業家、そして最初のネットワークカメラの発明者。

画像クレジット:Erlon Silva/TRI Digital / Getty Images

原文へ

(文:Martin Gren、翻訳:Dragonfly)

D-IDが写真を独自のフォトリアルな動画に変換する「Speaking Portrait」の提供を開始

古い家族写真を生き生きとした動きのある肖像画に変えた、 センセーショナルなMyHeritage(マイヘリテージ)アプリへの技術提供を行った会社が、新しい応用を引っさげて再登場した。静止画を超リアルな動画に変換し、好きなことをしゃべらせることができるようにする技術だ。

D-ID(ディーアイディー)のSpeaking Portraits(スピーキング・ポートレイト)は、ここ数年話題になっていた悪名高い「ディープフェイク」に似ているようにみえるかもしれないが、基盤技術はまったく異なっており、基本的な機能の提供のためのトレーニングは不要だ。

関連記事:MyHeritageが古い家族写真をディープフェイク技術でアニメーション化

かつて2018年のTechCrunch Battlefieldではまったく異なる技術(顔認識技術への対抗技術)でデビューしたD-IDが、今回のTechCrunch Disrupt 2021では新しいSpeaking Portraits製品をライブで披露した。同社はこの技術を使って、さまざまな感情を表現できる多言語テレビキャスターの作成、カスタマーサポート用のバーチャルチャットボットのペルソナ作成、プロフェッショナル育成用のトレーニングコースの開発、インタラクティブな会話型ビデオ広告キオスクの作成など、さまざまなユースケースを紹介した。

この新製品やMyHeritageとの提携は、明らかにD-IDの当初の方向性からは大きく異なっている(MyHeritageのアプリは一時的にAppleのApp Storeのチャートでトップになった)。2020年の5月頃までは、D-IDは従来のやりかたで資金調達を行っていたが、2021年の2月にはMyHeritageとの提携を開始し、その後GoodTrust(グッドトラスト)との提携を経て、Hugh Jackman(ヒュー・ジャックマン)監督の映画「Reminiscence(レミニセンス)」では、ワーナー・ブラザースとの提携により、ファンが予告編に自分の姿を入れることができるようになるといった派手な展開を見せた。

こうしたD-IDの方向転換はこれ以上なく劇的なものに見えるかもしれない、しかし技術的な観点から見ると、写真に命を吹き込むことに焦点を当てた新しい方向性は、同社がもともと開発してきた画像匿名化(de-identification)ソフトウェアとそれほど大きな違いはない。D-IDのCEOで共同創業者であるGil Perry(ギル・ペリー)氏は、この種のアプリケーションに関して、アプローチ可能な非常に大きな市場があることが明らかになったので、新しい方向性を選択したと話している。

関連記事:動画中の顔をぼかして本人同定を不可能にするプライバシー技術のD-IDが14.5億円を調達

ワーナー・ブラザースのようなビッグネームのクライアントや、比較的無名のブランドからApp Storeを席巻するアプリが出たことは、この評価を裏づけるものと言えそうだ。だがSpeaking Portraitsが狙うのは、さまざまな規模のクライアントだ。誰もがソース画像からフルHDビデオを作成し、録音された音声や、字幕を加えることができる。D-IDは英語、スペイン語、日本語に対応した製品をローンチするが、将来的には顧客の要望に応じて他の言語も追加していく予定だ。

Speaking Portraitsでは2種類の基本カテゴリーが提供される。そのうちの1つである「Single Portrait」(シングルポートレート)オプションは、頭は動くが他の部分は動かない映像を1枚の写真だけで作ることができる。こちらは、既存の背景を使っても動作する。

さらなるリアリティを追求したい場合には「Trained Character(トレインド・キャラクター)」というオプションがある。このオプションでは、希望するキャラクターの10分間のトレーニングビデオを、同社のガイドラインに沿って提出する必要がある。これには、独自の交換可能な背景を使うことができるという利点があり、キャラクターの体や手にいくつかのプリセットされた動作を加えるオプションもある。

Trained Characterを用いて作成されたSpeaking Portraitニュースキャスターの例を以下に示すので、そのリアルさがどのようなものかを見て欲しい。

今回のDisruptでペリー氏がライブで見せてくれたデモは、子どもの頃の自分の静止画から作られたものだった。この写真は、人形遣い役の人物が演じる顔の表情にマッピングされている。またこの人形遣い役は、ギル氏が現在の自分と若い自分が交わす対話の中で、Speaking Portrait版が話すスクリプトの声も担当していた。話し手の表情がどのようにアニメーションとして反映されるかは以下の動画でみることができる。

もちろん、たった1枚の写真から、どんなセリフも説得力を持って伝えることができるフォトリアリスティックな動画を作ることができるということは、ちょっと身の毛もよだつような話であることはいうまでもない。すでに、ディープフェイクの倫理性についてさまざまな議論が交わされているなかで、AIが現実的ではあるが人工的な結果を生み出した場合に、それを特定できるようにしようとする業界の取り組みも見られる。

Disruptでペリー氏は、D-IDは「この技術が悪いことではなく、良いことに使われるようにしたいと熱望しています」と述べ、その実現に向けて10月末にはパートナー企業とともに、Speaking Portraitsのような技術を使用する際の「透明性と同意」へのコミットメントをまとめた誓約書を発行する予定だと述べた。このコミットメントの目的は「ユーザーが自分の見ているものについて混乱することなく、同意を行う機会が与えられること」を保証することだ。

D-IDは、この種の技術の悪用について、利用規約や公式見解で保証したいと考えているが、ペリー氏はそれを「単独ではできない」という。同じエコシステムの他の企業にも、悪用を避けるための努力に参加するよう呼びかけているのはそれが理由だ。

画像クレジット:D-ID

原文へ

(文:Darrell Etherington、翻訳:sako)