インテルが3D深度カメラ「RealSense」事業を閉鎖へ、コア事業に注力の戦略

インテルが3D深度カメラ「RealSense」事業を閉鎖へ、コア事業に注力の戦略

Intel Corporation

インテルは現在、主力事業の半導体チップ部門に注力していますが、そのために重要度の低い部門を切り離しています。インテルはコンピューター情報メディアのCRNに対して3D顔認識や空間検知機能を持つAIカメラ「RealSense」の事業を閉鎖し、これまでRealSenseに関わってきた人材や技術はコアビジネスに応用していく予定とのことです。これまでRealSense事業を率いていたSagi Ben Moshe氏は2週間ほど前、自身のLinkedInページを更新してインテルを離れたことを明らかにしていました。

RealSenseはコンピュータービジョン搭載製品を素早く簡単に構築できるというコンセプトのため、ステレオビジョン、LiDAR、光学カメラなどのモジュールで構成されています。高い解像度や高フレームレートでの動作をサポートするために独自のプロセッサーを搭載しており、SDKやいくつかのユースケースを想定したサンプルコードなども用意されていました。

すでに倉庫での部品ピッキングロボットやジェスチャーを使用した学習ツールなどにRealSenseを利用している顧客企業があり、インテルのドローンにもその技術は採用されていましたが、いずれもRealSenseの購入量は少数であり、非常にニッチかつ特殊な製品との位置づけだったとされます。CRNは代理店や顧客企業にRealSense事業の閉鎖について問い合わせたものの、それほど驚きの声はなかったと伝えています。

RealSenseの代理店ASIのKent Tibbils氏は、自社の顧客が医療用やデジタルサイネージ用にRealSenseを採用しており、この特殊なカメラ製品が産業分野と相性が良いことを強調しつつも、インテルのCEOパット・ゲルシンガー氏が 垂直統合型の「IDM 2.0ビジョン」に基づいてPCやサーバー事業、半導体ファウンドリー事業に資源を集中する戦略を進めていることを考えると、周辺事業なうえ大きな需要が見込めないRealSense部門の閉鎖はビジネス的に理にかなった戦略だと述べています。

(Source:CRNEngadget日本版より転載)

関連記事
Intelが3.3兆円でチップメーカーGlobalFoundries買収を交渉中との噂
価格約1万1000円、Raspberry Piで簡単に3Dポイントクラウドが作れる3Dセンシングシステム「ILT開発キット」発表
深度・色情報を取得できるAIカメラ「OAK-D OpenCV DepthAIカメラ」を2万5179円でスイッチサイエンスが発売
インテルのノートPC向けCPU市場シェアがAppleシリコンの影響で大きく落ち込む可能性、AMDはシェア堅持か
フィックスターズ独自開発の視差計算ソフトがOpenCVに正式実装、自動運転などへの活用に期待
インテルの最新RealSenseライダーカメラは倉庫の在庫管理という巨大市場を目指す
IntelがロボティクスやAR/VRハードウェア用のインサイドアウトトラッキングカメラを発表

カテゴリー:ハードウェア
タグ:Intel / インテル(企業)Intel RealSense(製品)コンピュータービジョン(用語)LiDAR(用語)

医療現場のバラバラな書類からデータ構造を解明するMendelが約19.7億円調達

医療業界には膨大なデータが存在するが、データが非構造化されていたり、バラバラな場所に存在していたりするため、多くの場合その価値を理解することは難しい。

情報の内容を取り込み、整理するためのAIプラットフォームを構築しているスタートアップ企業Mendel(メンデル)は2021年6月上旬、その成長を継続し「臨床データ市場」を構築するための1800万ドル(約19億7100万円)の資金調達を発表した。またこの資金は、カリフォルニア州サンノゼとエジプトのカイロにある2つのオフィスで、技術面やサポート面での人材を増やすためにも使用される予定だ。

今回のシリーズAラウンドには、DCMを筆頭に、OliveTree(オリーブツリー)、Zola Global(ゾラグローバル)、MTVLPの他、以前からのサポーターであるLaunch Capital(ローンチキャピタル)、SOSV、Bootstrap Labs(ブートストラップラブズ)、UCSF Health Hub(UCSFヘルスハブ)の会長であるMark Goldstein(マーク・ゴールドスタイン)も参加している。

メンデルによると、研究機関や製薬会社の間では、患者の長期的な治療や経過をより良く理解するために、より優れたデータを収集することへの関心が高まっている。特により広範なユーザーにおいてのデータ収集に関心が高まっており、これは現在人の観察や試験の実施が困難だからという理由だけではなく、AIを使用して大きなデータセットを活用することで、より良い洞察を得ることができると考えられているからだ。今回の資金調達はこうした見解に基づくものだ。

これは例えば、具体的な病気の症状や病理の特定だけでなく、具体的な治療コースに対する反復的でより典型的な反応を積極的に特定する上で重要となる。

メンデルについては、2017年に、定期的に実施されているさまざまな臨床試験とがん患者をよりよくマッチングさせるための200万ドル(約2億1900万円)のシードラウンドを同社が受けた際の記事を書いた。この際のアイデアは、特定の臨床試験は特定のタイプのがんや患者のタイプに対応しているため、新しいアプローチを試したいと思っている人には、適しているアプローチとそうでないものがあるというものだった。

しかし結局のところ、マッチングアルゴリズムを機能させるために必要なデータに問題があったということが、メンデルのCEOであり創業者のKarim Galil(カリム・ガリル)博士によって明らかになった。

彼はインタビューでこう述べた。「トライアルビジネスを立ち上げようとする中で、もっと基本的な問題が解決されていないことに気づいたのです。それは、患者さんの医療記録を読んで理解することでした。それができなければ、臨床試験のマッチングはできません」。

「そこで当スタートアップは、少なくとも3年間は研究開発屋になって、その問題を解決してからトライアルを行うことにしました」と彼は続けた。

今日、非構造化情報を解析してより良い洞察を得ようとしているAI企業は数多くあるが、メンデルは、個別の業種や専門分野に特化したAI知識ベースを構築しているハイテク企業の代表格と言える(例として、GoogleのDeepMind(ディープマインド)も医療分野でのデータ活用を検討している主要なAIプレイヤーだが、別の業種なら法律や経済業界に注力しているEigenが挙げられる)。

自然言語を「読む」ことの問題は、医療の世界ではこれが想像以上にニュアンスに左右されるということだ。ガリル氏は、英語の「I’m going to leave you」というフレーズになぞらえて、これが例えば部屋を出て行くという意味と、人間関係から抜け出すという意味があると説明する。真の答えは ─ 人間である私たちは、真実でさえわかりにくいことがあるとわかっているが─ 文脈の中でしか見つからない。

ガリル氏は、医師とその観察記録も同様であると述べる。「行間には多くのことが隠されていて、問題は人(や状況)によって異なることもあります」。

この分野に取り組めば、利益を得られることがわかっている。

メンデルは、臨床環境とAIアルゴリズムの構築の両方において豊富な経験を持つチームによって構築されたコンピュータビジョンと自然言語処理を組み合わせて使用しており、現在、臨床データの抽出を自動化するツール、OCR、記録を共有する際に個人を特定できる情報を自動的に再編集・削除できる特別なツール、臨床データを検索するための検索エンジン、そして例の臨床試験と人とのより良いマッチングを可能にするためのエンジンを提供している。顧客は、製薬会社やライフサイエンス企業、リアルワールドデータとリアルワールドエビデンス(RWDとRWE)のプロバイダー、研究グループなどだ。

またメンデルは、今回の資金調達と同時に、多くの医療機関で利用されているオンラインファックスソリューション「eFax」との提携を発表し、医療の世界にはまだやるべきことがたくさんあることを強調している。

私の子どもたち(10代)は「Fax」が何であるかさえ知らないかもしれないが、ヘルスケアや医療の世界では、Faxは人と人との間で文書や情報をやり取りするための最も一般的な手段の1つであり、現在では業界の90%がFaxを使用している。メンデルとのパートナーシップにより、これらのeFaxが「読まれ」、デジタル化され、より広範なプラットフォームに取り込まれ、そのデータをより有用な方法で活用できるようになるだろう。

メンデルの役員であり、DCMのパートナーでもあるKyle Lui(カイル・ルイ)氏は、声明の中でこう述べている。「世界のヘルスケア業界がAIを活用することには大きな可能性があります。メンデルは、医療機関がAIを使用して臨床データを自動で意味がわかるものにするための、ユニークでシームレスなソリューションを生み出しました。私たちは、次の成長段階に向けて引き続きチームと協力していくことを楽しみにしています」。

関連記事
米FDAが脳血管内手術で利用されるステントを応用した脳コンピューター接続デバイス「Stentrode」の臨床試験を許可
初実験で致命的な脳腫瘍を30%縮小させた磁気ヘルメット
医療機関用災害対策システム「Smart:DR」を手がけるSmart119が災害時の病院初期対応アプリを公開

カテゴリー:ヘルステック
タグ:Mendel資金調達医療人工知能コンピュータービジョン自然言語処理

画像クレジット:National Cancer Institute / Unsplash

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)

サブウェイ店舗でAIが表情・視線を基にメニュー提案、OKIがAI用いた感情推定技術を活用した提案型注文システムの実証実験

サブウェイ店舗でAIが表情・視線を基にお勧めメニュー提案、OKIがAI用いた感情推定技術を活用した提案型注文システムの実証実験

OKI(沖電気工業)と日本サブウェイ(サブウェイ)は8月2日、OKIの「AIを用いた感情推定技術」(感情AI技術)を活用した「提案型注文システム」の実証実験を開始したと発表した。場所はサブウェイ渋谷桜丘店。検証期間は2021年8月6日まで。同実証実験では、注文客の興味・関心が高そうな「オススメ」メニューを提案して注文時の迷いを軽減する機能の有効性と、店舗における接客業務の効率化、さらにウィズコロナ時代に求められる非対面・非接触操作による注文の有用性を検証する。

実証実験の概要

  • 目的:興味・関心推定技術を用いた提案型注文システムの有効性の検証
  • 期間:2021年8月2日~6日
  • 場所:サブウェイ 渋谷桜丘店
  • 実施方法:当該システムの使用後、アンケート回答
  • 実験参加者:当日募集(先着順)

感情AI技術は、深層学習(ディープラーニング)を用いて、人の自然な表情や振る舞いから潜在的な感情を推定する技術という。提案型注文システムは、OKIの接客支援ミドルウェア「CounterSmart」搭載の感情AI技術の1つ「興味・関心推定技術」を用い、セルフ注文端末のカメラから得た表情データと視線センサーから得た視線データから、独自のアルゴリズムにより、注文客の興味・関心が高そうな「オススメ」メニューを提案し注文をサポートする。

注文客にとっては、メニュー選択の迷いを解消できることに加えて、注文方法がわからないことによる焦り・緊張の緩和、また店舗スタッフにとっては、注文時間の短縮とスムーズな注文による生産性向上、ストレス軽減などが期待できるといしている。

同実証実験では、サブウェイの実店舗において、実験に同意した来店客に実際に注文をしてもらい、その使用感をアンケートにより収集して、サブウェイの注文スタイルに不慣れな場合でも容易に、かつ非接触操作で安心して注文ができるかを検証する。また1人あたりの接客対応時間の短縮など、効率化を検証するとしている。

OKIは、注文を完全に自動化した端末において、視線入力や音声入力などを組み合わせた非接触対応を実現することで、ウィズコロナ時代における感染症予防の「新常態」に適応した新しい接客サービスの提供を目指す。引き続きAIを用いた感情推定技術の社会実装に取り組み、少子高齢化による労働力不足、感染症予防など、社会課題解決に貢献するとしている。

なお同実証実験については、横浜国立大学、自然科学研究機構生理学研究所、エヌ・ティ・ティ・データ経営研究所(NTTデータ経営研究所)を中心とした「生理学研究所COIサテライト拠点」活動の下で研究開発を進めているものという。同実証実験における各機関の役割は以下の通り。

  • OKI:感情推定技術を活用した提案型注文サービスの研究開発、プロトタイプの開発
  • サブウェイ:実証実験協力店舗の調整、提案型注文サービスの監修
  • NTTデータ経営研究所:OKI×サブウェイのマッチング、COI STREAM研究開発成果の社会実装支援

生理学研究所COIサテライト拠点は、文部科学省「革新的イノベーション創出プログラム」(COI STREAM)の研究開発拠点「精神的価値が成長する感性イノベーション拠点」のサテライト拠点のひとつ。

関連記事
著名人対象に公式3D CGモデル「デジタルツイン」を制作・管理・キャスティングするサービス開始、2023年までに500人制作
オリィ研究所の分身ロボット「OriHime」に新製品、自走可能で接客・誘導も行える拡張版「OriHime Porter」登場
UsideUのアバター採用遠隔接客ツール「TimeRep」がNTTドコモの5Gソリューションとして採択
AIチャットボット「りんな」のrinnaとUneeQを日本展開するデジタルヒューマンが協業、顔・声・視聴覚を持つ雑談AI実現
高さ2mの65型有機ELディスプレイで等身大のAIキャラによる接客実現、Gateboxが法人向け大型召喚装置
少人数で多拠点の遠隔接客を実現する「RURA」運営のタイムリープが1.8億円調達
レブコムがオンライン商談の会話をAIにより解析・可視化する新サービス「MiiTel Live」開始

カテゴリー:人工知能・AI
タグ:AI / 人工知能(用語)OKI / 沖電気工業(企業)コンピュータービジョン(用語)ディープラーニング / 深層学習(用語)日本サブウェイ(企業)日本(国・地域)

動画コンテンツを「読み取る」ことで、より効率的な検索を可能にするAnyClip

動画は昨今、世界をオンラインへ移行させている原動力といって差し支えなく、実際に2021年のIPトラフィックの82%を占めると予想されている。2021年5月下旬、その大量の動画コンテンツをより適切に解析し、インデックスを作成し、検索するための一連のツールを開発してきたスタートアップが、大規模な資金調達ラウンドについて発表した。2020年600%の成長率を見せたこのスタートアップは、さらなる事業拡大を目指している。

AnyClipは、コンテンツプロバイダーが動画の使用方法や視聴方法を改善できるよう、人工知能と標準的な検索ツールとを組み合わせたより優秀な動画検索ツールを彼らに提供している。このAnyClipが、自社プラットフォームを構築するための資金として、4700万ドル(約51億3000万円)を調達した。

この資金調達はJVP、Maison、Bank Mizrahiが主導し、内部投資家も参加して行われた。同社は評価額を公表していないが、現在までに7000万ドル(約76億4000万円)を調達しており、信用できる筋からの情報によると、評価額は約3億ドル(約327億5000万円)相当と考えられる。

テルアビブで創設され、ニューヨークにも拠点を置いているAnyClip。同社が現在取り組んでいるのは、社会に大量に出回っている動画への対処である。一般消費者がNetflixシリーズを観たり、YouTubeにあるクラッシック音楽を探そうとしたり、ビジネスユーザーがZoomで会議をしたり、といったように動画は最も多く利用されているコンテンツメディアの1つである。問題は、ほとんどの場合、人々が検索する際に表面的な検索しかしていない点である。

これは、ホストがアルゴリズムを微調整し、視聴者が他の動画よりもある動画を観るように仕向けている、といったことだけが原因ではない。ほとんどの場合、すべてを効率的な方法で検索するのは非常に困難だからであり、それは不可能だ、という人もいるほどである

AnyClipは、これを不可能ではないと考えているテック企業の1つである。コンピュータービジョン、NLP、音声からテキストへの変換、OCR、特許取得済みのキーフレーム検出、クローズドキャプションに基づくディープラーニングモデルなどのテクノロジーを活用し、動画のコンテンツを「読み取る」ことで、人、ブランド、製品、行動、何百万というキーワードを認識し、動画の内容に基づいて分類法を構築可能だ。これらは、コンテンツカテゴリ、ブランドセーフティー、あるいはユーザーの要求に基づいて行うことができる。

AnyClipは現在、AWSでAnyClip自身がホストしている動画を対象に作業を進めており、社長兼CEOのGil Becker(ジル・ベッカー)氏によると読み取りとインデックス化のプロセスは「リアルタイムの10倍」という驚異的な速さである。

この結果得られるデータおよびそれがどのように使用されるかについては、ご想像の通り、さまざまな潜在的用途がある。現在、ベッカー氏は、AnyClipは、さまざまなユースケース(社内用、B2B用、または一般消費者が動画を発見しやすくするためなど)で動画を効率よく整理する方法を探している顧客から強い支持を得ていると述べた。

上記の説明が示すように、このテクノロジーは当然、効果的に動画から収益を得るためにも使用できる。AnyClipは動画の中のオブジェクト、テーマ、ムード、言語をより多くより効果的に特定することで、人々が効果的に動画を発見できるようにするだけではなく、広告主が望むところに広告を配置することが可能なフレームワークを構築することができる(あるいは反対に、関係づけられたくないコンテンツを避けることもできる)。

AnyClipが連携している企業は、Samsung、Microsoft、AT&T、Amazon(Prime Video)、Heineken、Discovery、Warner Media(the latter two soon to be one)、Tencent、Internet Brands、Googleなど、錚々たる顔ぶれだ(ただし、ベッカー氏はこれらの顧客に対しどのようなサービスを提供しているかは明かさなかった)。

AnyClipはGoogleを自社への投資家とは考えていないが、Google News Initiativeのイノベーションの一環として 資金提供を受けてはいる。これは、AnyClipのAIに支えられた高度な動画管理ツールを用いながら、今日最も人気のあるビデオオンデマンドサービスの機能とデザインを模倣する、メディア企業向けのストリーミングビデオページエクスペリエンスの構築を目指すものだ。AnyClipは、企業がチャネルやサブチャネルを作成し30秒未満でライブラリを「NetflixやYouTubeのような」ライブラリに変換できるソリューションとして、数多くの企業の中から選ばれた。

AnyClipが、どのように現在取り扱っている検索および発見ツールの開発に至ったのかについては、興味深い経緯がある。AnyClipは2009年に同社の社名の由来にもなっているコンセプトで創設された。これはメディア企業が映画クリップを作成し、AnyClip自身のサイトでホストするインターネット上でシェアできるサービスで、これらのクリップはAnyClipのアルゴリズム、社員、および寄稿者によって構築された数多くの分類法を使用して検索することができた。これは、いうなればGiphyが登場する前の、類似のサービスであった。

しかし、そのサービスの登場はあまりに早すぎた。当時は著作権侵害が依然として大きな問題であり、Netflixesなど効率のよい合法なストリーミングサービスは存在せず、そのアイディアは複雑過ぎて、権利保持者に購入してもらうのは難しいことがわかった。そこでAnyClipは動画ベースの広告ネットワークの構築に軸足を移したのだが、これまた時期尚早であることがわかったのだ。

しかし、場所や時代が適切であれば、そのテクノロジーには見るべきものがあり、それでこそ、今日AnyClipは現在の立ち位置にあるといえる。同社は特許を保持しており、開発チームはそのテクノロジーを引き続き拡充している。これによりAnyClipは、Kaltura、Brightcoveなどの競合他社を引き離していると考えている。しかし当然のことながら、同市場におけるビジネスチャンスは非常に大きいため、競争がすぐになくなることはないだろう。

しかしAnyClipがこれまでの12年間で得てきた資金が3000万ドル(約32億円)という控えめなものだったことを考えると、現在のAnyClipの急成長は、同社が競合他社に打ち勝つ能力だけでなく、帯域幅とリソースを大量に消費する媒体と見なされている領域において資本効率を高める能力をも備えていることを物語っている。

「企業は動画を使ってメッセージやアイデンティティを伝えますが、その方法に革命が起ころうとしています」とJVPの創設者件会長でAnyClipの取締役会長であるErel Margalit(エレル・マーガリット)氏はいう。「動画に初めてAIが利用されます。企業や組織は、社内外を問わず、動画が文字よりも優勢なあらゆる領域で、これを利用し新しい形のコミュニケーション方法を確立しようとしています。彼らは一般消費者向けの動画や組織向けのトレーニング動画をどのように作成するか、あるいはコンテンツの取得にインテリジェントな管理が必要となるZoomでの会議の管理などに取り組もうとしています。新しい時代がやってきました。AnyClipはそういった取り組みに着手する人々にとって必須のツールなのです」。

関連記事
TC Early Stage Pitch-Offで優勝したVyrillはブランドがユーザーによる動画レビューを発見・活用をサポート
YouTubeの動画レコメンドAIは依然として悪行を重ねていることが大規模調査で判明
初期YouTubeも支えたオンラインビデオプラットフォームの老舗JW Playerは今もビジネスの最前線にいる

カテゴリー:人工知能・AI
タグ:AnyClip資金調達動画コンピュータービジョンディープラーニング

画像クレジット:AnyClip

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)

監視カメラやAIビジョンシステムを合成人間のデータで訓練する英MindtechがIn-Q-Telなどから3.6億円調達

誰のプライバシーも侵害されず、巨大なデータベースに顔がスキャンされることもなく、プライバシー法が破られることもない世界があったとしたら?そんな世界がすぐそこまで来ている。企業は単に現実世界の監視カメラ(CCTV)映像を捨て、潜在的なシナリオを100万回以上演じる合成人間に切り替えることができるのではないだろうか?それが、有力な投資家から資金を集めている、英国の新しいスタートアップが示す魅惑的な展望だ。

英国に拠点を置くMindtech Global(マインドテック・グローバル)は、エンド・ツー・エンド合成データ作成プラットフォームを開発した。簡単にいえば、店内での人の行動や、道路を横断する様子など、視覚的なシナリオを想像できるシステムだ。このデータは、大手小売企業、倉庫業者、ヘルスケア、輸送システム、ロボット工学などの顧客向けに、AIベースのコンピュータービジョンシステムを訓練するために使用される。文字通り、合成世界の中で「合成」CCTVカメラを訓練するわけだ。

このたび同社は、英国の地域投資家である国家生産力投資基金(NPIF、National Productivity Investment Fund、Mercia Equity Finance)がリードし、Deeptech LabsIn-Q-Telが参加した325万ドル(約3億6000万円)のアーリーステージ資金調達ラウンドを終了したと発表した。

この最後の出資者は重要だ。In-Q-Telは、米国の諜報活動を支援するスタートアップに投資しており、(ペンタゴンのある)バージニア州アーリントンに拠点を置いている。

MindtechのChameleonプラットフォームは、コンピューターが人間同士のやり取りを理解し、予測できるように設計されている。周知のように、現在、AIビジョンシステムを学習させるためには、企業がCCTVの映像などのデータを調達する必要がある。このプロセスにはプライバシーの問題がともない、コストと時間がかかる。Mindtechによると、Chameleonはこの問題を解決し、顧客は「フォトリアリスティックなスマート3Dモデルを使って、無限のシーンやシナリオをすばやく構築することができる」という。

さらに、これらの合成人間は、AIビジョンシステムのトレーニングに利用でき、人間のダイバーシティやバイアスからくる人的要因を取り除くことができるとのこと。

MindtechのCEOスティーブ・ハリス氏(画像クレジット:Mindtech)

MindtechのCEOであるSteve Harris(スティーブ・ハリス)氏は次のように述べている。「機械学習チームは、トレーニングデータの調達、クリーニング、整理に最大80%の時間を費やしています。当社のChameleonプラットフォームはAIトレーニングの課題を解決し、業界はAIネットワークイノベーションのようなより価値の高いタスクに集中できるようになります。今回のラウンドにより、当社の成長を加速させることができ、人間同士や周囲の世界との関わり方をよりよく理解する新世代のAIソリューションを実現することができます」。

では、それによって何ができるのだろうか?次のような場合を考えてみよう。ショッピングモールで、子供が親の手を放して迷子になったとする。Mindtechのシナリオの中で動いている合成CCTVは、それをリアルタイムで発見してスタッフに警告する方法を何千回も訓練されている。別の例では、配達ロボットが路上で遊んでいる子供に出会い、どうすれば子供を避けることができるかを学習する。最後の例として、プラットフォーム上で乗客がレールに近づきすぎて異常な行動をしている場合、CCTVは自動的にそれを発見して助けを呼ぶように訓練されている。

In-Q-Telのマネージングディレクター(ロンドン)であるNat Puffer(ナット・パッファー)氏は次のようにコメントしている。「Mindtechは、Chameleonプラットフォームの成熟度と、グローバルな顧客からの商業的牽引力に感銘を受けました。このプラットフォームが多様な市場で多くのアプリケーションを提供し、よりスマートで直感的なAIシステムの開発における重要な障害を取り除くことができることに期待しています」。

Deeptech LabsのCEOであるMiles Kirby(マイルズ・カービー)氏は次のように述べた。「ディープテックの成功のための触媒として、当社の投資およびアクセラレータプログラムは、斬新なソリューションを持ち、世界を変えるような企業を作る意欲のある野心的なチームを支援しています。Mindtechの経験豊富なチームはAIシステムのトレーニング方法を変革するという使命感を持っており、我々は彼らの旅をサポートできることを嬉しく思います」。

もちろん、スーパーでの万引きを発見したり、過酷な労働環境にある倉庫作業員を最適化したりするような、よりダークな用途への応用も考えられる。しかし理論的には、Mindtechの顧客はこのプラットフォームを利用して、中間管理職のバイアスを排除し、顧客によりよいサービスを提供することができる。

関連記事
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止
全米で失業保険用に導入された顔認識システムが申請を次々拒否、本人確認できず数カ月受給できない人も
欧州人権裁判所は「大規模なデジタル通信の傍受には有効なプライバシー保護手段が必要」と強調

カテゴリー:人工知能・AI
タグ:Mindtech Global資金調達イギリスプライバシーコンピュータービジョン監視カメラ

画像クレジット:Mindtech’s Chameleon platform/Mindtech

原文へ

(文:Mike Butcher、翻訳:Aya Nakazato)

価格約1万1000円、Raspberry Piで簡単に3Dポイントクラウドが作れる3Dセンシングシステム「ILT開発キット」発表

Raspberry Piで簡単に3Dポイントクラウドが作れる3Dセンシングシステム「ILT開発キット」発表

マジックアイは、企業や学校の研究者など3Dセンシングに興味のある人を対象に、小型・高速・高精度・低遅延・省電力を特徴とする独自特許技術の3Dセンサー方式「インバーティブル・ライト技術」(ILT)を手軽に評価できる入門モデル「ILT開発キット」(DK-ILT001)を7月15日から世界同時発売すると発表した。希望小売価格は100ドル(約1万1000円)。予定販売数は5000台。スイッチサイエンスから販売予定。

縦横44×24ミリ、高さ16ミリというコンパクトなハードウェアと専用ファームウェアからなるILT開発キットは、Raspberry Pi(別売)と組み合わせることで、動きの速い立体も高精度に測距して3Dポイントクラウド(3D点群)化できる。


「ILT開発キット」(DK-ILT001)仕様は次のとおり。

「ILT開発キット」(DK-ILT001)仕様

  • プロジェクター発光到達距離:1500mm
  • 推奨測距距離:150〜800mm(測定精度±3¥%)
  • 高精度測距距離:150〜500mm(測定精度±1.5¥%)
  • 測距有効視野角(FOV):約55度×約43度(マジックアイ開発環境による)
  • 測距速度:約120fps(マジックアイ開発環境による)
  • 動作環境:Raspberry Pi Zero W/3B/3B+/4(専用ファームウェアを準備)
  • レーザークラス:クラス1IEC60825-1(2007)、FDA:2110463-000)
  • 電源電圧:3.3V(電源はRaspberry Piのカメラコネクターより供給)
  • 消費電力:0.6W(平均)
  • 形状:W44×D24×H16mm
  • 質量:16g

開発環境

  • Raspberry Pi Zero W/3B/3B+/4(専用ファームウェアを準備)
  • 対応OS:Ubuntu 20.04、Windows 10
  • 対応言語:C++、Python
  • 対応ミドルウェア:OpenCV、PCL(Point Cloud Library)、Open3D、ROS、Unity(計画中のものを含む)

関連記事
深度・色情報を取得できるAIカメラ「OAK-D OpenCV DepthAIカメラ」を2万5179円でスイッチサイエンスが発売
ROS対応協働ロボットアーム「myCobot」のラズパイ版「myCobot Pi」、商業向け「myCobot Pro」が発売開始
世界に先駆け有機半導体レーザー評価用サンプルの製造・販売を目指す、九州大学発のKOALA Techが4億円調達
Raspberry Pi財団が550円の「Raspberry Pi Pico」発表、日本でもスイッチサイエンスが発売
ラズベリーパイ財団が8GBメモリー搭載のRaspberry Pi 4を発表

カテゴリー:ハードウェア
タグ:Windows 10(製品・サービス)Ubuntu(製品・サービス)OpenCV(製品・サービス)Open3D(製品・サービス)コンピュータービジョン(用語)C++(製品・サービス)スイッチサイエンス(企業)Python(製品・サービス)PCL / Point Cloud Library(製品・サービス)マジックアイ(企業)Unity(企業・サービス)Raspberry Pi(組織・製品)ROS(製品・サービス)日本(国・地域)

物議を醸し出しながらも広く使われる顔認識のAnyVisionがソフトバンクなどから約261億円調達

顔認識は、人工知能の応用分野の中でも特に問題の多い分野だ。コンピュータービジョンを使って顔を識別し、その後、その人の身元を特定することは、プライバシーやデータ保護、仕事の目的やシステム自体を支える倫理観について多くの疑問を投げかけている。しかし、その一方で、顔認識はさまざまなユースケースで広く採用されている。今回、この分野で物議を醸しながらも成功を収めているスタートアップの1つが、大規模な資金調達を完了した。

イスラエルのスタートアップであるAnyVision(エニービジョン)は、顔で人を識別するAIベースの技術を開発するだけでなく、大勢の中から高い体温の人を検出する技術も開発している。同社は2億3500万ドル(約261億円)の資金を調達したと認めた。

今回のシリーズCは、AIスタートアップとしては大規模なラウンドの1つだ。ソフトバンクのVision Fund 2とEldridge Industriesが共同でリードし、既存投資家も参加した(表には出ていないが、Robert Bosch GmbH、Qualcomm Ventures、Lightspeedなどが名を連ねている)。同社はバリュエーションを公表しておらず、問い合わせ中だ。PitchBookによると、AnyVisionは過去に約1億1600万ドル(約129億円)を調達しており、2020年の前回のラウンド以来、多くの顧客を獲得してきた。

また、AnyVisionのCEOであるAvi Golan(アビ・ゴラン)氏は、ソフトバンクの投資部門の元オペレーティングパートナーであることも特筆すべき点だ。

今回調達した資金は、SDK(Software Development Kit)の開発継続のため、特にエッジ・コンピューティング・デバイス(スマートカメラ、ボディカメラ、その他のデバイスに使用されるチップ)を動かし、同社のシステムのパフォーマンスとスピードを向上させるために使用されるという。

AnyVisionのシステムは、ビデオによる監視、監視員による警告、会社などの組織が群衆を監視・制御するといったシナリオで利用される。例えば、人数の把握、小売店での滞留時間の分析、違法行為や危険な行為の警告などに利用される。

「AnyVisionの認識AIのイノベーションは、受動的なカメラをプロアクティブなセキュリティシステムに変え、組織が高度なセキュリティの脅威に対してより全体的な視点を持つことを可能にしました」とゴラン氏は投資を発表する声明で述べた。「Access Point AIプラットフォームは、人、場所、プライバシーを保護すると同時に、コスト、電力、帯域幅、運用の複雑さを削減するように設計されています」。

多くの報道に触れ、AnyVisionの名前を知っている人もいるかもしれない。

同社は2019年、その技術によりイスラエル政府がヨルダン西岸地区のパレスチナ人の監視を密かに実行していると報道された。

同社はこれを否定したが、この話はすぐに同社の評判に大きな汚点を残すことになり、同時に顔認識の分野全体にさらなる監視の目を向けることになった。

これを受け、ベンチャー部門「M12」を通じてAnyVisionに投資していたMicrosoft(マイクロソフト)は、その投資と、顔認証投資に対する同社の姿勢を全面的に監査することになった。最終的にマイクロソフトは株式を売却し、今後、このような技術には投資しないことを約束した。

それ以来、AnyVisionは、顔認識という大きな市場には多くの課題や欠点があることを認め、この分野での「倫理的」なプレイヤーになるべく懸命に取り組んできた。しかし、同社を巡っては論争が続いている。

2021年4月のReuters(ロイター)の報道では、ロサンゼルスのCedars Sinai(シダーズ・サイナイ)のような病院から、Macy’s(メイシーズ)のような大手小売店、エネルギー大手のBPまで、今日どれだけ多くの企業がAnyVisionの技術を使用しているかが紹介されている。AnyVisionの権力とのつながりは、単に大きな顧客を持っているということだけではない。ホワイトハウスのJen Psaki(ジェン・サキ)報道官は、かつてこのスタートアップのコミュニケーション・コンサルタントを務めていた。

また7月6日、The Markupに掲載されたレポートでは、2019年に発行されたユーザーガイドブックを含むAnyVisionのさまざまな公開記録を調べ、同社がどれだけの情報を収集できるのか、どんなことに取り組んできたのかについて、かなり不利な状況を描いている(ある試験運用とその報告書では、テキサス州の学区の子どもたちを追跡している。AnyVisionは、わずか7日間で5000枚の生徒の写真を収集し、16万4000件以上の検出を行った)。

しかし、AnyVisionの技術が役に立ち、有用となり、あるいは歓迎されると思われるケースは他にもある。例えば、体温を検知して、高い体温の人と接触した人を特定する機能は、新型コロナウイルスの不明瞭なケースをコントロールするのに役立つ。例えば、人が集まるイベントでウイルスを封じ込め、遂行するための安全策を提供する。

また、これは明確にしておきたいが、この技術を開発・展開している企業はAnyVisionだけではなく、監視の目にさらされているのもAnyVisionだけではない。米国のClearview AIは、何千もの政府や法執行機関で利用されているが、2021年初め、カナダのプライバシー当局から「違法」と判断された。

実際、こうした技術がどのように発展していくのか、どのように使用されるのか、そして一般の人々がこれをどうに見るようになるのかという点においても、物語は完結していないようだ。今のところ、論争や倫理的な問題があったとしても、AnyVisionの勢いはソフトバンクを動かしているようだ。

「視覚認識市場は初期段階にありますが、欧米では大きな可能性を秘めています」と、ソフトバンク・インベストメント・アドバイザーズのパートナーであるAnthony Doeh(アンソニー・ドー)氏は声明で述べた。「我々は他のカテゴリーでAI、バイオメトリクス、エッジコンピューティングによる変革の力を目の当たりにし、AnyVisionが数多くの業界で物理環境分析を再定義するユニークな位置にあると信じています」。

関連記事
Clearview AIの顔認識技術はカナダでもプライバシー侵害で違法
英個人情報監督局が公共の場でのライブ顔認証による「ビッグデータ」監視の脅威に警鐘を鳴らす
スマホ電子チケット「チケプラ」で公演当日まで二次流通可能な顔認証入場システムを提供開始

カテゴリー:人工知能・AI
タグ:顔認識AnyVision資金調達Softbank Vision Fundイスラエルコンピュータービジョン

画像クレジット:Design Cells / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Nariko Mizoguchi

ぶちまけたレゴブロックを確認、おすすめの作品を提案するiOSアプリを公式は買収すべき

LEGOは長年Appleと緊密に連携し、iOSの未公開のテクノロジーを実験したり、WWDCなどの発表イベントでデモをしたりしてきた。その中にはかなり調整したARKitプラットフォームとレゴのセットの連携があり、実物のおもちゃにデジタルのエクスペリエンスを追加していた。

iOSのテクノロジーと実物のレゴブロックを統合した見事なアプリがApp Storeで公開されている。それはファンが作ったものだ。「Brickit」というこのアプリはLEGO Groupが作ったアプリより優れたものを目指していて、コンピュータービジョンのテクノロジーで大量のブロックをすばやく認識する。

ユーザーは、レゴブロックを重なり合わないように床にぶちまけるだけでいい。するとアプリがすぐに解析してブロックを特定し、ユーザーが持っているブロックで完全に、あるいはだいたい作れるちょっとした作品をいくつか提示する。このアプリの驚くべきところはスピードだ。数百個のブロックをほんの数秒で認識できる。

筆者自身は残念ながら大量のレゴブロックをすぐに試すことはできなかったが、TechCrunchの同僚がiOSでアプリを試してみたところ、デモと同様に順調に動作した。ブロックを特定してからおすすめの作品をスクロールして見られるようになるまでに、デモよりは少し時間がかかった。組み立てている間は、大量のブロックの中から必要なピースがある場所も教えてくれる。

Brickitのチームはこの極めてニッチなユースケースでの驚くほど効果的な使い方という形で、iOSの最新バージョンに備わっている物体認識のパワーを示している。

現状では、このアプリはサードパーティーが作ったものであるためちょっとした制限がある。App Storeには免責として、このアプリはLEGO Groupが作ったものではなく、同社の従業員でもないLEGOのファンが作ったものだと記載されている。このように記載してあるのだからLEGO Groupが過剰に反応して弁護士を立てるようなことにならないように願うが、このアプリがAppleのハードウェアを見事に活用していることを考えれば、LEGO Groupがこのアプリを買収すればいいように思える。

LEGO Group自体の関与によってBrickitでできるようになることはたくさんある。主にLEGOの組み立て説明書のライブラリとの統合だ。LEGOが2019年にBrickLinkを買収したのは、購入後の市場の創出に関してファンのコミュニティをもっと活用しようという狙いだったことは明らかだ。ユーザーが自分の持っているブロックのデータベースを作れるようにすれば、同社はユーザーが所有するコレクションに対する洞察を深め、間違いなく同社にとって価値のあるデータになるだろう。

Brickitアプリは今のところiOS版のみだが、同社のウェブサイトには2021年秋までにAndroid版を公開する予定と記載されている。

関連記事
レゴスーパーマリオの世界が拡張、カスタムツールやマリオのパワーアップ、新キャラも登場
レゴが「警察セット」のマーケティングを一時中止、人種差別に対する抗議活動に配慮
LEGOが国際宇宙ステーションの公式キットを発売、スペースシャトルやロボットアームも付属

カテゴリー:ソフトウェア
タグ:LEGOAppleiOSアプリコンピュータービジョン

画像クレジット:Brickit

原文へ

(文:Lucas Matney、翻訳:Kaori Koyama)

テスラは強力なスーパーコンピューターを使ったビジョンオンリーの自動運転アプローチを追求中

Tesla(テスラ)のElon Musk(イーロン・マスク)CEOは、少なくとも2019年頃から「Dojo」(ドージョー)という名のニューラルネットワークトレーニングコンピューターについて言及してきた。Dojoは、ビジョンオンリー(視覚のみ)の自動運転を実現するために、膨大な量の映像データを処理することができるコンピューターだとマスク氏はいう。Dojo自体はまだ開発中だが、米国時間6月22日、テスラは、Dojoが最終的に提供しようとしているものの開発プロトタイプ版となる、新しいスーパーコンピューターを公開した。

テスラのAI部門の責任者であるAndrej Karpathy(アンドレイ・カーパシー)氏が、米国時間6月21日に開催された「2021 Conference on Computer Vision and Pattern Recognition」(コンピュータービジョンとパターン認識会議2021)において、同社の新しいスーパーコンピューターを公開したのだ。このコンピューターを利用することで、自動運転車に搭載されているレーダーやライダーのセンサーを捨て去り、高品質の光学カメラを採用することが可能になる。自動運転に関するワークショップで、カーパシー氏は、人間と同じようにコンピューターが新しい環境に対応するためには、膨大なデータセットと、そのデータセットを使って同社のニューラルネットベースの自動運転技術を訓練できる、巨大なスーパーコンピューターが必要だと説明した。こうして、今回のような「Dojo」の前身が生まれたのだ。

テスラの最新世代スーパーコンピューターは、10ペタバイトの「ホットティア」NVMeストレージを搭載し、毎秒1.6テラバイトのスピードで動作するとカーパシー氏はいう。その1.8EFLOPS(エクサフロップス)に及ぶ性能は、世界で5番目に強力なスーパーコンピューターになるかもしれないと彼は語ったが、後に、スーパーコンピューティングのTOP500ランキングに入るために必要な特定のベンチマークはまだ実行していないことを認めた。

「とはいえFLOPSで考えれば、きっと5位あたりに入るでしょう」とカーパシー氏はTechCrunchに語っている。「実際に現在5位にいるのは、NVIDIA(エヌビディア)のSelene(セレーネ)クラスターで、私たちのマシンに類似したアーキテクチャを採用し、同程度の数のGPUを搭載しています(向こうは4480個で、こちらは5760個、つまりあちらがやや少ない)」。

マスク氏は、以前からビジョン(視覚)のみでの自動運転を提唱してきたが、その主な理由はレーダーやライダーよりもカメラの方が速いからだ。2021年5月現在、北米で販売されているテスラのModel YおよびModel 3は、レーダーを使用せず、カメラと機械学習を利用して、アドバンスト運転支援システムとオートパイロットをサポートしている。

レーダーとビジョンが一致しない場合、どちらを信じればよいでしょう?ビジョンの方がはるかに精度が高いのですから、センサーを混合して使うより、ビジョンを重視した方がいいでしょう。

自動運転を提供する企業の多くは、LiDARと高精細地図を使用している。つまり走行する場所の、道路の全車線とその接続方法、信号機などに関する非常に詳細な地図が必要になる。

カーパシー氏はワークショップの中で「主にニューラルネットワークを使用する、ビジョンベースの私たちのアプローチは、原理的には地球上のどこでも機能することができます」と語った。

いわば「生体コンピューター」である人間をシリコンコンピューターで置き換えることで、レイテンシーの低下(反応速度の向上)、360度の状況認識、Instagram(インスタグラム)をチェックしたりしない完璧な注意力を保ったドライバーが生まれる、とカーパシー氏はいう。

関連記事:テスラの北米向けModel 3とModel Yがレーダー非搭載に

カーパシー氏は、テスラのスーパーコンピューターがコンピュータービジョンを使ってドライバーの望ましくない行動を修正するシナリオをいくつか紹介した。例えばコンピューターの物体検知機能が働いて、歩行者を轢くことを防ぐ緊急ブレーキのシナリオや、遠くにある黄色の信号を識別して、まだ減速を始めていないドライバーに警告を送る交通制御状況に関する通知などだ。

また、テスラ車では、ペダル誤操作緩和機能と呼ばれる機能がすでに実証されている。これは、クルマが進路上の歩行者や、あるいは前方に走行できる道がないことを識別して、ドライバーが誤ってブレーキではなくアクセルを踏んだ場合に対応できる機能だ。このことによって、車の前の歩行者を救ったり、ドライバーが加速して川に飛び込んだりするのを防ぐことができる可能性が高まる。

テスラのスーパーコンピューターは、車両を取り囲む8台のカメラからの映像を毎秒36フレーム収集しており、それらは車両を取り巻く環境について非常に多くの情報を提供すると、カーパシー氏は説明する。

ビジョンオンリーのアプローチは、世界中で高精細な地図を収集、構築、維持することに比べれば拡張性が高い。しかしその一方で、物体の検出や運転を担当するニューラルネットワークが、人間の奥行きや速度への認識能力に匹敵するスピードで、膨大な量のデータを収集処理できなければならないため、課題が多いということができる。

カーパシー氏は、長年の研究の結果、この課題を教師付き学習の問題として扱うことで解決できると考えているという。カーパシー氏は、この技術をテストした結果、人口の少ない地域では人間の介入なしで運転できることがわかったが「サンフランシスコのような非常に障害物の多い環境では、間違いなくもっと苦労するでしょう」と述べている。高精細な地図や追加のセンサーなどの必要性を減らし、システムを真に機能させるためには、人口密集地への対応力を高めなければならない。

テスラのAIチームの持つ画期的技術の1つは、自動ラベル付けだ。これは、テスラのカメラでクルマから撮影された膨大な量の動画から、道路上の危険物などのラベルを自動的に付けることができるものだ。大規模なAIデータセットは、時間がかかる多くの手作業によるラベル付けを必要としてきた。特に、ニューラルネットワーク上の教師付き学習システムをうまく機能させるために必要な、きれいにラベル付けされたデータセットを手に入れようとしているときにはそれが顕著だった。

だがテスラは、この最新のスーパーコンピューターを使って、1本約10秒の動画を100万本集め、60億個の物体に奥行き、速度、加速度のラベルを付けた。これらは、1.5ペタバイトという膨大な量のストレージを占めている。確かにこれは膨大な量に思えるだろうが、テスラがビジョンシステムのみに依存した自動運転システムに求められる信頼性を実現するには、さらに多くのものが必要となる。そのため、より高度なAIを追求するために、テスラはこれまで以上に強力なスーパーコンピューターを開発し続ける必要があるのだ。

関連記事:テスラが車内カメラでAutopilot使用中のドライバーを監視

カテゴリー:人工知能・AI
タグ:TeslaElon Muskスーパーコンピュータ自動運転コンピュータービジョン機械学習

画像クレジット:Tesla

原文へ

(文: Rebecca Bellan、翻訳:sako)

BIMやCIMなどデジタルツインへの位置情報統合に道筋、Cellidが建設現場において独自ARによる3次元位置情報の取得に成功

Cellidは5月26日、大林組の建設現場において、独自のAR技術「Cellid SLAM」を用い、作業員の3次元位置情報の取得に成功したと発表した。

今回の実証実験の目的は、「屋内外の大規模・複雑な構造を備える建設現場において、汎用単眼カメラを装着して巡視する職員の移動経路を3次元の動線として把握できるか」「BIM/CIMを含むデジタルツイン・プラットフォームとSLAMで取得した3次元位置情報を統合することで、安全管理や労務管理のためのツールとして発展する可能性があるか」を検証するものだ。BIM(Building Information Modeling)は、3次元の形状情報、材料・部材の仕様・性能・コスト情報など建物の属性情報を備える建物情報モデル。CIM(Construction Information Modeling)は、土木分野において国交省が提言した建設業務の効率化を目的とした取り組み。計画・調査・設計段階から3次元モデルを導入し、施工・維持管理の各段階でも連携・発展させ、事業全体で関係者間で情報を共有するというもの。

一般に、レーザーや赤外線を活用するSLAM技術(自己位置推定と周辺環境の地図を同時に実行する技術。Simultaneous Localization and Mapping)は、専用センサーを必要とすることから、デバイス費用が高額、かつセンサーの設置のためのスペースや電源供給に課題があった。またセンサーの代わりに画像データを活用する研究も進められているものの、膨大な計算負荷に加え、現場での活用に耐える精度の確保が難しく、実装には至っていないという。

一方Cellid SLAMの空間認識アルゴリズムは、すでに現場に導入されている汎用単眼カメラの映像のみを入力情報とする。そして今回、非GNSS環境を含む大規模な建設現場において、GNSS(全球測位衛星システム)やビーコンといった従来の自己位置推定技術を上回る測位精度を発揮することが確認された。

Cellidは今後、BIM/CIMなどから構築されたデジタルツイン上にウェアラブルカメラを装着した作業員などの位置情報を反映し、情報の統合を進めるとしている。また、同一現場で同時に複数の作業員がウェアラブルカメラを装着・撮影することで、位置情報だけではなく、大規模な現場の点群データなどをスピーディに収集することも可能となる。

そして将来的には、位置測位技術とAR技術などとを組み合わせることで「AR付箋」などの早期実現も期待できるとしている。AR付箋は、現実空間の特定の3次元位置に「作業ガイド」や「注意事項」を、デジタルツイン側からの入力により、設置するサービスという。

関連記事
テスラの北米向けModel 3とModel Yがレーダー非搭載に
AI防災・危機管理ソリューションのSpecteeが水害発生時浸水範囲のリアルタイム3Dマップ化に成功
Proxima Technologyが単眼・ステレオカメラ対応の深層学習を用いた高精度visual SLAM技術「DVF SLAM」開発
Preferred Networksと鹿島建設が建築現場用ロボ向けAI搭載自律移動システム開発、GNSS計測不可の屋内も対応

カテゴリー:VR / AR / MR
タグ:拡張現実 / AR(用語)建設 / 建築(用語)コンピュータービジョン(用語)CIM(用語)Cellid(企業)SLAMデジタルツイン(用語)土木(用語)BIM(用語)日本(国・地域)

台北のコンピュータービジョンeYs3DがシリーズAで7.7億円獲得、日本の丸文も投資

コンピュータービジョン技術のための、エンド・ツー・エンドのソフト・ハードウェアシステムのファブレスデザインハウスeYs3D Microelectronicsが、シリーズAで700万ドル(約7億7000万円)を調達した。参加者には、ARM IoT Capital、WI Harper、丸文が含まれる。いずれも戦略投資家だ。

台湾の台北に拠点を置くeYs3Dは2016年、ファブレスICおよびシステムインパッケージ(SiP)の設計会社であるEtronからスピンアウトした。eYs3Dは、新しい資金により、新市場で組み込みチップビジネスを構築する。集積回路、3Dセンサー、カメラモジュール、AIベースのソフトウェアなどの同社のテクノロジーは、ロボット工学、タッチレスコントロール、自動運転車、スマートリテールなど幅広く応用できる。eYs3Dの製品は、Facebook Oculus RiftS、Valve Indexバーチャルリアリティヘッドセット、Techman Robotsで使用されている。

マイクロプロセッサー企業であるArmは、eYs3Dのチップを自社のCPUとNPUに統合する予定だ。台北、北京、サンフランシスコにオフィスを構えるクロスボーダーの投資会社であるWI Harperは、eYs3Dに産業パートナーの国際ネットワークへのアクセスを提供する。半導体などの電子部品を販売する丸文株式会社は、eYs3Dの新たな流通チャネルを開拓する。

Arm IoT Capitalの会長であるPeter Hsieh(ピーター・シエ)氏は声明で「将来、強化されたコンピュータービジョンサポートがArmのAIアーキテクチャーとその展開において重要な役割を果たします。eYs3Dの革新的な3Dコンピュータービジョンの機能が市場に大きなメリットをもたらします。eYs3Dと提携し、AIに対応しやすいビジョンプロセッサーを生み出す機会に投資できることをうれしく思います」と述べた。

新しい資金は、eYs3Dの製品開発拡大と、一連の3Dコンピュータービジョンモジュールの立ち上げにも向けられる。また、新しいビジネスパートナーと協力して同社のプラットフォームを拡張し、より多くの人材を採用するためにも使われる。

eYs3Dの最高戦略責任者であるJames Wang(ジェームス・ワン)氏はTechCrunchに「世界的なチップ不足と台湾の干ばつによる当社の事業計画や生産計画への影響は大きくありません。集積回路製造サービスに関してEtronと協業しているからです」と語った。

「Etron Technologyは台湾のファウンドリーセクターの主要な顧客の1つであり、さまざまなファウンドリーと強い関係を持っているため、eYs3Dは顧客向けの製品を必要なときに受け取ることができます」とワン氏はいう。「一方、eYs3Dは主要な顧客と緊密に連携して、生産パイプラインのジャストインタイムのサプライチェーンの計画を立てています」。

同社のシステムは、シリコンの設計とアルゴリズムを組み合わせ、熱、3D、ニューラルネットワークの認識など、さまざまなセンサーから集まる情報を管理する。その技術は、Visual SLAM(vSLAM)、物体の深度認識、ジェスチャーによるコマンドをサポートする。

ワン氏によると、eYs3Dは集積回路設計からすぐに使用できる製品までエンド・ツー・エンドのサービスを提供でき、クライアントと緊密に連携して彼らが必要なものを探り当てる。例えば障害物の回避と人間の追跡機能のために、自律型ロボット会社にチップソリューションを提供した。

「彼らの専門はロボットモーター制御と機械であるため、3Dセンシングや物と人の認識のための設計モジュールに関してより完全なソリューションが必要でした。検証用のミドルウェアアルゴリズムサンプルとともに、当社の3D深度カメラソリューションとSDKの1つを提供しました」と、ワン氏は語る。「顧客は当社の設計パッケージを採用し、3D深度カメラソリューションをシームレスに統合して、概念実証を短期間で実現しました。次に、ロボットを商品化する前にカメラの設計をロボット本体に合うように改造する作業を支援しました」。

カテゴリー:ハードウェア
タグ:台湾eYs3Dコンピュータービジョン資金調達

画像クレジット:eys3d

原文へ

(文:Catherine Shu、翻訳:Nariko Mizoguchi

テスラの北米向けModel 3とModel Yがレーダー非搭載に

北米の顧客向けに製造されるTesla(テスラ)の「Model Y(モデルY)」と「Model 3 (モデル3)」には、レーダーが搭載されなくなる。これは、機械学習を組み合わせたカメラのみを使用して、同社の先進運転支援システムやその他のアクティブセーフティ機能をサポートするようにしたいという、Elon Musk(イーロン・マスク)CEOの意向を反映した変更だ。

センサーの使用をやめるという決定は、多くのテスラの動向と同様に、業界の標準的な考え方に反している。今のところ、レーダーなしのテスラ車は、北米のみで販売される。テスラは、中国や欧州の顧客向けに製造される車両から、レーダーセンサーを削除する時期やその可能性については言及していない。

自動車メーカーは通常、レーダーとカメラを(さらにはLiDARも)組み合わせ、周囲の交通状況に合わせて車両の走行速度を調整するアダプティブ・クルーズ・コントロールや、車線維持および自動車線変更など、先進運転支援システムの機能を実現するために必要なセンシングを行っている。

しかし、以前からマスク氏は、カメラといわゆるニューラルネット処理のみで、車両を取り巻く環境で起きていることを検知・認識し、適切な対応を行うシステムの可能性を喧伝しており、このシステムにはブランド名を冠した「Tesla Vision(テスラ・ビジョン)」という名称が付けられている。

ニューラルネットとは、人間の学習の仕方を模倣した機械学習の一種で、一連の接続されたネットワークを使用してデータのパターンを識別することにより、コンピュータが学習することを可能にする、人工知能アルゴリズムの洗練された形態だ。自動運転技術を開発している多くの企業は、特定の問題を処理するためにディープニューラルネットワークを使用しているが、彼らはこのディープネットワークを壁で囲い、ルールベースのアルゴリズムを使って、より広範なシステムに結びつけている。

Whole Mars Catalog@WholeMarsBlog
ピュア・ビジョンの考え方について、もう少し詳しく教えてください。

レーダーを使わないのは時代に逆行するという意見もありますが、なぜ使わないほうがいいと判断したのでしょうか?

Elon Musk@elonmusk
レーダーと視覚が一致しないとき、あなたはどちらを信じますか? 視覚認識の方がはるかに精度が高いので、複数のセンサーを組み合わせるよりも視覚認識を倍に増やした方が良いのです。

テスラは更新したウェブサイトでレーダーからの移行について詳述し、2021年5月から切り替えを開始したと述べている。このカメラと機械学習(特にニューラルネット処理)を組み合わせた方式は「Tesla Vision」と呼ばれ、同社の車両に標準装備されている先進運転支援システム「Autopilot(オートパイロット)」と、そのアップグレード版で1万ドル(約109万円)の追加料金が必要な「FSD(フル・セルフ・ドライビング)」に使われる。テスラのクルマは自動運転ではないので、人間のドライバーが常に運転に関与し続ける必要がある。

レーダーを搭載していないテスラ車では、当初は運転支援機能が制限される。例えば、Autosteer(オートステア)と呼ばれる車線維持機能が使える速度は最高時速75マイル(時速約120キロメートル)までに制限され、最小追従距離も長くなる。また、緊急車線逸脱回避機能や、駐車場で自車を自分の側まで呼び寄せることができるSmart Summon(スマート・サモン)機能は、納車当初には利用できない可能性があると、テスラは述べている。

同社では、今後数週間のうちにワイヤレス・ソフトウェア・アップデートによって、これらの機能を復活させることを計画しているという。ただし、テスラはその具体的なスケジュールを明らかにしていない。他のAutopilotやFSDの機能は、(注文した仕様にもよるが)納車時にすべて有効になっているとのこと。

一方、Model S(モデルS)とModel X(モデルX)の新車や、北米以外の市場向けに製造されるすべてのモデルには、引き続きレーダーが搭載され、レーダーを使ったAutopilotの機能も利用できる。

テスラは「よくある質問」の中で「Model 3とModel Yは、当社の製品の中でも生産台数が多いモデルです。これらのモデルを先にTesla Visionに移行することで、膨大な実世界におけるデータを短時間で分析することが可能になり、結果的にTesla Visionをベースとした機能の展開を早めることができます」と書いている。

関連記事
マスク氏の「年末までに自動運転を実現」という発言は「エンジニアリングの現実とは一致しない」とテスラ社員
イーロン・マスク氏がビットコインでのテスラ車購入停止を指示、ツイート後ビットコインは下落中
テスラがノルウェーでの判決を受け最大約243億円の補償金支払いに直面

カテゴリー:モビリティ
タグ:TeslaModel YModel 3アメリカカナダイーロン・マスクニューラルネットワーク機械学習コンピュータービジョンオートパイロット

画像クレジット:Tesla

原文へ

(文:Kirsten Korosec、翻訳:Hirokazu Kusakabe)

AIアシスタント「Pyrenee Drive」で交通事故撲滅を目指すPyreneeが2億円を調達

AIアシスタント「Pyrenee Drive」で交通事故撲滅を目指すPyreneeが2億円を調達

自動車の運転をより安全で快適にする車載機器「Pyrenee Drive」(ピレニードライブ)の開発を続けているPyrenee(ピレニー)は5月25日、総額2億円の資金調達を発表した。引受先は、フューチャーベンチャーキャピタル、菊池製作所、井伸之氏(クオンタムリープ代表取締役会長)、複数のベンチャーキャピタル、事業会社、個人投資家。

Pyrenee Driveは、交通事故の最大原因とされるドライバーのヒューマンエラーを回避するための装置。搭載されたAIが、道路状況の確認と危険予知を行い、事故の可能性を感知すると、音声と画面表示で即座にドライバーに警告する。オンライン型ドライブレコーダーも搭載するほか、後付け機器なのでどんな車にも装着できる。ナビゲーションなどの機能も、オンラインアップデートで追加してゆくとのこと。発売は2022年中を目指している。

AIアシスタント「Pyrenee Drive」で交通事故撲滅を目指すPyreneeが2億円を調達

開発中のPyrenee Driveと画面イメージ

今回調達した資金は、Pyrenee DriveのAIを活用した事故回避機能の強化と、発売に向けたハードウェアの量産設計に使われる予定。今後も調達を続けてゆくという。

Pyreneeは、人間の相棒となる製品を開発、販売するメーカーとして2016年創業。Pyrenee Driveは第1弾製品にあたり、2022年中の発売を目指して開発している。

関連記事
貨物船にコンピュータービジョンを後付けして衝突事故を防ぐOrca AIがシリーズAで約14億円調達
フィックスターズ独自開発の視差計算ソフトがOpenCVに正式実装、自動運転などへの活用に期待

カテゴリー:モビリティ
タグ:AI / 人工知能(用語)コンピュータービジョン(用語)資金調達(用語)Pyrenee(企業)日本(国・地域)

SnapchatにARとカメラを活用したコマース重視の新機能追加

Snap(スナップ)のパートナーサミットでは、数々の開発者向けツールやARクリエーター向けソフトウェア「Lens Studio(レンズ・スタジオ)」のアップデートが発表された。その中には、同社の「Snapchat(スナップチャット)」を使ったショッピング体験をより深める機能も含まれている。

中でも最もクールなアップデートの1つが、ユーザーのカメラを通して見たコンテンツを分析して、関連情報をすばやく表示するコンピュータビジョン「Scan」の新機能だ。月に約1億7千万人のユーザーに利用されているというScanは、アプリのカメラセクション内のより目立つ場所に配置されるようになり「Screenshop(スクリーンショップ)」と呼ばれる機能が統合されたことにより、ショッピング用途の性能がさらに高まった。

例えばユーザーが「Snap Camera」を使って友人が着ている服をスキャンすると、何百ものブランドからオススメのショッピング情報がすぐに表示される。また、これと同じ技術を使って、キッチンにある食材の写真を撮影すると、その食材を使った料理のレシピが、Allrecipes(オールレシピ)のサイトから表示される機能の導入も予定されている。

これらの機能は、ユーザーが現在カメラで撮影しているものを解析し、それに基づくインテリジェントな提案を行うという広範な取り組みの一部だ。

画像クレジット:Snap

企業はSnapchat内で公開プロフィールを作成することができ、ユーザーは各企業が「Shop」機能を通じて提供する販売アイテムをはじめ、Lenses(レンズ)、Highlights(ハイライト)、 Stories(ストーリーズ)などを見ることができる。

拡張現実の面では、レンズをよりスマートに統合するAPIを提供し、企業向けソリューションを引き続き重視していく。小売業者は、Business Manager(ビジネス・マネージャー)と呼ばれる機能を使って製品カタログを統合し、ユーザーが現在在庫のある製品の試着レンズにのみアクセスできるようにすることが可能になる。

ラグジュアリーファッションの販売プラットフォームであるFarfetch(ファーフェッチ)やPrada(プラダ)とのパートナーシップにより、ARプラットフォームはさらなるアップデートが施され、3Dメッシュの先進技術を使ったバーチャルな服の試着は一層リアルになる。ユーザーは、音声コマンドやジェスチャーを使って、試着しているアイテムを切り替えることもできるようになる。

「当社のカメラプラットフォームの力によって、Snapchatユーザーと彼らが好感を持っている企業を、有意義な方法で結びつけることができるものと期待しています」と、SnapのグローバルARプロダクト責任者であるCarolina Arguelles Navas(キャロライナ・アーグエレス・ナヴァス)氏は述べている。「これまで以上に、私たちのコミュニティは、自宅で新製品を体験したり、試着したり、触れたり、学んだりすることができるでしょう」。

関連記事
SnapがARグラス「Spectacles」の新世代バージョンを発表
Snapが提携企業からの情報を2.5億人が利用するソーシャルマップに追加するLayersを導入
Snapが同社のARグラスに技術を提供するWaveOpticsを545億円以上で買収

カテゴリー:ソフトウェア
タグ:SnapSnapchatAReコマース アプリコンピュータービジョン

画像クレジット:Snap

原文へ

(文:Lucas Matney、翻訳:Hirokazu Kusakabe)

「常識」獲得に向け少しずつ進化するコンピュータービジョン、フェイスブックの最新研究

機械学習は、やり方を教えるデータさえあれば、あらゆることができる。これは必ずしも簡単なことではない。だから研究者は、AIに少々の「常識」を加える方法を常に模索している。常識があれば、AIが猫だと認識する前に500枚の猫の写真を見せる必要がなくなるからだ。Facebook(フェイスブック)の最新の研究は、データのボトルネックを減らす方向へ大きな一歩を踏み出した。

同社の強力なAI研究部門は、高度なコンピュータービジョンアルゴリズムなどの技術進歩や応用範囲拡大の方法に長年取り組んでいる。着実に前進しており、その成果は一般に他のリサーチコミュニティと共有されている。Facebookが特に追求している興味深い開発の1つは「半教師あり学習」と呼ばれるものだ。

一般にAIの訓練について考えるとき、上述の猫の500枚の写真のようなものを思い浮かべる。こうした画像はあらかじめ選り分けられ、ラベルが付されている(つまり、猫の輪郭が描かれていたり、猫の周りに四角い囲みをつけたり、単に猫が画像の中のどこかにいると示されていたりする)。こうして、機械学習システムが猫の認識プロセスを自動化するアルゴリズムを作れるようにする。当然のことながら、犬や馬で行いたい場合は、500枚の犬の写真、500枚の馬の写真などが必要となる。つまり、線形に応用範囲が広くなる。テクノロジーの世界では決して目にしたくない言葉だ。

「教師なし」学習に関連する半教師あり学習では、ラベル付けされたデータをまったく使用せずにデータセットの重要な部分を理解する。これで単純に明後日の方向に進んでしまうことはなく、そこにはまだ構造がある。例えばシステムに1000個の文(センテンス)を与えて学習させた後、いくつかの単語が欠落している10の文をシステムに提示する。システムはおそらく、最初に見た1000文に基づき空白を埋めるまともな仕事をすることができる。しかし、それを画像や動画で行うのはそれほど簡単ではないし、単純でも予測可能でもない。

だがFacebookの研究者は、簡単ではないかもしれないが可能であり、実際には非常に効果的であることを示した。DINOシステム(DIstillation of knowledge with NO labels「ラベルなしでの情報抽出」の略)は、ラベル付きのデータが皆無でも、人、動物、静物のビデオの中から目的のものを見つけるべく学習することができる。

画像クレジット:Facebook

AIは上記の処理を、1つずつ順番に分析される一連の画像として動画を捉えるのではなく「一連の単語」と「文」の違いのような複雑で相互に関連する集まりとして捉えることによって行う。動画の冒頭だけでなく、途中や最後にも注意を払うことで、AIエージェントは「この一般的な形の対象物が左から右に移動する」という感覚を得る。その情報は他の知識にも反映される。例えば右側にある物が最初の物と重なっている場合、システムは双方の輪郭をパッと見て同じではないと認識する。その知識は他の状況にも応用できる。言い換えれば、AIは「見たものの意味」という基本的な感覚を養う。そして新しい対象物に関して非常に少ない訓練で同じことを行う。

これによりコンピュータビジョンシステムは、従来の訓練を受けたシステムと比べて優れたパフォーマンスを発揮するという点で効果的であるだけでなく、関連づけや説明する能力が高まる。例えば500枚の犬の写真と500枚の猫の写真で訓練されたAIは犬と猫を認識するが、その類似性はまったく理解しない。だがDINOは、具体的にではないが、両者が視覚的に類似し、とにかく車よりも類似していることを理解する。そしてメタデータとコンテキストがメモリで見えるようになる。犬と猫は、犬と山よりも、その種のデジタル認知空間では「近い」のだ。こうした概念は小さな集まりとして見ることができる。下の画像で、ある種の概念同士がどのくらい近接しているのか見て欲しい。

画像クレジット:Facebook

これには、この記事では取り上げない技術的な利点がある。興味がある人は、Facebookのブログ投稿にリンクされている論文に詳細があるので参照されたい。

隣接する研究プロジェクトとしてPAWSと呼ばれる訓練方法もある。これは、ラベル付けされたデータの必要性をさらに減らす。PAWSは、半教師あり学習のアイデアの一部を従来の教師ありメソッドと組み合わせて、ラベル付きデータとラベルなしデータの両方から学習させ、訓練を飛躍的に向上させる。

Facebook自身はもちろん、多くのユーザー向け(そして秘密の)画像関連の製品のために、速く優れた画像分析を必要としている。だが、コンピュータービジョンの世界でのこうした一般的な進歩は、目的が異なる開発者コミュニティでも歓迎されることは間違いない。

カテゴリー:人工知能・AI
タグ:機械学習コンピュータービジョンFacebook

画像クレジット:Facebook

原文へ

(文:Devin Coldewey、翻訳:Nariko Mizoguchi

貨物船にコンピュータービジョンを後付けして衝突事故を防ぐOrca AIがシリーズAで約14億円調達

テルアビブのOrca AIは、貨物船に後付け搭載して航行や衝突回避を改善できるコンピュータービジョンのスタートアップだ。同社はこのたびシリーズAラウンドで1300万ドル(約14億円)の資金を調達し、調達総額を1550万ドル(約16億7500万円)以上に引き上げた。ほとんどの貨物船には防犯カメラが搭載されているが、コンピュータービジョンカメラは珍しい存在だ。Orca AIは同社のソリューションによって、すでに海上にいる船舶に自律的な誘導方法を導入できると期待している。

海難事故は年間4000件以上発生しており、その主な原因はヒューマンエラーだ。同社によると、新型コロナウイルスのパンデミックにより定期的な乗組員の交代が難しくなっているため、この状況は悪化しているという。最近のスエズ運河での事故は、この業界がいかに重要であるかを浮き彫りにした。

今回の資金調達はOCV Partnersが主導し、同社プリンシパルのZohar Loshitzer(ゾハール・ロシッツァー)氏がOrca AIの取締役に就任した。Mizmaa VenturesとPlayfair Capitalも本ラウンドに参加した。

この会社は、海軍技術のエキスパートであるYarden Gross(ヤルデン・グロス)氏とDor Raviv(ドル・ラヴィヴ)氏によって設立された。後者は、元イスラエル海軍のコンピュータービジョンの専門家だ。同社の顧客には、Kirby、Ray Car Carriers、NYKなどがある。

Orca AIのAIベースのナビゲーションと船舶追跡システムは、ビジョンセンサー、赤外線カメラ、サーマル・低照度カメラに加え、環境を見て危険な状況を乗組員に知らせるアルゴリズムを使い、航行が困難な状況や混雑した水路で船舶をサポートする。

今回の発表にあたり、共同創業者兼CEOのグロス氏は次のように述べた。「海運業界は、技術革新の面で航空産業に比べまだ大きく遅れています。船舶は、ますます混雑する水路、悪天候、視界の悪い状況に対処し、しばしば高価な貨物を積んで困難な航海を強いられています。当社のソリューションは、世界中のあらゆる船舶にユニークな洞察力とデータを提供し、将来的にこのような困難な状況や衝突を減らすのに役立ちます」。

OCVのプリンシパルであるロシッツァー氏はこう述べた。「商業海運は歴史的に規制が厳しく、伝統的な産業でした。しかし現在では、安全性と効率性を高めるための技術的なソリューションの導入に前向きな変化が見られるようになりました」。

カテゴリー:人工知能・AI
タグ:Orca AIコンピュータービジョン資金調達イスラエル海運業

画像クレジット:Orca AI

原文へ

(文:Mike Butcher、翻訳:Aya Nakazato)

【コラム】都市のモビリティを改革する可能性を秘めたコンピュータービジョンソフトウェア

本稿の著者Harris Lummis(ハリス・ルミス)氏はAutomotusの協同ダウンダーでCTO。

ーーー

2019年10月、ニューヨーク・タイムズは、ニューヨーク市内では毎日150万個の荷物が配達されていると報じた。顧客にとっては便利で、世界のAmazon(アマゾン)にとっては利益になるが、これほど多くの箱を倉庫から顧客に届けることは、都市にとってかなりの外部不経済を生み出す。

タイムズは「利便性の追求は、ニューヨークをはじめとする世界中の都市部の交通渋滞、道路の安全性、汚染に大きな影響を与えている」と報じた。

この記事が発表されて以降、新型コロナウイルスの世界的流行により電子商取引は興隆を極めており、専門家はこの上昇傾向がすぐに弱まることはないと考える。戦略的な介入がなければ、私たちの都市はますます深刻な交通問題、安全問題、汚染物質の排出に直面することになるだろう。

都市部の道路には、何十年もの間、同じような問題がつきまとっている。しかし、テクノロジーがようやく追いついてきて、密集した都市の道路における混雑、汚染、駐車違反の取り締まりなどの課題に対処する新しい手段を提供できるようになってきた。

常にそうなのであるが、効果的な解決策は、まず問題を引き起こしている詳細な状況を理解することから始まる。今回のケースでは、問題に対処する方法は、街灯カメラを使って路上駐車や道路交通を観察することで、問題点を簡単に把握することである。

公共の場を監視するためにカメラを設置すると、すぐに熱狂的なプライバシー擁護派(私もその1人だ)の怒りを買うかもしれない。だからこそ、私の会社と同類の企業は、プライバシー・バイ・デザインのアプローチで製品開発を行っている。当社の技術は、映像をリアルタイムで処理し、顔やナンバープレートを認識できない程度までぼかしてから、社内や公的機関に画像データを提供することで、監視目的での悪用に対する懸念を払拭する。

これらのカメラの目的は、監視することではなく、実際の都市の道路から得られる具体的なデータを活用して、重要な洞察をもたらし、路上の駐車スペースにおける自動化を促進することだ。Automotusのコンピュータービジョンソフトウェアは、すでにこのモデルを使って、前述のような路上に氾濫する商用車の管理手段を都市に提供している。

この技術は、駐車場の回転率を最適化したり、インセンティブを与えたりするためにも利用できる。ある調査によると、ニューヨーク市のドライバーは、駐車スペースを探すために年間平均107時間を費やしている。ドライバー1人当たりの無駄な時間、燃料、排出ガスのコストは2243ドル(約24万円)に上り、ニューヨーク市全体では43億ドル(約4400億円)にもなる。このような無駄な動きは、米国国内だけでなく、世界中で起こっている。駐車スペースの需要に関する包括的なデータを収集することで、都市は、駐車スペースの供給と車両の実際の使用が適切に合致するような駐車政策を策定することができる。

ロヨラ・メリーマウント大学のキャンパスで実施したAutomotusの実験では、データを利用して駐車ポリシーを調整したところ、駐車場を探すドライバーによる交通量が20%以上減少した。データを利用して駐車スペースを最適化することで、駐車場の利用効率が上がり、駐車場を探す時間が短縮され、交通渋滞の解消につながる。また、駐車スペースの空き状況をリアルタイムに把握できれば、アプリやAPIを介してドライバーに空き駐車場を案内することも可能だ。

当社は、路上の駐車スペースにおけるあらゆる形態の活動に関する正確な最新情報を提供することで、都市プランナーがその都市の駐車スペースの時間的・空間的パターンを完全に理解できるようにしている。これによりプランナーは、その都市の特性に合わせた駐車スペース政策について、十分な情報を得た上で決定することができる。

おかげで「ここでどれくらいのタクシーからの降車が起きているか?」「火曜日の朝、どこの配送トラックが二重駐車(路肩に止めてあるクルマの横にさらに止めること)をしているのか?」といった質問に簡単に解答できるようになった。漠然とした試行錯誤的手法で政策を策定する時代は終わったのだ。乗客用駐車場、配送車専用ゾーン、タクシーエリアの位置、駐車料金の最適な設定、違反時の適切な罰則などについて、豊富な情報を基にした的確で影響力のある判断が可能になる。

この技術は、配送業者にとってもメリットがある。駐車スペースの空き状況をリアルタイムで把握し、予測することができれば、ルートの効率が向上し、コスト削減につながる。配送業者は罰金を払って路上駐車するのではなく、駐車スペースでの利用時間に応じて駐車料金を払えばよい(米国では税金控除の対象となる)。

オハイオ州コロンバスで行われた調査では、指定搬入ゾーンを設けることで二重駐車の違反が50%減少し、商用車が路上の駐車スペースに停車する時間が28%短縮された。FedExやAmazonのような企業にとっては、配送の効率が飛躍的に向上することでコスト削減につながり、その結果、駐車スペースの利用に適正な料金を支払い、浮いた資金を消費者に還元することができる。

現在は、いくつかのトレンドが相互に関連しあっており、新しい技術を道路や路上の駐車スペースに適用するには、特に好都合な時期だと言える。新型コロナの流行前、多くの都市は、人々が相乗りを利用するようになったことで、駐車場からの収入の減少に直面していた。現在、米国の何千もの自治体が、新型コロナの影響で大幅な予算不足に陥ることが予想されている。また、世界経済フォーラムの報告書によると、2030年までに都心部では商業用配送車両の数が36%増加すると予測されている。当社の調査によると、駐車違反の50%以上が商用車による違反であり、取締りを受けていないことが分かっている。

コロンバス市が2016年の米国政府の「Smart City Challenge」で優勝したのは偶然ではない。バラク・オバマ前大統領が2015年に「スマートシティ」構想の一環として1億6000万ドル(約176億4500万円)以上を拠出した際、プログラムの主要な目標の1つとして渋滞と汚染の削減が掲げられた。これらの目標を達成するためには、駐車場や路上の駐車スペースの管理を改善することが重要だ。ドナルド・トランプ前大統領は、大規模なインフラ計画を掲げて選挙戦に臨んだが、この分野での彼の公約の実現は不十分なものだった。米国政府の支援がないにも関わらず、サンタモニカなどの都市では、ダウンタウンの中心部にゼロエミッションの配送ゾーンを実験的に設置するなど、有望な取り組みが行われている。

ジョー・バイデン大統領は、米国が気候変動対策と都市交通の近代化の両方にとって必要なインフラを構築する計画の概要を発表した。この計画には、電気自動車用の公共充電ステーションを50万台分用意すること、ドライバー、歩行者、自転車などが安全に道路を共有できるように都市を変革すること、重要なクリーンエネルギーソリューションに投資することなどが含まれている。

路上の駐車スペースの管理技術は、米国政府や地方自治体が都市の汚染を減らし、生活の質を向上させるために活用できる選択肢の1つだ。次期政権が、都市のモビリティの課題を解決するためのこの斬新なアプローチを支持してくれれば、米国のインフラは単に近代化されるだけでなく、未来への準備が整うことになる。

私個人としては、この改革が実現することを願っている。私たちの国の健康、安全、そして繁栄の共有は、これにかかっているのだ。

関連記事:配送サービスの急増で混雑する道路の路肩スペース管理を請け負うスタートアップAutomotusに投資家も注目

カテゴリー:ソフトウェア
タグ:コラムコンピュータービジョン交通Automotus駐車スマートシティ

画像クレジット:Alexander Spatari / Getty Images

原文へ

(文:Harris Lummis、翻訳:Dragonfly)

コンピュータビジョンを活用した建設現場自動監視プラットフォームの香港「viAct」が約2.2億円調達

香港を拠点とするviActは、コンピュータビジョン、エッジデバイス、モバイルアプリを組み合わせたAIベースのクラウドプラットフォームで建設現場を24時間監視できるようにしている。米国時間3月24日、同社はSOSVとVectr Venturesが共同で主導したシードラウンドで200万ドル(約2億1800万円)を調達したことを発表した。このラウンドにはAlibaba Hong Kong Entrepreneurs Fund、Artesian Ventures、ParticleXも参加した。

2016年に創業したviActはアジアとヨーロッパで建設業界の30社以上の企業にサービスを提供している。今回の資金はR&D、プロダクト開発、東南アジア諸国への事業拡大に使われる予定だ。

このプラットフォームではコンピュータビジョンを使って潜在的な危険箇所や建設の進捗状況、機材や建材の場所を検出する。そしてリアルタイムでモバイルアプリにシンプルなインターフェイスのアラートが送られる。共同創業者でCEOのHugo Cheuk(ヒューゴ・チュク)氏はTechCrunchに対し、アラートは「騒々しく動きの多い環境で仕事をしているため詳細なダッシュボードを見るのが難しい」ことの多い技術者用にデザインされていると説明した。

現場の監視のためにviActと契約した企業はコロナ禍でのソーシャルディスタンスの基準を守らなくてはならないため、viActは企業がすぐに利用を開始できるようにZoomでのトレーニングを提供した。

チュク氏によれば、東南アジアではインドネシアとベトナムで最初に利用されたという。スマートシティと新しいインフラストラクチャを作る政府の計画により、新たな建設プロジェクトが今後5〜10年間で増えるからだ。デベロッパーがAIベースのテクノロジーを取り入れたいと考えることから、今後シンガポールにも進出するという。

報道発表の中で、SOSVのパートナーでChinacceleratorのマネージングディレクターであるOscar Ramos(オスカー・ラモス)氏は「コロナ禍でデジタルトランスフォーメーション(DX)が加速し、建設など古くからある業界は生き残りに不可欠な変革を急いでいます。viActは業界の価値を上げるプロダクトを作り、しかも顧客からの信頼を得て採用を加速しています」と述べた。

カテゴリー:人工知能・AI
タグ:viAct資金調達香港建設コンピュータービジョン

画像クレジット:viAct

原文へ

(文:Catherine Shu、翻訳:Kaori Koyama)

AIを活用したベビーモニターカメラのNanitが新たに約26.3億円を調達

Nanitの育児用カメラはコンピュータビジョンと専用の柄のベビー服を組み合わせて、新米のお父さん、お母さんが90秒ごとに抱く不安を解決する。「赤ちゃんはちゃんと息をしているだろうか?」。

米国時間2月22日、NanitはGVが主導したシリーズCで2500万ドル(約26億3000万円)を調達したことを発表した。

この資金調達にともない、GVのFrederique Dame(フレデリック・デイム)氏がNanitの経営陣に加わる。

Nanitは2020年の勢いに乗ってシリーズCで資金を調達した。これまでに販売されたカメラの台数は公表されていないが、NanitのCEOであるSarah Dorsett(サラ・ドーセット)氏は筆者に対し、2020年のカメラの売上は2019年に対し130%増加したと述べた。

2月初めに同社は、これまでのNanit Plus Camera(249ドル、約2万6000円)よりもアップグレードしたモデルであるNanit Pro Camera(299ドル、約3万1000円)を発表した。Nanit Proはカメラの解像度が高く、内蔵の常夜灯や使いやすさも改善されている。また、カメラでオリジナルの白黒パターンと比較することにより自宅で赤ちゃんの身長を測って記録できる「スマートシーツ」も発表した。

ドーセット氏は筆者に対し、Nanitは製品ラインナップを増やして育児用アイテムの幅広いエコシステムに参入する計画だと語り、「現在すでに存在してはいるが(Nanitが)アプリのエクスペリエンスによって大幅に強化できるもの」としておむつ替えシートや常夜灯などを挙げた。

シリーズCによりNanitのこれまでの調達金額の合計は7500万ドル(約79億円)となった。今回のラウンドを主導したGVからNanitへの投資は初めてだが、これまでに投資していたJerusalem Venture Partners、RRE Ventures、Upfront Ventures、Rho Capital Partnersが支援した。

カテゴリー:ハードウェア
タグ:Nanitコンピュータービジョン育児資金調達

画像クレジット:Nanit

原文へ

(文:Greg Kumparak、翻訳:Kaori Koyama)

コンピュータービジョンで駐車場をアップグレードするMetropolisが43.5億円調達

Metropolis(メトロポリス)は、自動化された駐車場管理の業界でシェアを獲得すべく、BMW傘下のParkMobile(パークモバイル)と競合しようとしているロサンゼルス拠点の新しいスタートアップだ。

出入りするクルマを認識するコンピュータービジョンベースのシステムで駐車場をアップグレードする、というのが創業者でCEOのAlex Israel(アレックス・イスラエル)氏が2017年に事業を開始したときからのMetropolisのミッションだ。

連続起業家のイスラエル氏は数十年も駐車場について考えてきた。同氏の直近の会社ParkMeは2015年にInrixに売却された。売却で得た収入と経験を元に、同氏は新しい種の駐車場料金決済と管理サービスを開発するために一から取り組んだ。

そして現在、Metropolisは事業立ち上げだけでなく、4100万ドル(約43億5000万円)の調達を発表しクローズアップされる準備ができている。投資家には不動産管理のStarwood、RXR Realty、Dick Costolo氏とAdam Bain(アダム・ベイン)氏の01 Advisors、Dragoneer、元Facebook従業員のSam Lessin(サム・レッシン)氏とKevin Colleran(ケビン・コレラン)氏のSlow Ventures、AlphabetのSidewalk Labs最高責任者Dan Doctoroff(ダン・ドクトロフ)氏、NBAのスターでアーリーステージ投資家のBaron Davis(バロン・デイビス)氏が含まれる。グローバルグロースエクイティファーム3Lがラウンドをリードした。

イスラエル氏によると、多岐にわたる都市モビリティサービスのハブとして駐車場の再構築を望んでいる大企業にとって駐車料金決済アプリケーションは基礎となる。

Metropolisの最終目標は、フロリダ拠点のスタートアップREEFと同じだ。REEFは既存のインフラや都市駐車場業界が作り出したものをどうすべきか、独自の考えを持っている。そしてREEFの2020年の7億ドル(約743億2000万円)の資金調達は駐車場につぎ込む金がたくさんあることを示している。

関連記事:駐車場を有効活用するREEF Technologyがソフトバンクなどから7億ドルを調達

イスラエル氏によると、REEFと違ってMetropolisはモビリティ分野に注力し続ける。「モビリティがシフトするにつれ、今後20年で駐車場はどう変わるでしょうか」と同氏は疑問を呈した。同氏はMetropolisが答えを提供することを望んでいる。

同社は調達したばかりの資金で、2022年にかけてサービス展開を600カ所に拡大したいと考えている。2017年の創業以来、同社はこれまでに累計6000万ドル(約63億7000万円)を調達した。

コンピュータービジョンと機械学習のテクノロジーは、同社が今後提供する駐車場、クリーニング、充電、ストレージ、ロジスティックといったものへの取っかかりとなる。「当社はインテグレーターになり、一部のケースでは直接的なサービスプロバイダーになります」とイスラエル氏は話した。

Metropolisはすでに大手の不動産所有者のために1万超の駐車スポットを管理しており、より多くの不動産管理者が同社のサービスを利用するようになると同氏は予想している。

「(大手の不動産管理者は)施設へのシームレスなアクセスを可能にするインフラ要件について考えていません」と同氏は話した。同氏のテクノロジーにより、ビルは価格変動制や歩留まりの最適化のようなサービスを通じて価値を有するようになる。

「Metropolisはスクーター充電、スクーターストレージ、車両ストレージ、車両のロジスティックや分類などで最も有効な使用を見出しています」と同氏は話した。

カテゴリー:モビリティ
タグ:Metropolisコンピュータービジョン駐車場

画像クレジット:Marvin E. Newman / Getty Images

原文へ

(文:Jonathan Shieber、翻訳:Nariko Mizoguchi