グーグルがAIの進化を「個人の危機」の検出と検索結果の安全に役立てる

Google(グーグル)は米国時間3月30日、AIモデルを強化してGoogle検索をより安全にし、自殺や性的暴行、薬物乱用、DVなど扱いに注意を要するクエリを向上させると発表した。同社は、利用者が明確に露骨な内容や挑発的な内容を探しているのではない場合に、AIテクノロジーでそうした好ましくない内容を検索結果から取り除く機能も強化する。

現在は、利用者が自殺や乱用といった扱いに注意を要する情報を検索すると、Googleは検索結果よりも上に関連する国のホットラインの連絡先情報を表示する。しかし同社は、危険な状況にある人はさまざまな方法で検索することがあり、人間が検索のクエリを見ればフラグが立つとわかるにしても、検索エンジンにとっては検索した人が助けを必要としているかどうかが明らかにわかるとは限らないと説明する。Googleは、MUM(Multitask Unified Model)と呼ばれる同社の機械学習と最新AIモデルのテクノロジーを利用して、自動でこれまでよりも正確に、広範囲にわたる個人の危険に関する検索を検出できるようになると説明する。MUMは人間の質問やクエリの背後にある意図をこれまで以上に理解できるからだ。

Googleは2021年に開催したSearch OnイベントでAIテクノロジーを利用して検索を再設計する計画を紹介したが、今回発表した具体的なユースケースには言及していなかった。同社は、検索する人の意図をMUMがもっと理解して、その人が調べていることについてより深いインサイトを提供し、検索の新しい道筋を示すことに力を入れてきた。例を挙げよう。ユーザーが「アクリル絵画」と検索すると、Googleはアクリル絵画について「知っておくべきこと」を示す。さまざまなテクニックやスタイル、描き方のヒント、掃除のヒントなどだ。「日用品でアクリル絵画を描く方法」のように、ユーザーが検索しようとは思っていなかった別のクエリを提示することもある。この例に関してGoogleは、アクリル絵画に関して350種類以上のトピックを特定できると説明した。

危険な状況にいる人が明らかに助けを求めているとわかる言葉を入力するとは限らないが、そのような人が検索しているかもしれないトピックをもっと理解するために、MUMが前述したアクリル絵画の例と似た方法で今後使われる。

Googleはブログ記事で「正確に認識できなければ、最も有用な検索結果を表示するシステムを作ることはできません。だから機械学習を利用して言葉を理解することが重要なのです」と説明した。

例えば、ユーザーが「シドニーの自殺の名所」と検索したとする。Googleのこれまでのシステムでは「名所」が旅行の検索クエリなどでよく使われる言葉であるため、情報を探すクエリだと理解する。しかしMUMはこれをシドニーで身投げをする場所を探している人に関連するクエリであると理解し、危険な状態にある人の検索かもしれないと判断する。そして自殺相談ホットラインなど行動に結びつく情報を表示する。もう1つ、MUMの向上が見られる自殺に関するクエリとしては「自殺の最も一般的な方法」がある。これも、これまでは情報を探す検索としか理解されなかった。

MUMによって、人間にとっては文脈が明らかでも機械にとっては必ずしもそうではない長い検索クエリもこれまでより理解できるようになる。例えば「私が彼を愛していないというと彼が攻撃してくるのはなぜ」のようなクエリはDVを暗示している。しかし、自然言語で長文のクエリは、高度なAIを使用しないGoogleのシステムでは難しかった。

さらにGoogleは、MUMはそのナレッジをトレーニングしている75言語に移行でき、このようなAIの進化を世界中のユーザーに迅速に拡大できることにも言及した。つまり、前述したような個人の危機に関する検索に対し、現地のホットラインなど信頼できるパートナーの情報を多くの利用者に表示できるようになる。

MUMがGoogle検索に利用されるのはこれが初めてではない。これまでに新型コロナウイルスワクチンの情報に関する検索を向上させるために利用したと同社は述べている。Googleによれば、今後数カ月でスパム保護機能にMUMを使い、トレーニングデータの少ない言語にも拡大していくという。MUMの向上は他にも今後展開される。

AIテクノロジーによって、検索結果から露骨なコンテンツをフィルタリングする機能も向上する。Googleのセーフサーチのフィルタリングをオフにしても、Googleはわいせつなコンテンツを見つけることが目的ではない検索から好ましくない露骨なコンテンツを減らそうと試みている。そしてユーザーが世界中で何億回も検索をする中で、アルゴリズムによって性能が向上している。

現在はBERTと呼ばれるAIテクノロジーで、ユーザーが露骨なコンテンツを探しているのかどうかを判断できるようになってきている。Googleによれば、ウェブ検索と画像検索のクエリからランダムにサンプルをとり、性的な度合いが高い検索結果かどうかを検索品質評価者が判断して分析した結果、この1年間でBERTによって好ましくないショッキングな検索結果が30%減少したという。分析からは、女性、特に有色人種の女性に不当な影響を与えるとGoogleが述べている「人種、性的指向、ジェンダー」に関連する検索で、このテクノロジーが露骨なコンテンツを減らすのに特に有効だったこともわかった。

Googleは、今後数週間でMUMの進化したAIを検索に導入するとしている。

画像クレジット:Jaap Arriens/NurPhoto / Getty Images

原文へ

(文:Sarah Perez、翻訳:Kaori Koyama)

Zoom・Teams・TikTok対応、AIで自分の外観をDXできる「xpression camera」正式版リリース―1.5億円の資金調達も

Zoom・Teams・TikTok対応、AIで自分の外観をDXできる「xpression camera」正式版リリース―1.5億円の資金調達も

「学習し模倣するAI」を「想像し創造するAI」へ進化させることをミッションに掲げるテック企業EmbodyMe(エンボディーミー)は、ビデオ会議などで自分の映像を別のものに置き換えられる「xpression camera」(エクスプレッションカメラ)の正式版をリリースした。WindowsとMacに対応し、無料で使うことができる。アプリはこちらからダウンロードできる。

また同社は、FreakOut Shinsei Fund、DEEPCORE、キャナルベンチャーズ、山口キャピタルを引受先として、1億5000万円の資金調達を実施したことも発表した。

xpression cameraは、使いたい画像が1枚あれば、それをAIにより自分の外観と置き換えて、リアルタイムでコミュニケーションができるようになるというツール。Zoomのほかに、Teams、YouTube、TikTokなどあらゆるビデオアプリで利用できる。たとえばパジャマ姿でも、スーツを着た自分の画像に置き換えてリモート会議に参加するということが可能になる。自分だけでなく、顔として認証されるものなら、絵画や動物の写真を使うこともできる。

 

2020年9月からベータ版を提供していたが、AIのコアエンジンを一新してクオリティーを高め、バーチャル背景などの機能も追加した。映像の録画・読み込み・画像検索・バーチャル背景の編集が可能な有料版の「Pro Plan」もある。さらに、企業向けの「Enterprise Plan」の提供も予定しており、現在はパイロットプログラムへの参加企業を募集している。

EmbodyMeは、「最終的にはAIで目に見えるあらゆるものを誰もが自由自在に作り出せるツールになることを目標とし、今まで想像もできなかったようなまったく新しいメディア、業界をも創造していきます」と話している。

AI活用の水泳コーチングシステム「スマートスイミングレッスンシステム」を全国約100カ所のコナミスポーツクラブが導入へ

AI活用の水泳コーチングシステム「スマートスイミングレッスンシステム」を全国約100カ所のコナミスポーツクラブが導入へソニーネットワークコミュニケーションズは3月29日、映像とAIを活用したスイミングスクール向けコーチングシステム「スマートスイミングレッスンシステム」について、コナミスポーツが導入を決定したと発表した。4月1日より「運動塾デジタルノート」の名称で、コナミスポーツクラブの「運動塾スイミングスクール」で使われる。まずは東京の本店に導入し、2023年3月末までに全国約100店舗に順次導入してゆく。

スマートスイミングレッスンシステムは、撮影と動画編集、クラウドによる配信、コーチ用アプリケーションという技術で構成されている。撮影は、プールの水上と水中に設置した複数台のカメラで行われる。通常は、水面の揺れ、光の反射、屈折などにより難しいとされる泳ぐ人の画像認識と追従を独自開発のAIアルゴリズムで実現した。さらにAIは、複数の水面・水中映像から最適なものを選び出して自動編集を行い、動画コンテンツにまとめる。この映像は、プールサイドに設置したタブレットで自動再生されるため、プールから上がった生徒は、タブレットを操作することなく、すぐに見ることができる。コーチ用のアプリケーションは、レッスン中にも使いやすい画面デザインとなっていて、進級テストでは、動画とともに結果とコメントをまとめて個人用ページに配信できるようになっている。これは保護者の端末にも配信され、親子で共有できる。

ソニーのセンシング技術・AI活用の「スマートスイミングレッスンシステム」を全国約100カ所のコナミスポーツクラブが導入へこのシステムでは、レッスン前に個人ページに配信されるお手本動画での予習が可能であり、レッスン中はコーチがお手本動画を示しながら説明が行えるという特徴がある。自分の泳ぎの映像と合わせることで、生徒は自分の課題を視覚的に理解しやすく、自発的な行動が促されるという。また、上達を実感できるためモチベーションが向上し、積極的な学びにつながるとのことだ。

カメラは、防水対応を施したソニーの小型リモートカメラ(SRG-XP1)が使われている。水中カメラは約4kgという軽量の4Kカメラで、持ち運ぶことも可能。これまで特別な施設でなければ水中撮影は難しかったが、このシステムなら、どのスイミングスクールでも4Kの水中映像の撮影が可能になる。

スマートスイミングレッスンシステムは、2021年5月からルネサンスが運営するジュニアスイミングレッスンに導入され、現在約80店舗に展開されている。そこでは、生徒の意欲向上が見られるほか、コロナ禍で見学ができない保護者からはレッスンの様子が見られることが評価されている。スクール運営者やコーチにも支持されているそうだ。ソニーネットワークコミュニケーションズでは、指導ノウハウのデジタルコンテンツ化やレッスンの品質管理にも役に立つこのシステムを、スイミングスクールのDXを支援するソリューションとして広く展開してゆくと話している。

HarvestXが1.5億円調達、植物工場での実証実験に向け開発加速―実証結果踏まえた製品バージョンのベータリリースも計画

HarvestXが1.5億円調達、植物工場での実証実験に向け開発加速―実証結果踏まえた製品バージョンのベータリリースも計画

農業用ロボットを手がけるHarvestXは3月30日、総額1億5000万円の資金調達を実施したと発表した。引受先は、ANRI 4号投資事業有限責任組合(ANRI)、オープンイノベーション推進 1号投資事業有限責任組合(東京大学協創プラットフォーム。東大IPC)、DEEPCORE TOKYO 2号投資事業有限責任組合(ディープコア)。

レタスなどの葉物類の植物工場が展開を広げる一方、イチゴのような果実類の生産にはハチ・ハエを媒介とした虫媒受粉または人の手による授粉が必要で、収量の不安定さ、高コスト、ハチの短いサイクルでの使い捨てが課題となっているという。そこでHarvestXは、ハチに代わるロボットを活用した授粉技術の開発に取り組み、世界で初めてロボットによるイチゴの授粉の実証に成功した。社内の研究施設「HarvestX Lab」内で実証試験機「XV-1」「XV-2」による授粉の実証実験を実施しており、ハチや人間を超える精度での授粉を行えるそうだ。

また現在は、HarvestX Labに植物工場と同等の栽培設備を導入し、植物工場事業会社での授粉ロボットおよびソフトウェアシステムの実証実験に向けたプロトタイプの開発を進めているという。

調達した資金により、パートナーである植物工場事業会社との実証実験に向けたハードウェア・ソフトウェアの開発、および実際の植物工場での実証実験を通じてオペレーションの検証やさらなる授粉精度の向上を進める。さらに、その実証実験の結果を踏まえた製品バージョンのベータリリースを計画している。

さらに、日本初の取り組みとして徳山工業高等専門学校提携。高専内に事業所を開設し、授粉・収穫用ロボットの共同研究を行う。

Otter.aiがAIによる新しい会議サマリー機能とコラボツールの提供を開始

AIを活用した音声採録サービスOtter.ai(オッターエーアイ)は、コラボレーションを促進するための会議に特化した新機能群をリリースすると、米国時間3月29日に発表した。最も注目すべきは、Otter独自のAIを利用して会議の概要を自動的に作成する「Automatic Outline(自動アウトライン)」機能を新たに追加することだ。この新機能は、録音を聞いたり、議事録全体を読んだりすることなく、会議中に同僚が何を話したかを把握できるようにすることを目的としている。新しい会議サマリーは、プラットフォーム上の「Outline(アウトライン)」パネルに表示される。

また、Otter.aiは、会議のアクションアイテム、決定事項、重要な瞬間を記録するための新しい「Meeting Gems(ミーティング・ジェム)」パネルも導入している。このパネルを使って、項目の割り当て、コメントの追加、質問などを行うことができる。ユーザーは、ノート内の断片をハイライトすることで、ミーティングから直接Meeting Gemsを生成することができる。

また、Otter Assistant(オッター・アシスタント)を使って、バーチャルミーティング中に提示されたミーティングスライドやその他の画像をOtterノートに直接追加することもできるようになった。また、ホームフィードでは、会議と会議後の行動を優先的に表示するようになった。再設計されたホームフィードを使用して、共有された会話、ハイライトとコメント、タグ付けされたアクションアイテムにアクセスすることができる。最後に、Google(グーグル)やMicrosoft Outlook(マイクロソフト・アウトルック)のカレンダーをOtterに接続しているユーザーは、カレンダーパネルから直接ミーティングに参加できるようになった。

「私たちは、会議であまりにも多くの時間を費やしており、私は会議をより生産的にするためのAIの力に本当に興奮しています」と、Otter.aiの共同創設者兼CEOであるSam Liang(サム・リャン)氏は、声明の中で述べている。「新しいOtterは、会議のコラボレーションをより簡単かつ迅速にします。今日のハイブリッド、対面、バーチャル会議でのコミュニケーションを改善したいビジネスチームにとって、必須のツールになります」。

この新機能は、2021年8月に同サービスが発表した「Otter Assistant」機能をベースにしており、カレンダー上の会議に自動的に参加し、会話を書き起こし、そのメモを他の参加者と共有することができる。このアシスタント機能は、会議の開始時に有効にしたり、終了時に無効にしたりすることを常に覚えておく必要がないように設計されており、また、会議の進行中に参加者が質問や写真の共有など、コラボレーションを行う場所としても機能する。

アシスタントは、まずZoomで開始され、その後Microsoft Teams(マイクロソフト・チーム)、Google Meet(グーグル・ミート)、Cisco Webex(シスコ・ウェベックス)に拡大された。このツールを使用するには、ユーザーは自分のカレンダーを同サービスと同期させる必要がある。その後、アシスタントは自動的に今後のすべての会議に参加し、透明性を高めるために、別の参加者として会議に表示されるようになる。

画像クレジット:Otter.ai

原文へ

(文:Aisha Malik、翻訳:Yuta Kaminishi)

カーネギーメロン大学発先進「触覚センシング技術」の社会実装を推進するFingerVisionが1億円のシード調達

カーネギーメロン大学発「触覚センシング技術」の社会実装を推進するFingerVisionが1億円のシード調達

FingerVisionは3月23日、シードラウンドとして、第三者割当増資による総額1億円の資金調達を実施したと発表した。引受先は、慶應イノベーション・イニシアティブ(KII2号投資事業有限責任組合)。大学発の「視触覚」技術の実用化を通じロボット・機械の適用範囲を広げ、様々な社会課題を解決することを目指しており、調達した資金により経営・開発体制を強化し、触覚センシングデバイスやロボットハンド、業界向けソリューションを実用化するという。

今後、様々な分野においてロボット化・AI化の流れがさらに加速すると予想されるものの、「触覚」の⽋如が実世界におけるロボット・機械の適⽤範囲を限定されているという。そこでFingerVisionは、同社の触覚技術でロボットの⾏動⽣成能⼒を向上させることで、⼈⼿をかけて対応せざるを得なかったタスク(特に過酷・劣悪な労働環境、危険な作業など)をロボットが担えるようにする。

同社は、ロボットの活⽤範囲を広げることについて、社会システムにおける人の役割・ロボットの役割を再定義することにつながると指摘。より良い社会のあり方を実現するための具体的な解決策の1つとして、革新的かつ実用性の高い触覚技術・ロボット技術を提示し続けるとしている。

FingerVisionは、コア技術のコンセプトとして「画像(カメラ)をベースに触覚を再現する」を採用。ロボットハンドなどの指先に搭載することで、触覚(力や滑りの分布など)を知覚できるようになり、あたかも人が「手のひら」の感覚を使って物体を扱うような制御をロボットで実現できるという。

この技術は、カーネギーメロン大学において、同社取締役の⼭⼝明彦氏がロボットAIやAIベースドロボットマニピュレーションの研究を進める中で、食品など従来のロボットが扱うことが難しかった対象物を操作する研究の過程で、Christopher Atkeson教授とともに生み出したものがベースという。基礎的なアルゴリズムなどを研究をしつつ、実用性も強く意識し研究を進めた経緯から、高機能(高分解能・マルチモダリティ)でありながら、経済性に優れる実用性の高さを特徴とするそうだ。

「触覚」センサーとはいいつつも把持対象物を見る(視覚)モダリティも備えた、まったく新しいコンセプトの「視触覚センサー」であり、ロボットと組み合わせたプロセス自動化だけでなく、無限の応用可能性を持つとしている。
カーネギーメロン大学発先進「触覚センシング技術」の社会実装を推進するFingerVisionが1億円のシード調達

NVIDIAが高性能AIを医療の現場にもたらす、AI搭載の医療機器開発プラットフォーム「Clara Holoscan MGX」を発表

高性能な画像処理装置(GPU)で知られるNVIDIA(エヌビディア)は今週、AI搭載の医療機器を開発するためのプラットフォームをデビューさせた。Clara Holoscan MGX(クララ・ホロスキャンMGX)と呼ばれるこのデバイスは、そのコンピューティングパワーにより、医療用センサーが複数のデータストリームを並行して処理し、AIアルゴリズムを訓練し、生物学をリアルタイムで視覚化することを可能にする。

NVIDIAの2022年GTCカンファレンスでデビューしたClara Holoscan MGXは、Jensen Huang(ジェン・スン・フアン)CEOが基調講演で述べたように「オープンでスケーラブルなロボティクスプラットフォーム」であり、ロボットの医療機器やセンサーをAIアプリケーションとつなぐために設計されたハードウェアとソフトウェアのスタックだ。

どう機能するのか。内視鏡検査のプロセスを例にとる。通常、医師は体の中に小さなカメラを挿入し、内部を観察する。Clara Holoscan MGXはカメラに直接接続され、収集したデータをリアルタイムに処理する。データはAIモデルに送られ、異常を検出し、解剖学的な分析を経て、外科医が治療計画に役立てる(断っておくが、これらのAIモデルはNVIDIAが作るのではなく、同社のハードウェア上で動くだけだ)。

NVIDIAはすでにGPUでよく知られており、そのGPUは特に並列計算を高速に実行することに優れている。GPUはかつてゲーマーに最もよく知られていたが、今やディープニューラルネットワークのトレーニングに関心を持つあらゆる業界にとって重要なアクセラレータになった。ディープニューラルネットワークは、例えばX線の読み取りを学習する際に、何十億ものデータポイントをすばやく計算する必要がある。そして、得られたモデルをリアルタイムで使用するためにも、多くの計算が求められる。このプラットフォームは、そうした用途を念頭に置いている。

NVIDIAはAI分野の支配的なプレイヤーとなった。上記のようなプロジェクトの多くに必要な生の計算能力を提供し、業界に特化したハードウェアとソフトウェアの組み合わせで、それを実現してきたからだ。例えば同社は、自動運転車の訓練と開発のためのプラットフォームであるNVIDIA Driveなどの自動運転車の分野のプロジェクトで積極的に動いている。

NVIDIAは、すでにヘルスケア領域への進出を果たした。2018年に初めて発表されたClaraプラットフォームは当初、スムーズな医療画像体験を実現するために設計された。このプラットフォームは年々拡張されてきたが、今回のClara Holoscan MGXプラットフォームは、基本的にはワンストップショップになることが目的だ。

NVIDIAのヘルスケア担当副社長Kimberly Powell(キンバリー・パウエル)氏はTechCrunchに対し、Clara Holoscanは「完全なエンド・ツー・エンドプラットフォームです。医療機器にとってのNVIDIA Clara Holoscanは、自動運転車にとってのNVIDIA Driveと同じ関係です」と語った。

Clara Holoscanの中核となる革新的な技術は2つあるとパウエル氏はいう。まず、医療用ソフトウェアを安全に開発するためのベンチマークプロセスであるIEC 62304規格に準拠した設計になっていること。そして、フアン氏が「非常識」と呼ぶほどのコンピューティングパワーを搭載していることだ。

この組み合わせにより、AIを搭載した医療機器の開発やトレーニングを検討している企業は、より迅速に前進することができるはずだ。

画像クレジット:NVIDIA

「Clara Holoscanのアーキテクチャは、新しい医療機器や『医療機器としてのソフトウェア』を市場に投入するために必要なエンジニアリング投資を大幅に削減します」とパウエル氏は話す。

NVIDIAが売り込んでいること、つまりデバイスとAIの組み合わせを実現しようとしている企業はすでに多数存在する。例えばスタートアップのActiv Surgicalは、AI支援型手術用スコープ(製品名:ActivSight)にNVIDIAのGPUを使用しており、スコープのデータから情報を得るAIアプリケーションをさらに充実させようとしている。そのために、同社はNVIDIAのInceptionプログラムに入り、Clara AGX Developer Kitに早期にアクセスできるようになった。プレスリリースを読む限り、そのキットは、NVIDIAの技術が製品開発を加速させるというパウエル氏の主張を象徴している。

「ActivSightを含め、将来、Activ Surgicalの製品を今後2年以内に市場に出すために、この開発者キットが全体の開発期間を短縮することにもなります」とActiv Surgicalのプレスリリースには書かれている。

現時点では、Clara Holoscanの全能力を利用することはできない。基調講演でフアン氏は、医療グレードの技術が早期利用できるようになるのは2023年第1四半期だと述べた。その時点で、ハードウェアの価格がNVIDIAのODMパートナーによって設定されて初めて、ソフトウェアの価格が「判明する」とパウエル氏は付け加えた(その情報はここに登場するようだ)。

今のところ、Clara Holoscan MGXの発売は、AIヘルスケア分野におけるNVIDIAのすでに確固たる足場をさらに強化するように思われる。基本的に、同社はそのプラットフォームの下にある計算の岩盤を構築しているのだ。

そして、それは良い分野だ。スタンフォード大学の「2022 AI Index」レポートによると、2021年のAIへの民間投資の2大領域は、上記2つの交わるところだった。データ管理・処理・クラウドコンピューティングに122億ドル(約1兆4830億円)、医療・ヘルスケアツールに112億9000万ドル(約1兆3720億円)が投資された。

画像クレジット:NVIDIA

原文へ

(文:Emma Betuel、翻訳:Nariko Mizoguchi

マイクロソフトがZ-Codeを使ってAI翻訳サービスを改善

Microsoft(マイクロソフト)は米国時間3月22日、同社の翻訳サービスを改訂したことを発表した。新しい機械学習技法によって、多数の言語間における翻訳が著しく改善されるという。「spare Mixture of Expert(Mixture of Expertを出し惜しみする)」アプローチを使用するという同社のProject Z-Code(プロジェクト・ズィー・コード)を基盤とする新モデルは、盲検法評価で同社の以前のモデルより3~15%高いスコアを記録した。Z-CodeはMicrosoftのXYZ-Codeイニシアチブの一環で、複数の言語を横断してテキスト、視覚、音声を組み合わせることによって、これまで以上に強力で有効なAIシステムを作る。

「Mixture of Experts」はまったく新しい技法というわけではないが、翻訳の場面では特に有効だ。システムはまず、タスクを複数のサブタスクに分割し、それぞれを「expert(エキスパート)」と呼ばれるより小さい特化したモデルに委譲する。次に、どのタスクをどのexpertに委譲するかを、独自の予測に基づいてモデルが決定する。ごく簡単にいうなら、Mixture of Expertsは複数のより特化されたモデルを内包するモデルと考えることができる。

画像クレジット:Microsoft

「Z-Codeを使うことで、驚くほどの進展が見られました。それは、単一言語と複数言語のデータに対して転移学習(transfer learning)とマルチタスク学習の両方を使って最先端の言語モデルを作ることができたからです。これで品質と性能と効率性の最善の組み合わせを顧客に届けることができます」とMicrosoftのテクニカルフェロー兼Azure(アジュール)AI最高技術責任者のXuedong Huang(シュードゥン・ホァン)氏はいう。

この結果、例えば、10種類の言語間で直接翻訳することが可能になり、複数のシステムを使う必要がなくなる。すでにMicrosoftは固有表現抽出、文章要約、カスタム文章分類、キーワード抽出など、同社AIシステムの他の機能の改善にZ-Codeモデルを使い始めている。しかし、翻訳サービスにこのアプローチを利用したのはこれが初めてだ。

翻訳モデルは伝統的に著しく巨大で、製品環境に持ち込むことは困難だった。しかしMicrosoftのチームはsparse(スパース)アプローチを採用し、タスクごとにシステム全体を動かす代わりに、少数のモデルパラメータのみを起動する方法を選んだ。「これによって大幅にコスト効率よく実行できるようになります。家の暖房を1日中全開されるのではなく、必要な部屋を必要な時だけ暖めるほうが安くて効率がよいのと同じことです」とチームがこの日の発表で説明した。

画像クレジット:Keystone/Getty Images / Getty Images

原文へ

(文:Frederic Lardinois、翻訳:Nob Takahashi / facebook

次世代型mRNA創薬の実用化に向けた名古屋大学発スタートアップCrafton Biotechnology設立

次世代型mRNA創薬の実用化に向けた名古屋大学発スタートアップCrafton Biotechnology設立

名古屋大学は3月18日、メッセンジャーRNA(mRNA)の製造、分子設計・医学に関する知見、AI、データサイエンス、シンセティックバイオロジー(合成生物学)などの最先端技術を融合し、次世代型mRNA創薬を目指す名古屋大学発スタートアップCrafton Biotechnology(クラフトンバイオロジー)を3月1日に設立したと発表した。国産mRNAワクチンの速やかな供給をはじめ、がんや遺伝子病の治療、再生医療にも応用されるmRNA創薬に取り組むという。

Crafton Biotechnologyは、名古屋大学、京都府立医科大学、早稲田大学、理化学研究所、横浜市立大学の共同研究を実用化することを目的に設立された。10年以上にわたりmRNAワクチンと医薬品の開発に取り組んできた名古屋大学大学院理学研究科の阿部洋教授と京都府立医科大学大学院医学研究科医系化学の内田智士准教授らが、AI、データサイエンスを専門とする早稲田大学の浜田道昭教授、シンセティックバイオロジーを専門とし進化分子工学の手法を採り入れた次世代mRNAの製造法と設計法を開発する理化学研究所の清水義宏チームリーダー、さらに、副反応の少ないmRNAワクチンの開発を進める京都府立医科大学大学院医学研究科麻酔科学の佐和貞治教授と横浜市立大学眼科学の柳靖雄教授らが連携し、「強固なベンチャーエコシステム」を構築するという。そのとりまとめを行うのが、代表取締役を務める名古屋大学大学院理学研究科の金承鶴特任教授。そのほか、安倍洋教授が最高科学責任者、内田智士准教授が最高医療責任者に就任した。名古屋大学インキュベーション施設に拠点を置き、各研究機関の技術をライセンス化して一元的に集約。mRNA技術の事業基盤を確立し開発を促進する。

同社は数年以内に国内でmRNAを製造できる体制を整備し、安定供給を目指す。また独自の創薬技術を整備して、新型コロナウイルスに限らず、感染症のパンデミック時に独自開発したmRNAワクチンの迅速な供給を可能にすると話す。また、治療技術の海外依存度が大変に高くなっている現在、医薬品産業における日本の国際競争力を高める上で非常に重要な「ワクチンを超えた医薬品としてのmRNAの応用」として、がんや遺伝性疾患、再生医療への応用にも取り組むとしている。

マスク氏、テスラ事業を「極限サイズ」まで拡大する計画を明かす

Elon Musk(イーロン・マスク)氏は、Tesla(テスラ)初の欧州工場の開所を翌日に控えた現地時間3月21日、Twitterで同社の「マスタープラン・パート3」の発表を予告し、同社の事業を「極限」まで拡張する計画を示唆した。

マスク氏は同日、同社の長期計画の次の内容を支えるテーマ、すなわち人工知能と自動車メーカーの事業規模の拡大をTwitterで明らかにした。

「Teslaの主なテーマは、人類を化石燃料から解放するために必要な極限規模への拡大とAIです」とマスク氏はツイートした。「しかし、SpaceX(スペースエックス)、Tesla、The Boring Company(ザ・ボーリング・カンパニー)に関する項目も盛り込む予定です」。

この計画は、Teslaにとって「極限サイズ」がどのようなものかを詳述し、世界的なパンデミックとサプライチェーン逼迫の中で製造とサプライチェーンを拡大するための同社の戦略を概説する可能性がある。

同社は3月22日に欧州初の工場を開設し、そこで生産された初の量産車を引き渡す予定だ。50億ドル(約5970億円)を投じて建設したベルリンの工場では、欧州最大の自動車メーカーVolkswage(フォルクスワーゲン)と同社の1000億ドル(約11兆9500億円)ものEV投資に対抗するために、年50万台超の電気自動車を生産する予定だ。

Teslaは先週、中国のオミクロン新規感染者数の増加とサプライチェーンの制約を受けて、24時間稼動の上海ギガファクトリーを2日間閉鎖した。同工場は1日あたり約2000台を生産し、相当数のModel 3とModel Yを欧州に輸出している。

「マスタープラン」の第1章と第2章は、同社の製品と技術の開発に関する正確なロードマップであることが証明された。第1章は「The Secret Tesla Motors Master Plan(秘密のTesla Motors マスタープラン」と題した2006年のブログ投稿でTeslaの概念実証の概要を示した。

その10年後、「パート2」として更新されたマスク氏のマスタープランは、バッテリーストレージの開発、バッテリー電動ピックアップトラックとSUVを含む新モデルの発売の計画についてだった。第2章が終わりに近づいた今、マスクはTwitterでテスラの次の章を予告し始めた。

また、マスタープランがマスク氏の各会社に焦点を当てるのは今回が初めてで、同氏が親会社を作ってすべての会社を1つ屋根の下に置くつもりではないかとの憶測を呼んでいる。しかし、ツイートでのSpaceとThe Boring Companyへの言及は、将来における両社のコラボレーションを暗示している可能性もある。

画像クレジット:ROBYN BECK/AFP / Getty Images

原文へ

(文:Jaclyn Trop、翻訳:Nariko Mizoguchi

不正経費自動検知クラウドStena Expense、飲食店の相場価格から会議費・交際費の異常利用を検知するAI機能を追加

不正経費自動検知クラウドStena Expense、飲食店の相場価格から会議費・交際費の異常利用を検知するAI機能を追加

AI活用検知クラウドやサイバーセキュリティ技術を開発・提供するChillStackは3月15日、個人立替領域の不正経費自動検知クラウド「Stena Expense」(ステナエクスペンス)において、飲食店で会議費・交際費として使用された経費が一般的な相場金額から大きく逸脱していないかを判定・抽出する新機能の実装と提供開始を発表した。

今回の新機能では、外部APIとの連携により、飲食店で使用された経費(交際費・会議費に該当する明細)が、該当店舗の1人あたりの相場金額から大きく逸脱していないかを同社独自AIで識別・抽出する。飲食店データベースと連携したStena独自のAI識別エンジンが飲食店データベースを照合して金額の妥当性を判断するという。

不正経費自動検知クラウドStena Expense、飲食店の相場価格から会議費・交際費の異常利用を検知するAI機能を追加

Stena Expenseは、企業における個人立替経費の申請・承認データを元に、AIが自動的に不正や不適切な経費利用を検知する。経費の重複申請や交通費の水増しといった不正検出に加えて、個々の従業員の申請履歴を踏まえて判断することで、「特定個人との多頻度利用」や「特定店舗での多頻度利用」といった不適切もしくは異常と推察される経費利用も検出できる。AI技術を活用することで、人の目では不可能な時系列的・網羅的に経費申請というビッグデータの解析を行い、間接部門の生産性とガバナンス向上を実現する。

主な特徴

  • 経費の承認・チェック業務の負担を増やすことなく、全データの網羅的かつ時系列での精査が可能
  • 申請履歴・傾向を踏まえたチェックにより、経費利用の妥当性確認が可能
  • 不正・不適切・異常の根拠が表示されるため、原因・理由が明瞭
  • 経理部門・業務部門のどちらも使える分かりやすいウェブUI

2018年11月設立のChillStackは、「AIで守り、AIを守る」というビジョンを掲げ、AIで進化させたサイバーセキュリティ技術、AI自身を守るセキュリティなどの技術開発・提供を行っている。Stena Expenseをはじめ、AI技術を活用した不正検知システム「Stena」シリーズを展開している。

農作物の生育状態を高速・定量的に測定するフェノタイピング用ローバー開発、設計などをオープンソースとして公開

農作物の生育状態を高速に定量的に測定するフェノタイピング用ローバー開発、設計とソフトをオープンソースとして公開

東京大学などによる研究グループは3月10日、植物の形態的、生理的な性質(表現型:フェノタイプ)を観測する自走式装置「高速フェノタイピングローバー」を開発し、その設計をオープンソース・ハードウェアとして公開したと発表した。

近年、地球規模の気候変動や有機農法の拡大などを受け、作物の品種や栽培方法を改良するニーズが増えているという。そのためには、まず農作物などの植物の生育状態を精密・大量に測定する表現型測定(フェノタイピング)が必要となるのだが、これまで人の手と目で行われており、大変に非効率なために、IT技術を活用した効率化が求められてきた。

またすでに、ドローンや大型クレーンを使って作物を撮影し測定を行うシステムは存在するものの、一般に広い農場を対象としており、日本の畑のように狭い場所での導入は難しい。そこで、東京大学大学院農学生命科学研究科附属生態調和農学機構(郭威特任准教授)、京都大学チューリッヒ大学横浜市立大学による共同研究グループは、場所や条件を選ばずに導入できる地上走行型のローバーを開発した。

この「高速フェノタイピングローバー」は、四輪で走行しながら大量の写真を撮影する。その画像を解析することで、さまざまな表現型を取得でき、応用目的は多岐にわたるという。地上の近距離から撮影するため、ドローンの画像よりも細部まで確認できる。また、ドローンの風圧で果実が落下したり、植物があおられてしまうといった心配もない。ただ、起伏が激しい場所や水田などではドローンのほうが優れているため、このシステムとドローンを組み合わせてデータの質を最大化するのがよいとしている。

また、リアルタイムで画像処理ができる小型コンピューターを搭載し、地上に設置した目印を頼りに畝に沿って移動できる走行アシスト機能も備わっているため、GPSに依存しない。建物に隣接していたり、電波が妨げられる場所でも問題なく使える。

試験運用で撮影した画像から、小麦の出穂の様子を測定

試験運用で撮影した画像から、小麦の出穂の様子を測定

研究グループは、京都大学の小麦の圃場で実験を行ったところ、多数の系統の生育状態を撮影し、深層学習モデルで画像を解析して、小麦が出穂する様子の定量的な測定に成功した。また、日本の畑でよく見られる、道路から水路などをまたいで畑に入るための持ち運び式のスロープでの移動が可能であることも確認できた。

開発した高速フェノタイピングローバーの3D図面。自由に回転や拡大、改変できるデータファイルを論文で公開した

開発した高速フェノタイピングローバーの3D図面。自由に回転や拡大、改変できるデータファイルを論文で公開した

この「高速フェノタイピングローバー」は、様々な条件や用途に合わせて組み立てたり改良したりできるように、市販のパーツのみで作られていて、3D図面、パーツリスト、ソフトウェアなどは論文中においてオープンソース・ハードウェアとして公開されている(GitHub)。

放射線治療で必要な臓器の自動認識と輪郭作成をAIで高精度に高効率に行うシステムを開発

放射線治療で必要な臓器の自動認識・輪郭作成をAIで高精度に高効率に行うシステムを開発

広島大学は3月11日、放射線治療で欠かせない腫瘍や臓器の輪郭作成を、AIで自動的に高精度に行うシステム「Step-wise net」を開発したと発表した。CTやMRIの画像から臓器の輪郭を自動的に抽出し、輪郭作成を行うというものだ。従来の方式に比べて、精度が「著しく向上」したという。

放射線治療では、臓器ごとに線量分布を評価できるように、CTやMRIの医療画像上で腫瘍の領域や正常な臓器の輪郭を作成する。臨床試験では、この輪郭作成は統一したルールの下で行われなければいけない。そのためにも、自動輪郭作成ツールの需要が高まっている。そこで広島大学学大学院医系科学研究科(河原大輔助教、小澤修一特任准教授、永田靖教授)と日本臨床腫瘍研究グループ(JCOG。西尾禎治教授)からなる研究グループは、従来の深層学習を用いた輪郭作成技術を発展させた「Step-wise net」を開発した。

このシステムは、輪郭作成の対象となる臓器周辺域の抽出と、抽出した領域内での臓器の高精度な輪郭作成という2段構えになっている。研究グループは、これを用いて頭頸部の輪郭作成精度の評価を行った。その結果、すべての臓器において、画像変形技術を用いた非AIの市販ツール「Atlas」法よりも精度が高かった。さらに、従来のAI技術である「U-net」と比較しても、すべての臓器において「Step-wise net」の精度が高い結果となった。

ツール別の輪郭作成の結果。黄色が正解、緑線がツールが描いた輪郭。(a)Atlas、(b)U-net、(c)Step-wise-net。

自動輪郭作成が可能になれば、輪郭作成時間は従来の1/10にまで短縮予定で、臨床業務が改善されるという。また、手動で輪郭を描き出す方式とは異なり、施設ごとの差がなく、均質な輪郭が取得できるため、この自動輪郭作成ツールの活用が期待されるとのことだ。

Strong Computeは機械学習モデルのトレーニングを「100倍以上高速化」できると主張する

ニューラルネットワークのトレーニングには、市場で最も高速で高価なアクセラレータを使ってさえも、多大な時間がかかる。だから、多くのスタートアップ企業が、ソフトウェアレベルでプロセスを高速化し、学習プロセスにおける現在のボトルネックをいくつか取り除く方法を検討していることも、不思議ではないだろう。オーストラリアのシドニーに拠点を置くスタートアップで、最近Y Combinator(Yコンビネーター)の22年冬クラスに選抜されたStrong Compute(ストロング・コンピュート)は、学習プロセスにおけるこのような非効率性を取り除くことによって、学習プロセスを100倍以上高速化することができると主張している。

「PyTorch(パイトーチ)は美しいし、TensorFlow(テンソルフロー)もそうです。これらのツールキットはすばらしいものですが、そのシンプルさ、そして実装の容易さは、内部において非効率的であるという代償をもたらします」と、Strong ComputeのCEO兼創設者であるBen Sand(ベン・サンド)氏は語る。同氏は以前、AR企業のMeta(メタ)を共同設立した人物だ。もちろん、Facebook(フェイスブック)がその名前を使う前のことである。

一方では、モデル自体を最適化することに注力する企業もあり、Strong Computeも顧客から要望があればそれを行うが、これは「妥協を生む可能性がある」とサンド氏は指摘する。代わりに同氏のチームが重視するのは、モデルの周辺にあるものすべてだ。それは長い時間をかけたデータパイプラインだったり、学習開始前に多くの値を事前計算しておくことだったりする。サンド氏は、同社がデータ拡張のためによく使われるライブラリのいくつかを最適化したことも指摘した。

また、Strong Computeは最近、元Cisco(シスコ)のプリンシパルエンジニアだったRichard Pruss(リチャード・プルス)氏を雇用し、すぐに多くの遅延が発生してしまう学習パイプラインのネットワークボトルネックを除去することに力を注いでいる。もちろん、ハードウェアによって大きく違うので、同社は顧客と協力して、適切なプラットフォームでモデルを実行できるようにもしている。

「Strong Computeは、当社のコアアルゴリズムの訓練を30時間から5分に短縮し、数百テラバイトのデータを訓練しました」と、オンライン顧客向けにカスタム服の作成を専門とするMTailor(Mテイラー)のMiles Penn(マイルス・ペン)CEOは語っている。「ディープラーニングエンジニアは、おそらくこの地球上で最も貴重なリソースです。Strong Computeのおかげで、当社の生産性を10倍以上に向上させることができました。イテレーション(繰り返し)とエクスペリメンテーション(実験)の時間はMLの生産性にとって最も重要な手段であり、私たちはStrong Computeがいなかったらどうしようもありませんでした」。

サンド氏は、大手クラウドプロバイダーのビジネスモデルでは、人々ができるだけ長くマシンを使用することに依存しているため、彼の会社のようなことをする動機は一切ないと主張しており、Y Combinatorのマネージングディレクターを務めるMichael Seibel(マイケル・サイベル)氏も、この意見に同意している。「Strong Computeの狙いは、クラウドコンピューティングにおける深刻な動機の不均衡です。より早く結果を出すことは、クライアントから評価されても、プロバイダーにとっては利益が減ることになってしまうのです」と、サイベル氏は述べている。

Strong Computeのベン・サンド氏(左)とリチャード・プルス氏(右)

Strong Computeのチームは現在、依然として顧客に最高のサービスを提供しているが、その最適化を統合してもワークフローはあまり変わらないので、開発者はそれほど大きな違いを感じないはずだ。Strong Computeの公約は「開発サイクルを10倍にする」ことであり、将来的には、できる限り多くのプロセスを自動化したいと考えている。

「AI企業は、自社のコアIPと価値がある、顧客、データ、コアアルゴリズムに集中することができ、設定や運用の作業はすべてStrong Computeに任せることができます」と、サンド氏は語る。「これにより、成功に必要な迅速なイテレーションが可能になるだけでなく、確実に開発者が企業にとって付加価値のある仕事だけに集中できるようになります。現在、開発者は複雑なシステム管理作業のML Opsに、最大で作業時間の3分の2も費やしています。これはAI企業では一般的なことですが、開発者にとって専門外であることが多く、社内で行うのは合理的ではありません」。

おまけ:下掲の動画は、TechCrunchのLucas Matney(ルーカス・マトニー)が、サンド氏の以前の会社が開発したMeta 2 ARヘッドセットを2016年に試した時のもの。

画像クレジット:Viaframe / Getty Images

原文へ

(文:Frederic Lardinois、翻訳:Hirokazu Kusakabe)

エクサウィザーズと日本製鉄、ロボットAIソリューションで熟練作業の効率的な技能伝承を目指すデータ解析基盤を検証

エクサウィザーズと日本製鉄、ロボットAIソリューションで熟練作業の効率的な技能伝承を目指すデータ解析基盤を構築・検証

AIを活用したサービスで産業革新と社会課題の解決を目指すAIスタートアップ「エクサウィザーズ」は3月9日、マルチモーダルなロボットAIソリューション「exaBase ロボティクス」を使い、重機操業の作業状況を可視化し、熟練作業の効率的な技能伝承を可能にするデータ解析基盤を構築。2022年2月から、日本製鉄の東日本製鉄君津地区にて検証を行っている。

製鉄所では、鉄を融解した際に発生する副産物であるスラグを分離する作業が必要になる。スラグは1000度を超える高温溶融物であるため、作業員は遠隔で重機を操作し、変化するスラグの状態を見ながら、知識と経験を活かして作業を行う。だが、その技能やノウハウは形式知化することが難しいため、技術の伝承が困難になっている。そこで、エクサウィザーズと日本製鉄は、スラグ分離作業における重機操作をデジタル化するプロジェクトを進め、その一環として、exaBase ロボティクスを使った熟練作業の技能伝承のためのデータ解析基盤を構築し、検証を行うことにした。

その結果、これまでデジタル化ができなかった様々なデータの可視化と熟練要素の解析を実現し、勤続10年以上の作業員の操作技術を明確にすることができた。同時に、熟練作業員と同じ操作を新人作業員でも行えるようAIが指導するソフトウェアを導入。作業の効率化と均質化が期待されるという。

データ解析と可視化は、センサーデータ、動画データ、操業情報について行われた。センサデータは、重機の操作位置や速度に関する情報だが、制御板の操作情報なども含め、リアルタイムに取得したデータから作業傾向を解析した。動画データは、操業エリアに設置したカメラで撮影したスラグ分離作業の様子や溶融物の状態だが、これを用いてスラグ分離状況を解析した。

そして、処理日時や作業者情報などの操業情報から、作業員と対象作業の難度を紐付け、総合的な解析を行った。

exaBase ロボティクスは、様々な種類の(マルチモーダルな)データを活用して、工程の自動化や最適化を行うロボットAIソリューション。重機を操作する熟練者の動作の再現も、その得意分野の1つだ。

画像クレジット:
Ant Rozetsky on Unsplash

4000年かかるヒト遺伝子の網羅的探索を富岳と「発見するAI」利用し1日で完了、肺がん治療薬と耐性の因果メカニズム抽出

富岳と「発見するAI」利用し4000年かかるヒトの遺伝子の網羅的探索を1日で完了、肺がん治療薬と耐性の因果メカニズムを抽出

東京医科歯科大学富士通の研究グループは3月7日、スーパーコンピューター「富岳」と、富士通が開発した「発見するAI」を用いて、肺がん治療薬の耐性の原因と思われる遺伝子の、新たな因果メカニズムの抽出に成功したと発表した。これは、2万変数ものデータを1日以内で超高速計算し、1000兆通りの可能性から未知の因果を発見できる技術の開発によるもの。

がんの原因となる分子だけに作用する「分子標的薬」は、投与を続けると、それに対する耐性を持つがん細胞が増殖し再発するという課題があり、そのメカニズムを解明するには、精緻なデータと解析技術が不可欠となる。また、薬の臨床治験では、効果が期待できる患者を選ぶ必要があるが、個人の遺伝子やその発現量により薬剤効果が異なり、遺伝子の発現量の組み合わせパターンは1000兆通りを超える。がんに関係することが判明している主な50個の遺伝子の組み合わせに限定し、各遺伝子の発現量を2分類(遺伝子の発現の「高い」「低い」など)とした場合でも、条件数は2の50乗となり、1000兆通り以上となるそうだ。

そのため、効率的な探索技術が求められており、その有力な候補となるのが富士通が開発した「発見するAI」だ。これは、判断根拠を説明でき、知識発見が可能なAI技術「ワイドラーニング」(Wide Learning)を用いて、特徴的な因果関係を持つ条件を網羅的に抽出する技術なのだが、2万個あるとされるヒトの全遺伝子を網羅的に探索しようとすると、通常の計算機では4000年以上かってしまう。

そこで研究グループは、富岳に条件探索と因果探索を行うアルゴリズムを並列化して実装し、計算能力を最大限に引き出した。そこに「発見するAI」を活用したところ、ヒトの全遺伝子に対する条件と因果関係の網羅的探索が1日以内で実現した。そして、肺がんの治療薬に耐性を持つ原因となる遺伝子の特定に成功した。

研究グループは、今後、薬効メカニズムやがんの起源の解明といった重要課題に取り組むとしている。また東京医科歯科大学は、この技術を用いてがんや難病の攻略法の研究を推進する。富士通は、マーケティングやシステム運用などで複雑に交錯する因子を発見し、意志決定を支援する取り組みを進めるとのことだ。

企業の福利厚生で使えるAI恋愛ナビのAillがJR西日本グループと連携、新しい出会いを創出する「食レポイベント」実証実験

企業の福利厚生で使えるAI恋愛ナビアプリ「Aill goen」(エール ゴエン)を提供するAill(エール)は3月8日、JR西日本イノベーションズジェイアール西日本ホテルズ、ルクア大阪などを展開するJR西日本SC開発と連携し、AIによるデート提案「食事レポートイベント」(食レポイベント)の実証実験を3月9日より開始すると発表した。

実験では、Aill goen対象者のうち、恋愛相手を求める二者のデートにふさわしいタイミングで、Aillの独自AIが食レポイベントの提案を行う。ここからデートに行くきっかけや、お互いを知るきっかけを作り、デート成功確率向上を目指す。イベントは、JR西日本グループの「ホテルグランヴィア京都」・「ホテルグランヴィア大阪」およびJR大阪駅直結の駅型商業施設「ルクア大阪」館内の対象レストランにて行う。

具体的にはは、まずAIがチャットで「お互いを知る」会話のアシストを行った後、デートに行きそうな2人にAIが食レポイベントを提案する。ユーザーは提携レストランからお店を決定し予約。食事後、2人で食レポを執筆しAill goenアプリに投稿する。そのお礼として、ユーザーにはお得なクーポン券がプレゼントされる。

「食レポイベント」概要

  • AIがチャットで「お互いを知る」会話のアシストを行う
  • デートに行きそうな2人に、AIが「食レポイベント」を提案
  • 「食レポイベント」提携レストランからお店を決定し、予約
  • レストランに来店
  • 2人で食レポを執筆・Aill goenアプリに投稿
  • 食レポ投稿のお礼として、お得なクーポン券をプレゼント

Aill goenは、企業が福利厚生サービスとして登録する、独身社員専用プラットフォーム。信用できる企業専用のコミュニティとなるため、安心・安全な出会いの機会を提供する。さらにAIナビゲーションアプリを通じて、社外の出会いからお付き合いまでをサポートする。現在の利用対象企業は851社。

Aill goenでは、今回行う実証実験で「相手を知ってから会う」を独自開発のコミュニケーションアシストAIによって増加させたうえ、食レポを一緒に執筆することでリアルでも自然とお互いを知るきっかけを創出するとしている。イベントを通すことでデートによる成功率・リピート率の向上を目指す。

【コラム】メタバースで優先されるべき課題は「責任あるAI」

最近のBloomberg Intelligence(ブルームバーグ・インテリジェンス)の調査によると、メタバースには8000億ドル(約92兆円)の市場規模があるそうだ。実際にメタバースとは何なのか、ということについては、多くの人が議論しているところではあるが、これだけの金と好奇心に取り巻かれているものだから、誰もが話題にしたがるのも当然だろう。

メタバースではAIが、特に私たちが他者とコミュニケーションを取る際に、重要な役割を果たすことは間違いない。私たちはこれまで以上に他者とつながりを持つようになるだろうが、政府や規範、倫理規定に縛られないAIは、邪悪な影響をもたらす可能性がある。元Google(グーグル)CEOのEric Schmidt(エリック・シュミット)氏が最近問いかけたように「誰がルールを決めるのか?」ということだ。

AIの影響を理解する

AIアルゴリズムは、偏向のある人間によって作られるため、作成者の思考パターンや偏見に従うように作られることがあり、しかも、それが増殖していくことがある。AIが性差別を生み出す、例えば、女性よりも男性に大きなクレジットカードの限度額が与えられたり特定の民族がより不当な差別を受ける傾向にあることは、我々がこれまで見てきたとおりだ。より公平な、繁栄するメタバースを作るためには、偏向を生み出し、それを永続させるダークなAIのパターンに対処する必要がある。しかし、誰がそれを決定するのだろう? そして、人間はどうやって偏向を回避できるのだろうか?

この「野放しのAI」を緩和するための解決策は、すべての組織で倫理基準を策定することだ。私たちの見解では、ダークAIのパターンは侵略的になる可能性が高い。ほとんどのAIは倫理的な監視なしに開発されているが、メタバースではこれを変えなければならない。

AIをメタバースにおけるメッセージの翻訳に活用する

私は、1人の熱心な語学学習者として、また、AIと人間を使って人々をグローバルにつなぐ会社の創設者として、誰もが複数の言語を話すスーパーポリグロットになれるという可能性に胸を踊らせている。だが、さらに興味があるのは、そのAIがどのように機能するかを理解することだ。

メタバースでは、多くのユーザーが各々の言語でコミュニケーションすることになるだろうが、AIによる言語翻訳が利用できる可能性もある。しかし、AIを使った言語テクノロジーは、我々が注意しなければ、偏向を永続させてしまうおそれがある。その言語AIが、倫理的であるようにきちんと訓練されていることも、確認する必要がある。

例えば、ジョーのアバターがミゲルのアバターと話したがっているが、ジョーとミゲルは同じ言語を話さないという状況を想像してみよう。AIは彼らのメッセージをどのように翻訳するのだろうか? そのまま言葉を直訳するのだろうか? それとも、文字通りに訳すのではなく、メッセージを受け取った人が理解できるように、その人の意図に沿った翻訳をするのだろうか?

人間と機械の境界線を曖昧にする

メタバースでは、いかに私たちが「人間的」かということが重要になるだろう。企業は言語テクノロジーを使って、会話を異なる言語にすばやく翻訳することで、オンラインコミュニティ、信頼、インクルージョンの創出に役立つことができる。

しかし、私たちが選ぶ言葉に気をつけなければ、テクノロジーは偏見を生み、不作法な行動を許すことにもなりかねない。どのようにかって?あなたは3歳児がAlexa(アレクサ)に話しかけているのを聞いたことがあるだろうか?それはとても「感じが良い」とは言えない。人は、自分がやり取りしている相手が本物の人間ではなくテクノロジーであるとわかると、礼儀正しくする必要を感じなくなる。だから顧客は、チャットボットやAmazon(アマゾン)のAlexa、電話の自動応答などに対して失礼な態度を取るのだ。それはさらにエスカレートしてしまう可能性がある。理想とする世界は、言語のためのAIが、人間を正確に表現するために必要なニュアンスや共感を捉えるようになり、それによってメタバースが人間とテクノロジーがともに栄える場所となることだ。

メタバースの非人間的なAIは、ネガティブにもなりかねない。適切な言語は、リアルで感情的なつながりと理解を生み出すことができる。AIを活用した言語運用によって、適切なメッセージはブランドを人間的に感じさせるために役立つ。ブランドが瞬時に多言語でコミュニケーションできるようにするための技術は、極めて重要なものになるだろう。顧客の信頼は母国語によって築かれると、私たちは考えている。しかし、ボーダーレスでバーチャルな社会は、どうやって母国語を持つことができるだろうか? そして、そんな環境は、どうやって信頼を生み出すことができるのだろうか?

先述したとおり、メタバースは企業にとって、バーチャルな世界で露出を増やすことができる大きな可能性を秘めている。人々はすでにバーチャル・ファッションにかなりの大金を投じるようになっており、この傾向は間違いなく続くだろう。ブランドは、実際に会って交流するよりも本物らしい、あるいはそれ以上に魅力を感じられるような、オンライン体験を作り出す方法を見つける必要がある。これは越えるのが大変な高いハードルだ。スマートな言語コミュニケーションは、そのために欠かせないものとなるだろう。

メタバースが最終的にどのようなものになるかは、誰にもわからない。しかし、AIがある集団に他より過度な影響を与えたり、AIが自社製品の人間性を失わせた、なんてことで記憶される企業には誰もなりたくないはずだ。AIは良い意味でパターンを予測する能力がどんどん向上するだろう。しかし、野放しにしておくと、AIはメタバースにおける私たちの「生き方」に深刻な影響を与える可能性がある。だからこそ、責任あるAI、倫理的なAIのための倫理が必要なのだ。

AIが、言語やチャットボット、あるいはブランドの仮想現実に多用されていくと、それによって顧客が信頼や人間らしさの感情を失う機会も増えるのだ。私たちがメタバースで平和に「生きる」ことができるように、AIの研究者や専門家が企業と協力して、責任あるAIの枠組みに解決を見出すことが求められている。

編集部注:本稿を執筆者Vasco Pedro(ヴァスコ・ペドロ)氏はAIを利用して人間が編集を行う翻訳プラットフォーム「Unbabel(アンバベル)」のCEO。

画像クレジット:japatino / Getty Images

原文へ

(文:Vasco Pedro、翻訳:Hirokazu Kusakabe)

遠隔操作・AIロのTelexistence、物流施設の低温エリアなどで自律制御・遠隔操作による新型ハイブリッドロボの実証実験

遠隔操作・AIロのTelexistence、物流施設の低温エリアなどで自律制御・遠隔操作による新型ハイブリッドロボの実証実験

遠隔操作・AIロボットの開発・事業を手がけるTelexistence(テレイグジスタンス。TX)は3月4日、独自AIシステムによる自動制御と人による遠隔操作のハイブリッド制御ロボット技術を核とした新たな物流オペレーションの開発を目的に、実証実験を開始した。

実証実験を行うのは、低温物流のニチレイロジグループ本社と、物流事業を展開するセンコーの2社。第1弾として、ニチレイロジグループの物流施設にある冷蔵エリアにおいて、遠隔操作ロボットがカゴ台車にさまざまな荷物を積み込む(混載積み付け)実験を行った。2022年秋には、センコーの大手小売業向け物流施設にて実験を行う予定だ。

実験に使用されたロボットは、協働用ロボットアーム、自律走行搬送ロボット(AGV)、エンドエフェクター、遠隔操作機構で構成されたもの(協働用ロボットアームとAGVは他社製を採用)。

パレットへの積み付けや積み下ろし(パレタイズ、デパレタイズ)を行うロボットは、一般には床に固定される。そのため稼働範囲が限定され、ロボット作業の前後の工程にその他の移動用機器(マテハン機器)を準備する必要がある。これに対してTX製ロボットは、電源を搭載しているため移動をともなう作業にも対応し、また時間帯に応じて作業場所を変えるなどの柔軟性がある。同時に、オペレーターが遠隔で荷物や積み付け場所を目視で確認するため、保冷カバー付きのカゴ台車への積み付けのような複雑な作業を要する場面でも、最適な形で効率よく荷物を扱うことができる。

遠隔操作・AIロのTelexistence、物流施設の低温エリアなどで自律制御・遠隔操作による新型ハイブリッドロボの実証実験

段ボールを側面から把持した状態でのカゴ台車への積み付け

遠隔操作・AIロのTelexistence、物流施設の低温エリアなどで自律制御・遠隔操作による新型ハイブリッドロボの実証実験

遠隔操作オペレーターとコックピットビュー

この実証実験は、「労働者からすべての身体的労働作業を解放する」というミッションに合致するものだとTXは話す。これは、身体への負担が大きい冷蔵エリアでの作業や重たいケースの運搬をロボットに代替させ、労働環境の改善と生産性の向上を目指す実験だとしている。

またニチレイロジグループは、人手不足への対応や作業者の負担軽減、さらには現場作業の「誰でもできる化」を目的とした業務革新に注力。人間と機械の双方の特性を活かした最適な作業体制の構築を進めている。冷蔵エリアの作業を人が事務所から遠隔で行うことで、「物流センター作業におけるリモートワークとストレスフリーな作業環境構築の可能性」を検証するという。

秋に実証実験を予定しているセンコーは、すでに2014年にパレタイズアームロボットを導入し、その後もAGVや省人化、省力化機器の導入を積極的に進めているが、TX製ロボットに期待するのは、その移動性だ。

時間帯や業務の都合に合わせて移動できるため「ロボットの稼働時間が飛躍的にアップする」という。また遠隔操作で人が常時監視するため、トラブル発生時に迅速な対応が可能になる点も挙げている。夏場の作業などをロボットに担わせ、「ワークライフバランスを図りながら、時間や場所に限定されない働き方をより多くの人々に提供すること」を目指すということだ。

くら寿司、「AI桜鯛」を3月11日から数量限定で全国販売―ウミトロン開発のAI搭載スマート給餌機で生育した真鯛を商品化

くら寿司、「AI桜鯛」を3月11日から数量限定で全国販売―ウミトロン開発のAI搭載スマート給餌機で生育した真鯛を商品化

「【愛媛県産】AI 桜鯛(一貫)」。販売期間は2022年3月11日~3月15日(なくなり次第終了)

ウミトロンは3月4日、AI・IoT技術を活用したスマート給餌機「UMITRON CELL」(ウミトロンセル)で育成した真鯛が、回転寿司チェーンの「くら寿司」において販売されることを発表した。「【愛媛県産】AI 桜鯛(一貫)」として、3月11日から3月15日まで数量限定で全国で取り扱う(なくなり次第終了)。価格は110円。同養殖技術で育てた魚を大手外食チェーンで商品化するのは初めての試み。

ウミトロンは、水産養殖にAIやIoT、衛星リモートセンシングなどの技術を活用することで、持続可能な水産養殖の実現に取り組むスタートアップ企業。同社のUMITRON CELLは、スマートフォンなどから生け簀の魚をリアルタイム動画で確認したり、遠隔操作での餌やり操作を行えたりできる水産養殖者向けスマート給餌機。くら寿司、「AI桜鯛」を3月11日から数量限定で全国販売―ウミトロン開発のAI搭載スマート給餌機で生育した真鯛を商品化くら寿司、「AI桜鯛」を3月11日から数量限定で全国販売―ウミトロン開発のAI搭載スマート給餌機で生育した真鯛を商品化

また、AIが魚の食欲を判定して餌量やスピードを最適化・制御できるため、水産養殖者の労働負荷削減、魚のサイズや品質を保つための給餌をはじめ、海への餌の流出を防ぐなど環境面での配慮にも貢献。現在、近畿・四国・九州地域を中心に、主に真鯛、シマアジ、サーモントラウトなどの魚種に導入されている。

くら寿司は、2010年より「漁業創生」をテーマに様々な活動を行なっており、2021年11月には業界初の水産専門会社である子会社「KURA おさかなファーム」を設立。漁業における人手不足と労働環境の改善を目指し、UMITRON CELLを導入した「スマート養殖」の実証実験として、2021年春から愛媛県内で真鯛の委託養殖を開始した。今回販売するAI桜鯛は、このスマート養殖で育てた真鯛で、大手外食チェーンでの商品化は初の試みとなる。

ウミトロンは、UMITRON CELLを活用した真鯛の委託養殖事業を、KURAおさかなファームとの協業で2021年6月頃から本格始動する予定。養殖用の稚魚や餌を委託養殖事業者に提供し、スマート養殖で寿司ネタにできる大きさまで生育してもらい、養殖した魚の全量をKURAおさかなファームが買い取る計画となっている。今後もくら寿司およびKURAおさかなファームとの協働により、クオリティの高い商品の安定供給と、養殖生産者の経営リスクや労働負荷の軽減・収入の安定化に貢献したいという。