コトバデザイン、5Gとドコモオープンイノベーションクラウドを活用した低遅延通話サービスCOTOBA Talkの招待制試験開始

コトバデザイン、5Gとドコモオープンイノベーションクラウドを活用した低遅延通話サービスCOTOBA Talkの招待制試験開始

対話型AIの開発を行うコトバデザインは1月13日、NTTドコモの提供する5Gサービスおよびドコモオープンイノベーションクラウドを活用した「超」低遅延通話サービス「COTOBA Talk」の招待制試験サービスのエントリー受付開始を発表した。COTOBA Talk紹介サイトよりエントリーできる。

同招待制試験サービスにより得られたフィードバックを基に、通話体験のさらなる向上と作業現場で求められる機能拡張を進める。特に音声アシスタントを中心とする音声によるVUI(Voice User Interface)の高度化により、ハンズフリー通話およびITシステム利用の充実を図り、商用サービス化を加速する。

COTOBA Talkは、PC操作環境が得られないデスクレスワーカー向けに作られた、低遅延・高品質で安全なコミュニケーションを実現するクラウド型通話サービス。スマートフォンアプリとして提供しており、ヘッドセットを使用すれば複数人で映像付きのハンズフリー通話が可能となる。

 

特徴としては、まず5Gの高速通信と通話処理の最適化により200msを切る低遅延通話の実現がある。またドコモ5G網とドコモイノベーションクラウドに閉じた形のサービスとなっているため、インターネット経由の通話よりも高いセキュリティを保てる。さらに、音声指示を理解する音声アシスタントを搭載していることから、様々な外部ITシステムの音声操作が可能にになっており、端末(スマートフォン)を取り出す必要をなくしているという。この音声アシスタントは、コトバデザインが開発した、対話インターフェースを構築・運用するためのクラウドサービス「COTOBA Agent」を利用して実装している。

コトバデザイン、5Gとドコモオープンイノベーションクラウドを活用した低遅延通話サービスCOTOBA Talkの招待制試験開始

COTOBA Talk サービス構成

 

利用シーンとしては、工事・小売店舗・介護など複数人で連携して作業を行う現場を想定。COTOBA Talkでは、各端末のカメラ映像付きで低遅延通話が行えるため、現場の映像を共有しながら快適に利用できるとしている。特に、骨伝導型ヘッドセットを装着すると、周囲音を遮断せず、騒音環境でもクリアな音声で通話できるようになり、長時間の使用にもストレスがないとしている。

2017年8月設立のコトバデザインは、「ヒトに寄りそう、 対話インタフェースの創造と解放」をミッションとして掲げるスタートアップ。世界中のクリエイターがAIを対話インタフェースとして自由にコンテンツ開発できる世界を作ること、またヒトが対話インタフェースを通じてより豊かな生活が可能となることを目指して、対話システムおよびコンテンツの企画・開発・販売・運用を主事業としている。

スイッチサイエンスがコンピュータービジョン向けLuxonis製「OAK-D-LITE OpenCV DepthAIカメラ」2種発売開始

スイッチサイエンスがコンピュータービジョン向けLuxonis製「OAK-D-LITE OpenCV DepthAIカメラ」2種発売開始

スイッチサイエンスは1月12日、同社ウェブショップにおいてLuxonis製コンピュータービジョン用ハードウェア「OAK-D-LITE OpenCV DepthAIカメラ」の発売を開始した。自動焦点版「OAK-D-LITE OpenCV DepthAIカメラ(自動焦点版)」と「OAK-D-LITE OpenCV DepthAIカメラ(固定焦点版)」の2種類がある。直販価格は、それぞれ1万8854円(税込)。

OAK-D-LITE OpenCV DepthAIカメラは、高度なニューラルネットワークを動作させながら、ステレオカメラ2基と4Kカメラ1基で深度情報と色情報を取得できるAIカメラだ。顔認識、オブジェクト検知、オブジェクトトラッキング、Python APIの使用が可能となっている。

自動焦点版は、30cm以内の撮影対象に動的に焦点を合わせることができる(オートフォーカス)。ドローンやロボットなど、振動が大きな用途には向いていない。固定焦点版は、振動が大きい用途に対応でき、レンズが動かないためRGB深度調整にも向いている。30cmの距離で焦点が合うようになっている。

自動焦点版、固定焦点版ともに、特徴は以下のとおり。

  • リアルタイムバックグラウンド演算により動きの予測が可能
  • 12メガピクセル、JPEGエンコーディング(静止画)
  • H.264/H.265エンコーディング(4Kビデオ3.125 MB/秒、Raspberry Pi Zeroでは4K/30 fpsで録画可能)
  • 歪み除去、魚眼レンズに対応
  • オブジェクト検知、画像認識、セマンティックセグメンテーション
  • 対象のトラッキングが可能
  • MJPGエンコーディング
  • 3Dでオブジェクトのトラッキング可能
  • ステレオカメラ

電源はUSB Type-C経由で給電される。消費電力はスタンバイ時で0.6W。depthai_demo.py実行時で4W。最大時で4.5W。ビデオエンコーダーやニューラルネットワークを実行しているときに2Wの電力スパイクが発生する可能性があるとのこと。

OAK-D-LITE OpenCV DepthAIカメラ(自動焦点版)

  • 型番:LUXONIS-OAK-D-LITE-AF
  • 価格:1万8854円(税込)

OAK-D-LITE OpenCV DepthAIカメラ(固定焦点版)

  • 型番:LUXONIS-OAK-D-LITE-FF
  • 価格:1万8854円(税込)

スイッチサイエンスがコンピュータービジョン向けLuxonis製「OAK-D-LITE OpenCV DepthAIカメラ」2種発売開始

医師を退屈なデータ入力から解放、AI駆動の転写プラットフォームDeepScribeが約34億円調達

AIを活用した医療用転写プラットフォームのDeepScribe(ディープスクライブ)は、Index VenturesのNina Achadjian(ニーナ・アチャドジアン)氏がリードし、Scale.aiのCEOのAlex Wang(アレックス・ワン)氏、FigmaのCEOのDylan Field(ディラン・フィールド)氏、既存投資家のBee Partners、Stage 2 Capital、1984 Venturesが参加したシリーズAラウンドで3000万ドル(約34億円)を調達した。DeepScribeの今回の資金調達は、2021年5月に発表された520万ドル(約6億円)のシードラウンドに続くものだ。DeepScribeは、医師を退屈なデータ入力から解放し、患者にフォーカスできるようにすることを目的に、Akilesh Bapu(アキレッシュ・バプ)氏、Matthew Ko(マシュー・コー)氏、Kairui Zeng(カイリュー・ゼン)氏によって2017年に設立された。

2019年、DeepScribeは患者と医師の自然な会話を要約するアンビエント音声AI技術を発表した。DeepScribeのアイデアは、バプ氏とコー氏の体験が発端だ。バプ氏の父親はがん専門医で、文書作成が父親のワークライフバランスに与える負担を目の当たりにした。一方、コー氏は、乳がんと診断された母親のケアを管理していたとき、診療記録の負担が患者のケアに対する認識にどのような影響を及ぼしているかを目の当たりにした。

母親が受けていたケアに不満を感じたコー氏は、バプ氏とその父親に助けを求めた。そして、診察記録の重要性を理解し始めた2人は、近年の人工知能や自然言語処理の飛躍的な進歩が、この状況を改善するために活用されていないことに気づいた。そこで、この問題を解決するプラットフォームを構築すること決意した。

「この分野の製品を調査した後、75%以上の医療従事者がこの分野の文書作成ツールを使っているのに、それでもなぜ彼らが半日近くをメモ書きに費やしているのか疑問に思いました」と、コー氏は電子メールでTechCrunchに述べた。「製品をテストした後、私たちの結論は、この分野の既存の製品では医師が会話を要約する必要があるために問題を解決していない、というものでした。音声テキスト化ソリューションは、あなたがが話した内容を正確にコンピュータの画面上のテキストに変換することしかできませんでした。医師が求めていたのは、患者との自然な会話を理解し、要約することができるアンビエントAIでした。この洞察をもとに、私たちは世界初のアンビエントAIスクライブ、つまり現在のDeepScribeの構築に着手しました」。

医師がアプリケーションを起動すると、DeepScribeは会話を録音し、要約して、医師が選択した医療記録システムに統合する。アプリは、聞きながら患者の診察を録音し、診察記録を準備する。その後DeepScribeは、電子カルテ (EHR) のフィールドにメモを直接アップロードし、医師は適切なEHRフィールドに完全に準備されたメモを確認し、署名することができる。

このアプリケーションはおしゃべりに対応していて、会話には医学的に関連する情報のみが含まれる。また、医師の会話スタイル、好みの言い回し、文章の好みなどを聞き、学習することで、AIスクライブは継続的に賢くなるという。

過去1年半の間に全米で医師400人超がDeepScribeを利用し、50万件以上の患者・医師間の会話を処理してきた。DeepScribeによると、同社のプラットフォームを活用することで医師は1日平均3時間を節約でき、コストは人間による記録の約6分の1だ。これまでに、同社は医師の文書作成にかかる時間、250万分以上を節約した。信頼性に関しては、20日間の使用後、医師はメモ1枚につき平均1回以下の修正しか行わなかった、とDeepScribeは話す。

DeepScribeは、今回の資金調達によりDeepScribeの成長が加速し、今後も医療文書作成ワークフローとヘルスケア全体の改善と変革に取り組んでいくと話す。自社の技術を複数の大規模医療システムに展開し、エンジニアリングチームを成長させ、自社のAIをより多くの医師の手に渡すことを目指している。

「当社のロードマップには多くのものがありますが、最もワクワクさせるのは、純粋な要約以外の可能性です」とコー氏は話す。「音声が未来の医療の構成要素になると信じていて、お馴染みのケアの診断と治療を変換する能力を持っています。サービスの提供を通じて収集したデータを活用し、医師に効率化を提供するにとどまらず、患者の転帰を改善したいと考えています」。

画像クレジット:DeepScribe

原文へ

(文:Aisha Malik、翻訳:Nariko Mizoguchi

Headspace HealthがAIを活用したメンタルヘルス・ウェルネス企業Sayanaを買収

Headspace Health(ヘッドスペース・ヘルス)は、AIを活用したメンタルヘルスとウェルネスの企業であるSayana(サヤナ)を非公開の金額で買収した。Headspace Healthは、サンフランシスコに拠点を置く同社を買収することで、ユーザーにパーソナライズされたセルフケアを提供する能力を拡大するとしている。今回の買収は、HeadspaceとGinger(ジンジャー)が2021年合併し、評価額30億ドル(約3440億円)のHeadspace Healthが設立されたことによるものだ。この合併により、Gingerのセラピーとコーチングサービス、Headspaceのマインドフルネスと瞑想のサービスが一緒になった。

2018年に設立され、2020年にY Combinator(Yコンビネーター)の支援を受けたSayanaは、ユーザーに自分の気分を追跡するよう促すAIによるチャットベースのセッションを活用している。このアプリは、気分の傾向に基づいてユーザーの体験をパーソナライズし、セルフケアや呼吸法を提案してくれる。同社の睡眠アプリは、ユーザーの気分と睡眠パターンに基づいて安眠セッションを支援する。

Headspace HealthのRussel Glass(ラッセル・グラス)CEOはTechCrunchの取材に対し、Headspace Healthがその中核機能をHeadspaceとGingerの体験に統合する間、Sayanaのアプリは一定期間稼働し続けることになると語った。統合が完了したら、同社はSayanaを別の体験として切り離し、ユーザーをHeadspace Healthに移行させる予定だ。

「Sayanaはユニークで、メンバー主導の体験を作り出しました。私たちがやろうとしていることの将来を考えると、それは、人がメンタルヘルスのどの状態にあるかにかかわらず、連続するケア全体を完全にサポートできる世界というHeadspace Healthのビジョンに最高にフィットします」と、グラス氏は述べた。「私たちがパンデミックの間に見たことの1つは、いかに多くの人々がサポートを必要とし続けているかということです。私たちは、メンタルヘルスの連続体の一部を自動化し、ニーズを持つ人々にパーソナライズされたセルフケアコンテンツを提供できるようにする必要があり、この買収は非常にエキサイティングです」。

Headspace Healthは、AIとデータサイエンスに裏打ちされた1つのプラットフォームから、予防から臨床ケアに至るまで、メンタルヘルスの手助けを提供する統合的な体験の創造に注力している。同社は、Sayanaを加えることで、ユーザーのチェックインベースのヘルプやサービスを提供し、体験をパーソナライズする機能を進化させる予定だ。

画像クレジット:Headspace Health

グラス氏は、HeadspaceとGingerはすでにAIを活用して、行動医学コーチ、セラピスト、精神科医のチームをサポートし、ユーザーとの質の高い対話、サービスの包括的な追跡、ケアプロバイダー間の緊密な連携を実現していると述べている。また、堅牢なチャットボット体験を通じて、完全に自動化された方法でユーザーのニーズを理解するSayanaの機能を追加することで、体験を進化させ、よりパーソナライズされた効果的なケアを提供できると説明している。

買収の一環として、Sayanaの創業者兼CEOのSergey Fayfer(セルゲイ・フェイファー)氏はHeadspace Healthに入社し、社内でプロダクトリーダーとしての役割を担っている。

フェイファー氏は「創業以来、Sayanaは、ポケットに入る、誰もが利用しやすいセルフケアを提供することを使命としてきました。私たちの技術、エンジニアリング、デザインの専門知識を結集し、高品質で安価なメンタルヘルスケアを世界中に普及させるというHeadspace Healthの取り組みを支援できることをうれしく思っています」と声明で語った。

将来について、グラス氏は、Headspace Healthは、メンタルヘルスのケアのニーズの高まりに対応するために、拡大を続ける計画であると述べている。同社の目標は、ケアにかかるコストを可能な限り削減することで、最もアクセスしやすく、包括的なプラットフォームにすることだ。Headspace Healthは、ケアの質をできるだけ高く保ちつつ、ケアにかかるコストを確実に削減できるよう、イノベーションを続けていくと説明した。同氏は、そのためには、非有機的な成長戦略と有機的な成長戦略の両方を考えるという点で、同社は積極的であることが必要だと指摘した。

「私たちは、今後も雇用者の動向を注視していくつもりです。新しい医療保険制度やプロバイダーとの提携を発表し続け、今後数カ月のうちにいくつも発表する予定です」とグラス氏は述べている。「私たちは、拡大する分野として、引き続き青少年に焦点を当てます。これからも革新的な取り組みを続けていきます。研究開発に多くの費用を費やしていますし、Sayanaのようなプラットフォームを追加する機会を見て、買収を続けていくつもりです」。

画像クレジット:Headspace Health

原文へ

(文:Aisha Malik、翻訳:Akihito Mizukoshi)

IBMが排出量データ分析Enviziを買収、企業のサステナビリティ活動を支援

IBM(アイビーエム)は米国時間1月11日朝、オーストラリアのスタートアップEnvizi(エンビジ)を買収し、サプライチェーンの上下で環境への影響を測定するためのESG(環境、持続可能性、ガバナンス)製品パッケージに追加すると発表した。

両社は買収条件を公開しなかったが、IBMはEnvizi買収によって、顧客の環境面でのサステナビリティの取り組みを測定、管理、最適化するためのプラットフォームを手に入れた。つまり、2016年にWatson Healthを構築していたときと同じように、環境問題でデータ中心のアプローチをとっている。Watson Healthについては、同社が現在売却しようとしている、と報じられている。

企業は知見を推進するためのデータを必要としており、それがEnviziによって自社にもたらされるものだとIBM AIアプリケーションのゼネラルマネージャーであるKareem Yusuf(カリーム・ユースフ)氏は話す。

「Enviziのソフトウェアは、企業が事業活動全般にわたって排出データを分析・理解するための信頼できる唯一のソースを提供し、企業がより持続可能な事業とサプライチェーンを構築するのを支援するためのIBMの成長中のAI技術という武器を劇的に加速させます」とユースフ氏は声明で述べた。

EnviziのCEOで共同創業者のDavid Solsky(デイビッド・ソルスキー)氏は、今回の買収をIBMのグローバルプレゼンスを活用することで会社を拡大する方法と見ている。これは、はるかに大きな会社に飲み込まれる会社の典型的な主張だ。「今日という日は、1つの時代の終わりでもなければ、新しい時代の始まりでもありません。むしろ、前例のない速度で規模を拡大し、顧客がサステナビリティへのコミットメントに向けて前進するのをグローバルに支援することを可能にする構造への移行です」と、ソルスキー氏は買収を発表したブログ投稿に書いている。

IBMはEnviziを、IBM Environmental Intelligence Suite、IBM Maximo資産管理ソリューション、IBM Sterlingサプライチェーンソリューションを含む既存の製品パッケージに追加するAI駆動型ソフトウェアと見なしている。後者は、サプライチェーンに沿ったソーシングとトレーサビリティのためにIBMブロックチェーンを使用しており、安全性やトレーサビリティを向上させる可能性がある。

注目すべきは、同社がAIを活用したソリューションを追求し続けているにもかかわらず、今回は6年前のヘルスケア構想のように、ESGの取り組みにWatsonという名称を付けなかったことだ。おそらくIBMは、Watsonブランドが輝きを失ったと判断し、社内のすべてのAI駆動型ソリューションにその名称を付けることから脱却したのだろう。

同社は、2030年までに温室効果ガスの排出量を正味ゼロにすることを目指しているため、同じソフトウェアツールを社内で使用して、自社のサステナビリティの取り組みを推進するとしている。

画像クレジット:Bloomberg / Getty Images

原文へ

(文:Ron Miller、翻訳:Nariko Mizoguchi

自動外観検査AIをノーコードで開発可能なAI開発プラットフォームを提供するMENOUが約2.5億円のシリーズA調達

自動外観検査AIなどをノーコードで開発可能なAI開発プラットフォームを提供するMENOUが約2.5億円のシリーズA調達

自動外観検査システムなどAIによるディープラーニング技術を身近にするソリューションを提供するMENOU(メノウ)は1月11日、シリーズAラウンドにおいて、第三者割当増資による約2億5000万円の資金調達を実施したと発表した。引受先はニッセイ・キャピタル、DEEPCORE、三菱UFJキャピタル。累計資金調達総額は約3億7000万円となった。

調達した資金は、検査AIをノーコードで開発するAI開発プラットフォーム「MENOU-TE」(メノート)の機能拡張、また検査工程を自動化するための導入支援サービスである「MENOU-IN」(メノーイン)をより多くの企業に提供できる体制を整える。

MENOU-TEでは、AIとルールベースのハイブリッドな検査を構築し、導入するまでの開発を容易にする体制を整える。また、機能開発を加速し、プログラミングやAI、画像処理の専門人材がいなくてもAIの社内開発が可能になるMENOU-TEの利便性や使いやすさつかいやすさを増していく計画という。

MENOU-TEは、ディープラーニングの検査AIを、ノーコードで開発可能なソフトウェア。GUIによるアノテーションラベリング(学習操作)や解析精度の視覚化と最適化支援、ルールベース解析とのハイブリッドな推論・検査といった機能を備える。これらにより、画像検査やAIの専門知識のない技術者であっても、製造現場に必要な外観検査・画像検査を実施する環境を構築できる。

自動外観検査AIなどをノーコードで開発可能なAI開発プラットフォームを提供するMENOUが約2.5億円のシリーズA調達

MENOU-INは、検査AIの総合的な導入支援サービス。外観検査の画像取得に向けた照明やカメラなどの最適な撮像構成を提案しつつ、運用やメンテナンス体制も含めたAI外観検査導入を総合的にサポートする。企業内のAI・DX人材の育成を行うトレーニングなども行うなど、開発人材育成も支援する。

MENOUは、日本の製造業にとって身近なAIを普及させることをミッションに掲げ、ニコンのエンジニアが2019年6月に設立したAIスピンアウト。独自のAI開発プラットフォームを中心に、様々な製造業への導入支援を展開している。MENOU-TEは、直感的操作でアノテーションができるだけでなく、AI開発に必要なファイル管理、モデル管理を一括管理できる統合開発環境を提供し、導入後もメンテナンスしやすい画像検査を可能にするという。

MENOU-TEを用いたMENOUチームの解析画面。外観検査に特化したソフトウェアだが、人物特定AIなども短時間で実現できるという

MENOU-TEを用いたMENOUチームの解析画面。外観検査に特化したソフトウェアだが、人物特定AIなども短時間で実現できるという

企業や政府機関による有害な「話」の追跡を支援するPendulumが6.8億円を調達

Pendulumは、企業や政府、その他の組織が、ソーシャルメディアプラットフォームやウェブ上の他の場所で有害なナラティブ(話)を追跡するのをサポートしている。同社は米国時間1月7日、シードラウンドで590万ドル(約6億8000万円)を調達したと発表した。同ラウンドはMadrona Venture Groupがリードし、Cercano Managementなどが参加した。PendulumはMadrona Venture Labsでインキュベートされた。

「Pendulumのプラットフォームは、AIとNLP(神経言語プログラミング)の技術を応用し、ナラティブに含まれる脅威とチャンスをその形成初期段階に発見し、オンラインで拡散する際に追跡します」と、MadronaのマネージングディレクターであるHope Cochran(ホープ・コクラン)氏は説明する。「ソーシャルメディアプラットフォーム上のテキスト、ビデオ、オーディオコンテンツに含まれるナラティブを分解・分類することで、企業はこれまで以上に準備し、コミュニティと自由に関わることができるようになります。現在、YouTube、BitChute、Rumble、Podcastsをサポートしており、今後数カ月の間に重要なソーシャルプラットフォームを網羅します」。

Pendulumを支えるチームは、このようなプロダクトを構築するのにうってつけのようだ。例えば共同創業者のSam Clark(サム・クラーク)氏は、以前はDecide.comでデータマイニングのエンジニアとして働き、その後eBayがその会社を買収してからはeBayに勤務していた。また、YouTubeの政治チャンネルを分類・分析するプロジェクトTransparency Tubeも共同開発した。Transparency TubeはPendulumとかなり多くのDNAを共有しており、クラーク氏はその後、オンラインで誤情報や偽情報を追跡するという一般的なアイデアをもとに商用プロダクトを作るためにMadronaと手を組んだ。そこで共同創業者であるMark Listes(マーク・リスティーズ)氏とチームを組むことになった。リスティーズ氏は政府機関での豊富な経験をチームにもたらしている。同氏は以前、米選挙支援委員会の政策担当ディレクターを務め、National Security Innovation Network(国家安全保障イノベーションネットワーク)ではスタッフ責任者として、米国防総省のベンチャー企業との関わりを管理する役割を担っていた。

Pendulumの共同創業者、サム・クラーク氏(左)とマーク・リスティーズ氏(右)(画像クレジット:Pendulum)

リスティーズ氏は選挙支援委員会でかなり落ち着いた時間を過ごすことを期待していたが、2016年に加わった同氏は明らかにそのタイミングを間違えていた。「2016年の11月と12月には、選挙分野はずいぶん異なるものでした」と同氏は筆者に語った。「我々は、外国の干渉や情報概要、その他多くのものを扱っていました。かいつまんで話すと、その後2年半の間、私と同僚は米国の選挙システムから外国からの干渉を排除するための取り組みを主導しました。我々は個人的にも組織的にも干渉を経験し、そして私たちのシステム全体から排除するための戦いを支援しました。有害なナラティブと、それが誤情報であれ偽情報であれ、悪意あるナラティブが社会全体に与えうる影響の排除です」。

とはいえ、Pendulumは政府機関がネット上のナラティブを追跡するために使うこともできるが、商業サービスがメーンだ。「商業第一です。もちろん、簡単で直感的な政府機関向けのサービスもありますが、まず商業部門に特化し、そこで本当に強力なパートナーシップを構築しています」とリスティーズ氏は述べた。

画像クレジット:Pendulum

リスティーズ氏は、Pendulumのようなプラットフォームが機能するためには、できるだけ多くのプラットフォームをカバーする必要があると強調した。人口の代表的なサンプルを提供しないTwitterや、YouTubeを追跡するだけでは不十分だ。このため、Pendulumは例えばBitChuteやRumbleも追跡している。

しかしリスティーズ氏は、Pendulumが真否を判定するビジネスをしているわけではないとも指摘した。「実際には、真実か嘘かには依存しない、実に強力なナラティブ追跡エンジンを持っています」と説明する。「真否の判定をしないことで、より幅広い用途に対応できます」。例えば企業は、コミュニケーションだけでなくセキュリティのためにも、役員や資産に関するナラティブを追跡したいかもしれない。

Pendulumは何かが真実かどうかを判断することを望んでいないため、悪意ある人物にも利用される可能性がある。しかしリスティーズ氏は、同社が個人を特定できる情報を追跡しているわけではなく、チームはこの可能性をかなり認識していると主張する。「我々のツールの使用を通じて、不公平な競争の場を作り出したり、悪意のある人物に力を与えたりすることがないように価値を高めています」と同氏は述べた。

画像クレジット:Thodsapol Thongdeekhieo / EyeEm / Getty Images

原文へ

(文:Frederic Lardinois、翻訳:Nariko Mizoguchi

トーマツが会社・勘定科目単位で不正を検知するAIモデルを開発、今後2年間で監査先100社以上のリスク評価手続に活用

トーマツが会社・勘定科目単位で不正を検知するAI・機械学習モデルを開発、今後2年間で監査先100社以上のリスク評価手続に活用

デロイト トーマツ グループの有限責任監査法人トーマツは1月7日、過去の不適切な財務データをAIに学習させることで、会社、勘定科目単位で不正を検知する不正検知モデルを開発し、2022年1月から本格導入を開始すると発表した。また、これまで活用してきた仕訳分析モデル異常検知モデル(2017年8月特許取得済)と組み合わせて、不正リスク評価から、対応手続の立案まで網羅的にAI・アナリティクスを活用するアプローチを確立した。不正検知モデルの開発などAIの活用を通じて、AI・データドリブンによる監査の高度化を目指す。

2015年以降、不適切会計が明らかになった企業の数は増加しており、コロナ禍による業績不振も勘案すると、今後もこの傾向は続くと考えられるという。不正の発生は、企業に大きな損失をもたらすものであり、いかに不正リスクを抑えるかが急務の課題と指摘している。

従来監査人は、監査先の財務データに対し、異常とみなす基準値や予算との比較、前期からの趨勢把握などによって、監査で重点的にフォローするグループ会社や勘定科目を選別していた。一方、今回同社が開発した不正検知モデルでは、上場企業の過去の不正の傾向をAI・機械学習モデルに学習させているため、監査人は監査先から財務データを入手し、不正検知モデルにデータを投入することで、予測モデルによる不正スコアの計算のもと、不正リスクが高い会社、勘定科目および財務指標を識別する。これにより、監査人は不正リスクの分析を効率的に行うとともに、従来識別しえなかった不正パターンの識別が行えるという。不正検知モデルで検知された不正の兆候に基づいて監査人が監査先企業との議論をより深化させることで、企業のガバナンス向上に貢献するとしている。

トーマツでは、不正検知モデルを一部活用した監査に着手しており、すでに10社超の上場会社の監査において、主に子会社のリスク評価手続に活用している。さらに、今後2年間で100社以上の監査先のリスク評価手続に活用することを目指しているという。また、不正検知モデルの更なる性能向上に向けて、監査先の同意を得た場合には当該監査先の財務情報をモデルの学習に用いることでモデルの精度を向上させることや、市況データのバリエーションを増やすことで、特に海外子会社に対するリスク評価の精度向上を予定している。

今回開発した不正検知モデルでは、予測性能に優れる勾配ブースティング技術を採用し、2005年以降に公表された有価証券報告書および訂正報告書に含まれる財務諸表と為替レート、物価指数などの市況データをAIに学習させて、複数の財務指標から不正企業と正常企業との相違性を見出し、その結果を不正企業との近似度として0~1の間でスコアリングする。

また、どの指標がスコアに影響しているのか、会社別の各指標の時系列推移や、指標値の算定に使用した勘定科目の実数値を詳細に確認できるため、AIが算出したスコアがなぜ高いのかを説明することが可能という。あわせて、不正リスクが高いと評価された企業と類似した不正シナリオを持つ過去の不正企業を参照できる仕組みも構築している。

これにより、これまで活用してきた仕訳分析モデルや異常検知モデルと組み合わせて、より広範な観点から不正の兆候を把握するリスク評価から、不正リスクの高い仕訳や取引に対して個別・詳細に分析を行い、リスク対応手続の立案まで網羅的にAI・アナリティクスを活用するアプローチを確立した。トーマツが会社・勘定科目単位で不正を検知するAIモデルを開発、今後2年間で監査先100社以上のリスク評価手続に活用

AIロボットが何をつかんだかを判別可能に―九州工業大学、マテリアルベースのリザバー演算素子を開発

AIロボットが何をつかんだかを判別可能に―九州工業大学、マテリアルベースのリザバー演算素子開発とロボティクスへの応用に成功

九州工業大学は1月6日、ロボットアームのハンド部分から得られる感触信号から、ロボットが何をつかんだかを判別(把持物体認識)することに成功したと発表した。把持物体認識には、人工ニューラルネットワークの一種であるリザバー演算(RC)が使われるが、九州工業大学は、そのリザバー演算を、「単層カーボンナノチューブとポルフィリン、ポリオキソメタレートの複合体」(SWNT/Por-POM)からなる素子で行わせるという、画期的なアプローチをとった。

人間の脳を人工的に模倣するには、ランダムに接続されたニューロンとシナプスの動的な貯蔵庫(リザバー)を模倣する必要があり、それを実現したのが人工ニューラルネットワーク(ANN)だ。その一種であるリザバー演算は、貯蔵庫内での信号のランダムなフィードバックを忠実に再現して時系列データの学習を可能にしており、深層ニューラルネットワークに比べて、効率的・高速・シンプルで、生物の脳の仕組みに近い機械学習アーキテクチャーとされている。

AIロボットが何をつかんだかを判別可能に―九州工業大学、マテリアルベースのリザバー演算素子開発とロボティクスへの応用に成功

ところが、リザバー演算を既存コンピューター上でソフトウェアだけで行うことは技術的に難しく、ハードウェアからアプローチするパラダイムシフトが不可欠とされる。そこで、ソフトウェアと並行して物理的な挙動を演算ツールとして用いる「物理リザバー」が研究されている。なかでも九州工業大学の手法は、物理的挙動を示すマテリアル自身に演算を担わせる「マテリオRC」という新しい試みだ。

研究では、SWNT/Por-POMによるリザバーからなるランダムネットワークを作り、トヨタ自動車の生活支援ロボット「ヒューマンサポートロボット」のロボットハンドから得られた物体把持のセンシングデータを入力信号として使用した。それにより、異なる物を正しく分類する「インマテリオRCタスク」に成功した。

現在、画像による物体認識は広く行われているが、光量が少ない暗い場所では誤判定が生じる。そのため、特に介護の現場などでは触覚センサーによる把持物体認識の併用が重要になってくる。九州工業大学では、「生物学的なインターフェースで効率的な計算を実現できる、マテリアルベースのRCが賢い選択だということが今回の結果で示されました」と話している。SWNT/Por-POMは近い将来、「脳と同等の情報処理能力を持つと期待され、時系列予測や音声認識など他の複雑なAI問題に応用すること」が可能になるということだ。

この研究は、九州工業大学ニューロモルフィックAIハードウェア研究センターの田中啓文教授、田向権教授らからなる研究グループと、大阪大学の小川琢治元教授、カリフォルニア大学ロサンゼルス校のジムゼウスキー教授との共同によるもの。

BMWの製造施設に車両を自律走行させるV2XセンサータワーをSeoul Roboticsが導入

AIベースの知覚ソフトウェア会社Seoul Robotics(ソウルロボティクス)は、自動車やトラック輸送のファーストマイルおよびラストマイルの物流ハブを、1つのセンサータワーがオーケストラの指揮者のようにフリートの動きを制御し、数百台の車両を所定の位置に誘導するような集合体にしたいと考えている。

BMWとの2年にわたる試験的な技術提携を経て、Seoul RoboticsはCESで、ミュンヘンの製造施設における車両物流の自動化という、同社にとって初の商業展開を発表した。「インフラによる自律走行」と呼んでいる技術を展開する。

Seoul Roboticsの最新製品であるレベル5コントロールタワー(LV5 CTRL TWR)によって誘導される車両は、それ自体が自律走行するものではない。同社CEOでのHanBin Lee(ハンビン・リー)氏によると、必要なのは自動変速機とコネクティビティだけだという。

Seoul Roboticsの3D知覚ソフトウェア「Sensr」を搭載したセンサーとコンピュータの網が、施設内のインフラに戦略的に配置される。そして、そのインフラが車両を取り巻く環境の情報を感知し、計算を行い、予測を立て、車両に指令を送る。リー氏は、この作業を人間の安全オペレーターや人間がまったくループに入ることなく安全に行うことができると話す。

BMWでは、LV5 CTRL TWRは主に施設内に配置された約100個のLiDARセンサーに頼っているが、将来的にはセンサーの冗長性のためにカメラやレーダーも導入したいとリー氏は話す。

自動走行車企業の多くは、都市部や高速道路での走行を可能にする独自のセンサーや計算処理能力を備えた自動運転車の開発に全力を注いでいる。少なくとも自動走行貨物車の場合、開発企業は物流ハブ内の移動や、BMWの場合は新しく製造された車両を組立ラインから車両配送センターへ移動させるなど、特定の時点で人間が業務を引き継ぐ必要がある。

自律走行トラック運送会社のTuSimpleは、施設から施設まで80マイル(約128km)の高速道路を走行し、初のドライバーなしプログラムを成功させたばかりだが、同社はまだ地上での特定のオペレーションを管理するために人間を必要としている。Waymo(ウェイモ)は、人間のドライバーがファーストマイルとラストマイルの配送を担う自動運転とマニュアル運転を組み合わせたトランスファーハブモデルを促進するために、自律走行トラック輸送ハブを建設している

LV5 CTRL TWRは高速道路に配備されることを想定していない。むしろOEM、トラック運送会社、レンタカー会社、そして潜在的には空港のファーストマイルとラストマイルにおけるギャップを埋め、コストを削減することを目的としている。

「施設の性質上、駐車場は非常に狭く、この狭い施設内を多数の車両が走り回ろうとします。誰かがそれを指揮し、誰かがコントロールタワーとなって、車両が正しいタイミングで指定の場所に入ることを確認する必要があります」とリー氏はTechCrunchに語った。「たとえ車両がいつか自律走行するようになったとしても、レベル5のコントロールタワーは必要です。というのも、車両管理システムだからです。レベル4やレベル5はいうまでもなくかなり先の話ですが、一方でこのシステムは、基本的に非常に限られたスペースでロボタクシーとしてのメリットをすぐに提供しています」。

OEM、レンタカー会社、トラック運送会社は、自社施設内で車両をA地点からB地点に移動させるだけの作業に何千人もの従業員を割いている。これは不必要な労働力の使用であるだけでなく、高度な訓練を受けたドライバーではなく、アルバイトであろう地元の人々が混雑したスペースを運転することによって多くの損害や事故が発生していると、リー氏は話す。

トラックの後ろやコーナー周辺など、複数の視点から情報を提供することで、センサータワーの死角をなくし、これによって衝突を減らし、より信頼性の高いプロセスを構築することができる、とSeoul Roboticsは説明する。

V2X(Vehicle-to-Everything)ソフトウェアを開発する企業が直面する課題の1つに、レイテンシーの問題がある。世界では、V2Xの制御は公共の4Gや5G LTEを通じて車両と共有されているが、Seoul RoboticsはBMWが所有・運営するような私有地で展開しているため、自社のユースケースに専用の帯域を確保できるプライベートネットワークで情報を送信している。また、これらの施設の車両の最高スピードは、時速13マイル(約20キロ)までとなっている。

私有地での自動化に高度なV2Xを使用する利点は、ドライバーなし走行の許可を得るために政府とやり取りする必要がなく、交通弱者が事故に遭うリスクがほとんどないことだと、リー氏は指摘する。

また、V2X企業がこれまで特に公道で直面してきた課題は、ハードウェアの購入と設置にともなうコストだが、物流の観点からユニットエコノミクスがうまく機能しているとリー氏はいう。

「LiDARは最近ずいぶん安くなっていて、センサー1個あたりは1000〜2000ドル(約11万6000〜23万2000円)ほど、システムのフル展開には数百万ドル(数億円)かかります」と同氏は語る。「OEMはハードウェアの費用を前払いするので、ハードウェアや設置の費用はかかりません。システム設置後は、当社は基本的に設置費用と車両1台あたりのライセンス月額費用の支払いを受けます。OEMは人件費や潜在的な損害にかかる費用を節約できるため、ROIは最短で1〜2年です」。

他の企業も同様の技術に取り組んでいる。2019年にはBosch(ボッシュ)とDaimler(ダイムラー)が共同で自動バレーパーキングの試験を行った。リー氏によれば、まだ技術を公表していないものの、BMWのギグにも入札したスタートアップが多数存在するという。

画像クレジット:Seoul Robotics

原文へ

(文:Rebecca Bellan、翻訳:Nariko Mizoguchi

BMWの製造施設に車両を自律走行させるV2XセンサータワーをSeoul Roboticsが導入

AIベースの知覚ソフトウェア会社Seoul Robotics(ソウルロボティクス)は、自動車やトラック輸送のファーストマイルおよびラストマイルの物流ハブを、1つのセンサータワーがオーケストラの指揮者のようにフリートの動きを制御し、数百台の車両を所定の位置に誘導するような集合体にしたいと考えている。

BMWとの2年にわたる試験的な技術提携を経て、Seoul RoboticsはCESで、ミュンヘンの製造施設における車両物流の自動化という、同社にとって初の商業展開を発表した。「インフラによる自律走行」と呼んでいる技術を展開する。

Seoul Roboticsの最新製品であるレベル5コントロールタワー(LV5 CTRL TWR)によって誘導される車両は、それ自体が自律走行するものではない。同社CEOでのHanBin Lee(ハンビン・リー)氏によると、必要なのは自動変速機とコネクティビティだけだという。

Seoul Roboticsの3D知覚ソフトウェア「Sensr」を搭載したセンサーとコンピュータの網が、施設内のインフラに戦略的に配置される。そして、そのインフラが車両を取り巻く環境の情報を感知し、計算を行い、予測を立て、車両に指令を送る。リー氏は、この作業を人間の安全オペレーターや人間がまったくループに入ることなく安全に行うことができると話す。

BMWでは、LV5 CTRL TWRは主に施設内に配置された約100個のLiDARセンサーに頼っているが、将来的にはセンサーの冗長性のためにカメラやレーダーも導入したいとリー氏は話す。

自動走行車企業の多くは、都市部や高速道路での走行を可能にする独自のセンサーや計算処理能力を備えた自動運転車の開発に全力を注いでいる。少なくとも自動走行貨物車の場合、開発企業は物流ハブ内の移動や、BMWの場合は新しく製造された車両を組立ラインから車両配送センターへ移動させるなど、特定の時点で人間が業務を引き継ぐ必要がある。

自律走行トラック運送会社のTuSimpleは、施設から施設まで80マイル(約128km)の高速道路を走行し、初のドライバーなしプログラムを成功させたばかりだが、同社はまだ地上での特定のオペレーションを管理するために人間を必要としている。Waymo(ウェイモ)は、人間のドライバーがファーストマイルとラストマイルの配送を担う自動運転とマニュアル運転を組み合わせたトランスファーハブモデルを促進するために、自律走行トラック輸送ハブを建設している

LV5 CTRL TWRは高速道路に配備されることを想定していない。むしろOEM、トラック運送会社、レンタカー会社、そして潜在的には空港のファーストマイルとラストマイルにおけるギャップを埋め、コストを削減することを目的としている。

「施設の性質上、駐車場は非常に狭く、この狭い施設内を多数の車両が走り回ろうとします。誰かがそれを指揮し、誰かがコントロールタワーとなって、車両が正しいタイミングで指定の場所に入ることを確認する必要があります」とリー氏はTechCrunchに語った。「たとえ車両がいつか自律走行するようになったとしても、レベル5のコントロールタワーは必要です。というのも、車両管理システムだからです。レベル4やレベル5はいうまでもなくかなり先の話ですが、一方でこのシステムは、基本的に非常に限られたスペースでロボタクシーとしてのメリットをすぐに提供しています」。

OEM、レンタカー会社、トラック運送会社は、自社施設内で車両をA地点からB地点に移動させるだけの作業に何千人もの従業員を割いている。これは不必要な労働力の使用であるだけでなく、高度な訓練を受けたドライバーではなく、アルバイトであろう地元の人々が混雑したスペースを運転することによって多くの損害や事故が発生していると、リー氏は話す。

トラックの後ろやコーナー周辺など、複数の視点から情報を提供することで、センサータワーの死角をなくし、これによって衝突を減らし、より信頼性の高いプロセスを構築することができる、とSeoul Roboticsは説明する。

V2X(Vehicle-to-Everything)ソフトウェアを開発する企業が直面する課題の1つに、レイテンシーの問題がある。世界では、V2Xの制御は公共の4Gや5G LTEを通じて車両と共有されているが、Seoul RoboticsはBMWが所有・運営するような私有地で展開しているため、自社のユースケースに専用の帯域を確保できるプライベートネットワークで情報を送信している。また、これらの施設の車両の最高スピードは、時速13マイル(約20キロ)までとなっている。

私有地での自動化に高度なV2Xを使用する利点は、ドライバーなし走行の許可を得るために政府とやり取りする必要がなく、交通弱者が事故に遭うリスクがほとんどないことだと、リー氏は指摘する。

また、V2X企業がこれまで特に公道で直面してきた課題は、ハードウェアの購入と設置にともなうコストだが、物流の観点からユニットエコノミクスがうまく機能しているとリー氏はいう。

「LiDARは最近ずいぶん安くなっていて、センサー1個あたりは1000〜2000ドル(約11万6000〜23万2000円)ほど、システムのフル展開には数百万ドル(数億円)かかります」と同氏は語る。「OEMはハードウェアの費用を前払いするので、ハードウェアや設置の費用はかかりません。システム設置後は、当社は基本的に設置費用と車両1台あたりのライセンス月額費用の支払いを受けます。OEMは人件費や潜在的な損害にかかる費用を節約できるため、ROIは最短で1〜2年です」。

他の企業も同様の技術に取り組んでいる。2019年にはBosch(ボッシュ)とDaimler(ダイムラー)が共同で自動バレーパーキングの試験を行った。リー氏によれば、まだ技術を公表していないものの、BMWのギグにも入札したスタートアップが多数存在するという。

画像クレジット:Seoul Robotics

原文へ

(文:Rebecca Bellan、翻訳:Nariko Mizoguchi

フェアリーデバイセズが首掛け型ウェアラブル機器THINKLETの指向性集音機能をNTTテクノクロスと共同開発

フェアリーデバイセズが首掛け型ウェアラブル機器THINKLETの指向性集音機能をNTTテクノクロスと共同開発

産業用の音声認識技術やエッジAIデバイスの開発提供を行うフェアリーデバイセズは1月5日、首掛け型ウェアラブルデバイス「THINKLET」(シンクレット)のための高度な指向性集音エッジソフトウェアを、NTTテクノクロスと共同で試作開発したことを発表した。同試作ソフトウェアは「LINKLET(インテリジェントマイク版)」として、1月5日より開催のデジタル技術見本市「CES 2022」に参考出展する。

THINKLETは、スマートフォン同等の処理性能とLTE通信機能を備える現場向けのウェアラブルデバイス。音声や内蔵カメラで撮影した画像などの現場データの収集・学習・自動化・支援を可能にする「コネクテッドワーカーソリューション」だ。広角カメラに加え、高性能なマイクを複数搭載するほか、エッジAI処理や5チャンネル・マイクアレイを活用した指向性集音機能で、工場や作業現場などの雑音の大きい場所で、会話や特定方向の音を聞きやすくするという。「THINKLET Cloud」に接続されていることから、現場の声のテキスト化も可能。

またフェアリーデバイセズは、その応用ソーリューションの1つとして、ZoomやMicrosoft Teams(2022年春頃めどにリリース予定)に対応し、1人称視点での遠隔支援・ライブストリーミングをハンズフリーで実現するウェアラブルプロダクトのLINKLETを展開している。フェアリーデバイセズが首掛け型ウェアラブル機器THINKLETの指向性集音機能をNTTテクノクロスと共同開発

これまでフェアリーデバイセズは、多チャンネルマイクを利用したフロントエンド音響信号処理、雑音抑制、発話区間抽出、エコーキャンセル、ボイスウェイクアップなどの技術を複合した音声エッジAIライブラリー「mimi XFE」を提供してきたが、そこにNTTテクノクロスのインテリジェントマイク技術を組み合わせることで、高度で柔軟な指向性集音機能が実現されたという。

THINKLETは、すでにその指向性集音機能が評価されているが、今回の共同開発では雑音抑圧性能が大きく向上した。また、指向性を自由に制御できるようになり、装着者の声、目の前にいる人の声、特定方向の機械音などを選択的に聞くことが可能になった。これらにより、熟練作業者による円滑な遠隔作業支援、現場作業の対話記録、音声対話AIによる作業指示、機器の異常音検知などの性能が向上する。

フェアリーデバイセズが首掛け型ウェアラブル機器THINKLETの指向性集音機能をNTTテクノクロスと共同開発

今後は、革新的な音声フロントエンド処理のための技術開発を共同で進め、THINKLETを導入している現場からデータを集め活用することで、「世界中の現場DXに積極的に貢献」すると、フェアリーデバイセズでは話している。

まるで畑のルンバ!? 作業状況をスマホで確認できる自律制御型電動トラクターDeer 8Rが2022年後半に市場投入

まさに畑のルンバ!? 作業状況をスマホで確認できる自律制御型電動トラクターDeer 8Rが2022年後半に市場投入

John Deere

米国の農機ブランド「ジョン・ディア」が、自律制御型電動トラクターの市販に向けた量産に入る予定だと発表しました。Deere 8Rと称するそのトラクターは2022年後半に市場投入される計画です。

農業機器の自動運転化は、農作業人口の減少への対策として各社研究を進めており、日本メーカーでもヤンマーやクボタ、井関農機などがトラクターのほか田植え機などの開発を行っています。テレビドラマ『下町ロケット』にも、クボタ製の自動運転トラクターが登場していました。

ディア・アンド・カンパニーのブランド、ジョン・ディアも早くから自律制御農機の開発を手がけておりトラクターだけでなくコンバイン、田植機、自走式ハーベスターといった機器に自動操舵システムを開発、GPSやAI制御を取り入れた製品開発をしてきました。

今回生産開始が伝えられた「Deere 8R」は、完全自律型トラクターとして開発されており、運転席はあるものの人が乗る必要はありません。トラクターは牽引車部分だけで、これに「チゼルプラウ」と呼ばれる部分を取り付けて畑を耕します。

農作業員は、畑にこのDeere 8Rを配置して必要な器具の取り付けなどを済ませれば、あとはタブレットやスマートフォンのスワイプひとつで指定した畑を自動的にすべて耕せます。その進行状況はやはりタブレットなどで随時確認可能。本体のカメラ映像をリアルタイムで確認したり、各種パラメーターを表示し、必要なら爪で掘り起こす深さや走行速度を変更することもできます。

本体には6ペアのステレオカメラとその映像を分析するローカルニューラルネットワークが搭載され、畑に存在する物体を認識します。また自機の位置はGPS信号によって把握し、あらかじめ設定したジオフェンスによってその行動範囲を制限します。

このような自律制御型の農機具は今後、高齢化や人口減少が予想される農業分野では間違いなく普及していくことでしょう。

(Source:John DeereEngadget日本版より転載)

【コラム】AI時代の「データの産業革命」:創始者たちが間違っていたこと

2010年2月、The Economist(エコノミスト)は「Data, data everywhere」というレポートを公開した。当時は、そのデータのランドスケープが実際にはどれだけ単純なものであったか、ほとんどわかっていなかった。つまり、相対的に見て、2022年に目を向けるときに直面するデータの現実を考えた場合である。

このEconomistのレポートの中で筆者は、ビッグデータをめぐる興奮から始まり、現在のデータ駆動型AIの時代に続いている「データの産業革命」に社会が突入しつつあることについて語った。この分野の多くの向きが、この革命によってより多くのシグナルを持つノイズを抑えた標準化がもたらされると期待していた。だがその代わりに、ノイズは増え、一方でシグナルはより強力になっている。つまり私たちは、ビジネス上の成果が大きくなるポテンシャルを有しながら、より困難なデータの問題を抱えているのである。

また、人工知能にも大きな進歩が見られている。それは現在のデータ世界にとって何を意味するのだろうか。私たちがいた場所を振り返ってみよう。

Economistの記事が掲載された当時、筆者はカリフォルニア大学バークレー校を離れ、同大学と共同でIntel Research(インテル・リサーチ)の研究所を運営していた。私たちは当時、今でいう「モノのインターネット(IoT)」に全面的にフォーカスしていた。

当時私たちが話していたのは、建物や自然、壁の塗料など、あらゆるものに埋め込まれた、相互に接続された小さなセンサーのネットワークについてであった。物理的な世界を計測しその現実をデータとして捉えることができるというビジョンがあり、そのビジョンに向けて理論を探求し、装置やシステムを構築していた。

私たちは将来に目を向けていた。しかし当時、データに関する一般的な熱狂のほとんどは、ウェブと検索エンジンの台頭を中心に展開していた。誰もが「ドキュメント」という形で大量のデジタル情報にアクセスできることを話題にしていた。ドキュメントとは、人間が生成し、人間が消費するコンテンツのことを意味する。

水平線の向こうに見えたのは、さらに大きな機械生成データの波だった。これは、筆者が「データの産業化」と呼んだものの1つの側面であり、データは機械駆動でスタンプアウト(型に合わせて生成)されるため、ボリュームが大幅に増加していくだろうと考えていた。そして、それは確かに起こった。

筆者が想定していた「データの産業革命」の第2の側面は、標準化の出現である。簡単に言えば、機械が生成しているものは毎回同じ形式で生成されるため、無数のソースからのデータを理解して結合することで、よりゆるやかな増幅過程を実現でるはずだ。

標準化の先例は古典的な産業革命であり、すべての関係者が交通機関や船舶のような共有リソースやプロダクト仕様を標準化するインセンティブが存在した。それはこの新しいデータ産業革命にも当てはまるように思われ、経済やその他の影響力がデータの標準化を推進するだろうと考えられた。

そのようなことはまったく起こらなかった。

実際、逆のことが起こった。「データの浪費」が大幅に増加した。これはログファイルの形式で計算量が指数関数的に増大した結果であり、標準化されたデータはわずかな増加に留まった。

そのため、統一された機械指向のデータではなく、さまざまなデータやデータ型が膨大な量となり、データガバナンスが低下した。

データの浪費や機械生成データに加えて、データを敵対的に利用するようになり始めた。これはデータに関与する人々が、その利用に対して多くの異なるインセンティブを持っていたためである。

ソーシャルメディアのデータと「フェイクニュース」に関する最近の話題を考えてみよう。21世紀初頭においては、個人だけでなく、大衆にリーチしようとしているブランドや政治的利益のために、デジタル情報をバイラルにすることの巨大な実験がなされた。

今日では、そのコンテンツの多くは実際には機械で生成されているものの、人間の消費と行動パターンに合わせたものだ。何年も前の純真な「人による、人のための」情報通信ネットワークとは対照的である。

要するに、今日のデータ生産産業は途方もなく大規模であるが、標準的なデータ表現に合わせて調整されておらず、10年余り前に筆者がこうした予測を立てたときに期待していたものではない。

イノベーションの状況:AI対人間のインプット

この10年ほどで明らかに大きく進歩したのが人工知能だ。私たちがアクセスし、処理し、モデルに取り込むことができるこの莫大なデータは、数年のうちにAIをSFから現実に変えた。

しかしAIは、ビジネスデータ処理の領域では期待していたほど有用ではない。少なくとも今のところはそうだ。自然言語処理のようなAI技術と構造化データの間には、驚くほどのずれが依然として存在する。いくらかの進展があったとしても、ほとんどの場合、データと通信して多くの成果が返ってくることは期待できない。Google(グーグル)で定量的な質問をして、テーブルやチャートが返ってくることもあるが、それは適切な質問をする場合に限られる。

AIの進歩は、スプレッドシートやログファイルなどの定量的で構造化されたデータ(IoTデータを含めて)とは、まだ大きく分離されている。結局のところ、私たちが普段データベースに入れているような従来型のデータは、画像検索や単純な自然言語による質問応答のような消費者向けアプリケーションよりも、AIで解読するのがはるかに困難であるということだ。

例えば、Alexa(アレクサ)やSiri(シリ)にデータのクリーニングを頼んでみよう。おもしろいが、あまり役に立たない。

AIの一般的なアプリケーションは、まだ従来のデータ産業には投影されていないが、努力不足のためではない。大学や企業の優秀な人材の多くは、従来の記録指向のデータ統合問題の難解な部分を打破できていない。

しかし、完全自動化はこの業界を巧妙に回避している。その理由の1つは、人間がデータから何を得たいのかを前もって特定するのが難しいことにある。もし「これが、この700個のテーブルを使って私があなたにしてもらいたいことです」と伝え、明確な目標を達成することができれば、アルゴリズムがそのタスクを代行してくれるかもしれない。しかし実際にはそうはならない。代わりに、人々は700個のテーブルを見て、そこに何があるのだろうと思い、探り始める。何度も探し回って初めて、これらのテーブルに何が起こって欲しいのかのてがかりを得ることになるだろう。

データを利用する方法のスペースは非常に大きく、成功の度合いを示す指標は実に多様であるため、探し回ることは創造的な仕事の域を出ない。最適化アルゴリズムにデータを渡して、最適な結果を見つけることはできないのだ。

AIによる完全自動化を待つのではなく、人間はAIからできる限り多くの助力を得るべきである。だが実際的には、ある程度の作用を保持し、何が有用か、あるいは有用でないかを特定した上で、次のステップを特定の方向に向けるべきであろう。それには視覚化と、AIからのフィードバックの束が必要だ。

データのインパクトを把握し、データの分散を制御する

もっとも、AIが本当に力を発揮している分野の1つは、コンテンツの推薦である。結果的にコンピューターは、コンテンツをターゲットにして広めるのに恐ろしいほど効果的なのだ。いやはや、私たちはデータとAIの側面に関するインセンティブとインパクトを過小評価していたのだろうか。

当時、データとそのAIへの利用に関する倫理的な懸念は、主にプライバシーに関するものだった。人々が予約した本のデジタル記録を公共図書館が持つべきかどうかについての大きな議論を覚えている。同様に、食料品のポイントカードプログラムについても論議があった。買い物客は、食料品チェーンがいつどんな食べ物を買ったかを把握して、それに付随するアイテムについて自分たちをターゲットにすることを望まなかった。

その考え方は大きく変わった。現在、10代の若者たちは、購入した食品のブランド以上に、ソーシャルメディア上ではるかに多くの個人情報を共有している。

デジタルプライバシーが良い状態にあるとは言い難いが、今日のデータ問題の中で最悪なものではないことは間違いない。例えば、政府の資金援助を受けた俳優たちが、データを使って私たちの社会的議論に混乱を加えようとしているという問題がある。20年前はこういったものが現れるのを目にすることはほとんどなかった。何が間違った方向に向かっているのかという倫理的な問いについて、大きな意識があったようには思えない。

この要素は、私たちのデータ利用の進化における次の、そして現在進行中のものにつながる。政府と善意の立法の役割はどういったものになるだろうか。ツールがどのように使われるかを予測しなければ、賢明に管理し制限する方法を知ることは難しい。今日の私たちは、データに関するコントロールやインセンティブ、そしてデータがどのように公表されるのかを理解する必要があるように思われるが、テクノロジーは社会がリスクや保護を理解するよりも早く変化している。控えめに言っても、それは不安を感じさせる。

さて、予想は的を得ていたのだろうか?

教授としては合格点を与えたいと思うが、Aにはしたくない。私たちが想像していたよりもはるかに多くのデータが利用可能になっている。その結果、AIと機械学習、そしてアナリティクスが驚くほど進歩したが、多くのタスクではまだ表面的なものにすぎず、他のタスクにおいては旋風を巻き起こしている。次の10年、20年がこのような問題に何をもたらすのか、そして何を振り返るのか、興味深いところである。

編集部注:執筆者のJoe Hellerstein(ジョー・ヘラースタイン)はTrifactaの共同設立者兼最高戦略責任者で、カリフォルニア大学バークレー校コンピューターサイエンスのJim Gray Chair。

画像クレジット:MR Cole Photographer / Getty Images

原文へ

(文:Joe Hellerstein、翻訳:Dragonfly)

AIの利用が加速するなか、韓国のデータラベリング企業AIMMOがシリーズAで13.8億円調達

人工知能モデルのほとんどは、監視下での学習を通じて訓練される。すなわち、生データへのラベル付けを人間が行う必要がある。データラベリングは人工知能と機械学習の自動化における最も重要な部分であるが、時間のかかる面倒な作業でもある。

韓国のスタートアップAIMMO(エイモ)は、ソフトウェアと人間を使って、画像、ビデオ、音声、テキスト、センサーフュージョン(複数センサーのデータを融合する)データのラベル付けとカテゴリー分けを行なってており、企業が高速でデータラベリングを行えるAIデータ・アノテーション・プラットフォームも開発した。

AIMMOは2022年1月2日、データラベリングテクノロジーの強化と世界進出の加速を目指し、1200万ドル(約13億8000万円)のシリーズAラウンドを完了したと発表した。ラウンドにDS Asset Management、Indsutrial Bank of Korea、Hanwha Investment & Securities、S&S Investment、Toss Investment、Korea Asset Investment & Securities、およびVenture Fieldというは7社のベンチャーキャピタルが参加している。AIMMOは企業評価額を明らかにしていない。

「パンデミックは、非接触テクノロジーへの転換と、情報監視、スマートシティ、無人運転車、スマートファクトリー、ロボティクスなどAIデータが不可欠な分野でのAI利用を加速しました」とAIMMOノグローバルセールス責任者、Doyle Chung(ドイル・チャン)氏はメールインタビューで答えた。「さまざまな方向性や業界がある中、当社の焦点は主として、スマートシティと自動運転です」。

2016年に、CEOのSeung Taek Oh(オ・スンテク)氏が設立したこのスタートアップは、3種類のデータアノテーションツールを持っている。AIMMO DaaSは自動運転車企業向けセンサーフュージョンデータを管理する。AIMMO GtaaSは、ビッグデータのためのターンキー方式のプラットフォーム、そして2020年に公開されたAIMMO Enterprisesは、クラウドアーキテクチャを使ったウェブベースのSaaSアノテーションラベリングツールだ。

同スタートアップは、これらのツールを使うことでデータアノテーションプロセスを効率化し、顧客はAIモデルに集中できる、という。プラットフォームの使用料はなく、コーディングのスキルやAIMMO Enterprisesのインストールも不要で、ユーザーはChromeなどのウェブブラウザーを使ってデータのラベリングができる。AIMMO GtaaSでは、ユーザーが生データをAIMMOに送ると、検査結果が戻される、とチャン氏は話した。

AIMMO DaaSプラットフォームを使ったデータラベリングの件数と売上は2021年に対前年比200%成長した。同社のIR資料によるとAIMMOの2021年の売上は1000万ドル(約11億5000万円)だった。自動運転分野の世界的需要の高まりを受け、2022年の売上が成長することを同社は予測している。

画像クレジット:AIMMOウェブサイトのスクリーンショット

データ収集とラベリングの市場規模は、2021年に16億ドル(約1843億円)で2028年には82億ドル(約9445億円)になるとGrand View Researchの市場分析レポートは予測している

AIMMOは幅広い企業にサービスを提供しており、顧客には自動車メーカーのHyundai Motor(現代自動車、ヒョンデ・モーターズ)、自動車部品製造メーカーのHyundai Mobis(ヒョンデ・モビス)、ライドシェアリングのスタートアップ、Kakao Mobility(カカオ・モビリティー)、カー・シェアリングのスタートアップSoCar(ソーカー)、自動運転貨物輸送デベロッパーのThoreDrive(トアドライブ)などがいる。AIMMOは自動運転車以外でも、ロボティクス、光学文字認識(OCR)、スマートファクトリー、インテリジェント監視、eコマース、ロジスティック業界、通信会社のSK Telecom(SKテレコム)、インターネット巨人のNAVER(ネイバー)、Kakao(カカオ)そして日本のKomatsu(コマツ)などとも仕事をしている。

韓国拠点のスタートアップは、英国、米国、日本、ベトナムに事業所がある。チャン氏によると、2022年にはドイツとカナダにも事業所を開く予定だ。AIMMOのが今後世界市場へ進出していけば、Scale AI(スケール・エーアイ)、Playment(プレイメント)、Understand.ai(アンダースタンド・エーアイ)、Deepen AI(ディープン・エーアイ)などがライバルになる。現在同社には世界で200名の社員と1万人以上のデータ・ラベラーがいる。

画像クレジット:ScreenShot | AIMMO

原文へ

(文:Kate Park、翻訳:Nob Takahashi / facebook

混雑情報のバカンが初詣など分散参拝を支援、福岡県太宰府天満宮や三重県伊勢市主要観光地の混み具合を可視化

混雑情報プラットフォーム「バカン」が初詣など分散参拝を支援、福岡県太宰府天満宮や三重県伊勢市主要観光地の混み具合を可視化

AI×IoTを活用してあらゆる空き情報を配信するスタートアップ「バカン」は12月27日、福岡県太宰府市および三重県伊勢市観光協会との観光DXに関する取り組みを発表した。

福岡県太宰府市

太宰府天満宮は、日本屈指の人気観光スポットであるとともに初詣期間は参拝客が集中しやすく、三が日には毎年200万人が訪れるという。ただ昨今、国内外での新型コロナウイルスのオミクロン株感染拡大もあり、参拝者の快適性向上や感染拡大防止に向けて「分散参拝」の重要性が増しているという状況にある。

太宰府市との取り組みでは、太宰府天満宮参道のリアルタイム混雑情報の検知・配信(12月28日開始)を行う。太宰府市内の太宰府天満宮参道に定点カメラを設置し、リアルタイムの混雑情報を24時間自動で検知。またAIなどでそれら情報の映像解析を行うことで、混雑情報を可視化し配信する(カメラによる混雑の可視化は、個人が特定されない形で実施)。参拝者が、任意のタイミングでリアルタイムの混雑情報を把握できるなど、分散参拝しやすい環境の構築を支援する。また、同取り組みを推進し参道の混雑を抑制することで、観光客の満足度の向上や地域住民の理解につなげていくことも目指す。

混雑情報の可視化は、リアルタイム空き情報配信プラットフォーム「VACAN」を活用。VACANには混雑情報をマップ上に表示する機能「VACAN Maps」があり、今回参拝者は、専用ページとVACAN Mapsから混雑情報を確認できる。スマートフォンやPCを通し誰でも閲覧可能。

また今後、得られた混雑データを用いて混雑予測や人流解析といった新しい活用方法を含む観光DXの推進についても、太宰府市とともに検討するという。

三重県伊勢市観光協会

混雑情報プラットフォーム「バカン」が初詣など分散参拝を支援、福岡県太宰府天満宮や三重県伊勢市主要観光地の混み具合を可視化三重県・伊勢市観光協会との取り組みでは、同協会による非接触型デジタルサイネージを活用した混雑状況配信(12月27日開始)をサポートし、配信を実施する。非接触デジタルサイネージには、市内の主要観光地9カ所とそれらのリアルタイムの混雑状況が表示される。筐体に設置された赤外線センサーにより指の動きを検知することで、画面に触れることなく操作でき、各場所の詳細情報を閲覧可能。混雑状況などはすべて多言語対応しており、海外の方も利用できるそうだ。混雑情報プラットフォーム「バカン」が初詣など分散参拝を支援、福岡県太宰府天満宮や三重県伊勢市主要観光地の混み具合を可視化

伊勢神宮は、年間600万人以上が参拝し、三が日には毎年50万人の参拝客が集中するという(数値はコロナ禍前のもの)。やはり日本屈指の人気観光スポットだが、コロナ禍により分散参拝を重視するようになっている。2020年よりVACANは、伊勢市との観光DXの一環として、市内観光地の混雑情報を可視化する混雑状況配信サイト「空きです、伊勢♪」の配信・運営をサポートしてきた。

伊勢市の取り組む主要観光地の混雑データは、市内9カ所にカメラなどを設置し、リアルタイムに混雑状況を検知しAIなどを用いた画像解析により混雑状況を可視化したもの(カメラによる混雑の可視化は、個人が特定されない形で実施)。今回の取り組みでは、「VACAN Maps」および専用ページを介した混雑情報の提供に加えて、非接触型デジタルサイネージを通して混雑を確認できるようにしたという。これにより、スマートフォンやPCを持っていない方や、それらデバイスを使いにくい状況でも、利用者の利便性向上が期待できるとしている。従来以上に手軽に混雑情報を把握できるようにすることで混雑の抑制を促し、感染症などのリスクを抑えた安全な観光地の実現を目指す。

非接触型ディスプレイの設置場所

  • :JR伊勢市駅(三重県伊勢市吹上1-1-4 JR伊勢市駅構内)
  • 案内所
    ・宇治浦田観光案内所(三重県伊勢市宇治浦田1-10-25 内宮B2駐車場横)
    ・宇治山田駅観光案内所(三重県伊勢市岩渕2-1-43 近鉄宇治山田駅構内)
    ・二見浦観光案内所(三重県伊勢市二見町茶屋111-1 二見生涯学習センター内)
    ・伊勢市駅手荷物預かり所(三重県伊勢市吹上1-1-1 JR伊勢市駅正面右側)

 

日立ソリューションズ、熟練面談者のノウハウをノンコーディングでAIモデル化できる「面談支援AIサービス」開始

日立ソリューションズ、熟練面談者のノウハウをノンコーディングでAIモデル化する「面談支援AIサービス」を1月5日開始

日立ソリューションズは、熟練面談者のノウハウをノンコーディングでAIモデル化し、面談の課題解決支援に利用できる「面談支援AIサービス」を2022年1月5日から開始する。これは、スマートフォンやPCのブラウザー上において、熟練面談者のノウハウを学習したAIモデルが、面談を受ける被面談者の受け答えから表情や言葉を分析し、特性の評価予測が行えるというもの。

企業における面談には、採用面談のほかにも、事業の効率化を進めるために従業員に対して定期的に行うものもある。特に「ジョブ型人材マネージメント」では、人材の有効活用のために質の高い面談がさらに重要になってくる。しかし、面談者の経験や好みによって評価にばらつきが出たり、熟練面談者の都合がつかず、経験の浅い面談者が対応しなければならなかったり、面談者と被面談者とのスケジュールが折り合わないなど、様々な課題がある。

そこで日立ソリューションズでは、評価したい指標と、被面談者に対する熟練面談者の評価結果を学習させたAIモデルを作成可能となる「面談支援AIサービス」を開発した。これを使うことで、経験の浅い面談者でも熟練者に近い対応ができるようになるほか、被面談者の評価が定量化できるという。また、面談者が立ち会わない、アバターを使った「セルフ面談」も可能になる。日立ソリューションズは、製造や建設分野などの無期雇用派遣事業を展開するUTグループと概念検証(PoC)を行ったところ、「AIモデルの予測が熟練面談者の評価と比較しても大差なく、実用可能であることを確認」できたとのことだ。

「面談支援AIサービス」の特徴は次のとおり。

  • 定量的で高水準な評価支援:熟練面談者と同等の評価を行うAIモデルの評価予測を、面談者が参考にすることで、キャリア面談などの効率的な実施を支援
  • ノンコーディングでAIモデルを作成
    評価したい指標と、被面談者に対する熟練面談者の評価結果を学習させるだけで、効率的にAIモデルが作成できる。評価したい指標は、企業や組織、業務ごとに設定可能
  • AI育成による継続的な精度向上:AIモデルが熟練面談者の評価結果と異なる結果を出した場合は、業務のプロフェッショナルである熟練面談者が評価結果の違いをAIモデルにフィードバックすることによって、評価の精度を継続的に向上させることが可能(この機能は2022年春に導入予定)
  • 面談者の育成:経験の浅い面談者は、熟練面談者のノウハウを学習したAIモデルのスキル評価結果を活用することで、あたかも熟練面談者が寄り添うように面談を行うことができ、判断基準を学ぶことで、スキルアップを図れるという

これは、月額式のクラウドサービス。月額料金は、月あたり200回や1000回など、面談回数や用途・規模に応じて個別に見積もられる。また、画面カスタマイズ、API連携、動画の特徴量分析なども個別に対応可能とのことだ。

AIによる献立・栄養管理アプリ「おいしい健康」の買い物リスト機能がバージョンアップ、まとめ買いやSNS共有に対応

おいしい健康は12月21日、AIによる献立・栄養管理アプリ「おいしい健康」(Android版iOS版)において、レシピや献立に必要な材料を自動で一覧にして買い忘れ・買いすぎを防ぐ機能「買い物リスト」のバージョンアップを発表した。複数の献立を1つのリストにしてまとめ買いに対応したほか、SNSなどで買い物リストを共有するなどが可能となった。

おいしい健康は、健康な人からダイエット・生活習慣病対策を考えている人などの「予防・自己実現のための食事」から、何らかの病の患者・妊婦・高齢者など「医療上の制限がある人の食事」まで、幅広く支援する食事管理アプリ。難しい食事管理について、毎日のおいしい食事により誰でも行えるよう医学的な根拠(エビデンス)に基づきつつユーザーをサポートする。提示するレシピは個々のユーザーに適した栄養バランスに加えて、冷蔵庫の食材や好きな食べ物、料理の腕前、調理時間に合わせることで「究極の食のパーソナライズ」を実現するという。

今回バージョンアップされたのは、献立やレシピごとに必要な食材を表示する「買い物リスト」。新たな機能として、これまで献立やレシピごとに表示されていた買い物の内容について、複数分を1回の買い物リストとして表示可能となり、まとめ買いがしやすくなった。

さらに、買い物リストを家族やパートナー、友人とSNSやメールで共有する機能も採用。買い物を分担することで、料理を作る人の負担を軽減できる。また、過去の会物リストを日付別に自動保存する機能も新たに追加した。同じ献立を作る場合に、買い物リストを改めて作成することなく過去のリストを再利用できるようになった。このほかにも買い物を便利に、ラクにする機能が多数追加されているという。AIによる献立・栄養管理アプリ「おいしい健康」の買い物リスト機能がバージョンアップ、まとめ買いやSNSなどで共有可能に

 

同社によると、ユーザー調査において、全体の約8割が3日に1回程度の買い物をしていること、また料理の際の困りごと・負担として半数近くが「買い物に行くのが負担」と回答したという。実際、従来バージョンから買い物リスト機能の利用者は多く、機能改善の声があったことから、ユーザーの要望に応える形でバージョンアップを実施したそうだ。

2016年7月設立のおいしい健康は、AIやビッグデータ、最新の栄養科学によって「食事で病気の無い世をつくりだす」ことを目指す、ヘルスケア領域スタートアップ。献立・栄養管理支援アプリであるおいしい健康、食事タイミング支援アプリ「食べリズム」を提供している。医療機関・薬局・製薬会社と連携した患者支援、食品会社の健康領域事業を立ち上げて支援するDXヘルスマーケティング事業など、健康に関する多様な事業を通じ、世界の80億人が「いつまでもおいしく、食べられる」社会の実現を目指している。

何かと忙しい会議をスマート化、行動につなげやすくするAvomaが13.7億円調達

Avomaの共同創業者。左からアルバート・ライ氏、ディベンドラ・ロールカー氏、アディチャ・コタディア氏(画像クレジット:Avoma)

会議中にメモをとるのは、聞きながら入力し、その2つをしながら次にいう気の利いたことを考えるマルチタスクが求められる芸術的な技だ。アプリを3つか4つ準備して使い、会議後の行動につなげなくてはならない。

パロアルトを拠点とするAvomaは、会議中にやることや使うアプリが多すぎて抜けてしまうことがあるはずだと考えた。同社は会議のワークフローを自動化し、話し合いを行動につなげやすくするソフトウェアを開発した。

米国時間12月22日、AvomaはシリーズAで1200万ドル(約13億7000万円)を調達したと発表した。このラウンドを主導したのはHeadlineで、Storm Ventures、Global Founder Capital、Zoom Apps Fund、Operator Partners、Industry Venturesが参加した。これまでに投資していたK9 Ventures、Dragon Capital、Twin Venturesも参加した。Avomaのこれまでの調達金額は1500万ドル(約17億1000万円)になった。

2017年にAditya Kothadiya(アディチャ・コタディア)氏、Devendra Laulkar(ディベンドラ・ロールカー)氏、Albert Lai(アルバート・ライ)氏が創業したAvomaは、AIを活用した会議アシスタントを開発した。このアシスタントは議題のテンプレート、メモとビデオの記録、リアルタイムの文字起こし、メモの要約、参加者に対する行動喚起の機能を備えている。

CEOのコタディア氏が以前に創業したShopalizeが2013年に顧客獲得およびエンゲージメントのソフトウェアとサービスを提供する[24]7.aiに買収され、同氏は[24]7.aiに在籍した。同氏は、Avomaを使うと週に数時間を節約でき、会議の成果は平均 30%向上するという。

同氏は次のように語る。「私はプロダクトリーダーとしてしょっちゅう会議に出席し、メモを取るのに時間を費やしていました。新しいプロダクトはお客様やプロダクトマーケティングチームの手に渡りますが、会議中はメモを取るのに忙しくてどうなっているかを聞いていませんでした。これを解決するためにテクノロジーを使って何も取りこぼさないようにしたいと思ったのです」。

Avomaの会話メモ(画像クレジット:Avoma)

生産性向上ツールは新しいものではなく、世界的なコロナ禍でみんなが在宅勤務をするようになって注目を集め、採用されている。しかしコタディア氏は、Avomaは会議管理、AIアシスタント、会話インテリジェンスを1つのツールにまとめたところが他との違いで、いくつものツールを購入し続けることがなくなると考えている。

企業のCRMと統合して情報を追加したり、会議中にいつ、誰が主に話したかを見ることもできる。さらにキーワードで検索し、その時点から録音を聞く機能もある。

コタディア氏は「AIが最初の下書きをして、その後はメモを振り返って重要なところを見つけ、必要に応じてさらに補足できます」と説明した。

Avomaは新たに得た資金をAI、ユーザーインターフェイス、ワークフロー統合の3つの柱に使う計画だ。機械学習と自然言語理解機能の改善を続けて、メモを取る機能などの利用ケースを会議のライフサイクル全般にわたって自動化していく。

プロダクト開発にも投資して、フリクションの少ない優れたユーザーエクスペリエンスを提供していく。さらにAIアシスタントや企業の既存システムとの統合についても開発を続ける。

今回はAvomaが順調に成長しているタイミングでの新たな資金調達となった。同社の売上は過去3年間で毎年400%以上成長しており、顧客数は300社を超える。

同社はこの成長を小規模なチームで実現してきた。現在の従業員数は15人で2020年12月と比べると倍増しているが、コタディア氏は今回の資金により、今後1年間で北米とインドのさまざまなポジションで従業員数を4倍にするとしている。

HeadlineのパートナーであるJett Fein(ジェット・ファイン)氏は「夢中になっている顧客」を持つプロダクトに特に関心があるという。同氏はGopuffやAvomaをそうしたプロダクトと見ており、Avomaは中堅企業に選ばれ、新しいリモートの世界でセールスのプロセスをまとめる接着剤になるだろうと考えている。実際、Headlineは社内で投資としてAvomaを使い始め「たいへん気に入りました」という。

ファイン氏は次のように述べた。「Avomaによって我々のプロセスが改善されました。我々が話をしたAvomaのお客様は夢中になっていて、多くの人がこれなしではやっていけないと言っています。お客様はAvomaを使うことで仕事の効率が大幅にアップしたと言います。そうした声を頻繁に聞いて、我々の興味は大いにかきたてられました」。

原文へ

(文:Christine Hall、翻訳:Kaori Koyama)

大日本印刷とイリモトメディカル、肺がん早期発見支援など遠隔画像診断・遠隔読影ワークフローのAI活用に向け提携

大日本印刷(DNP)と、健康診断画像の診断支援や遠隔読影システムの運用などを行うイリモトメディカルは12月21日、健康診断の画像診断における事業競争力の強化と拡大を目指して資本業務提携したことを発表した。

DNPでは、2000年代からメディカルヘルルケア分野の研究開発や事業化を進めており、画像解析技術の開発に加え、診断支援サービスの提供も行っている。イリモトメディカルは、健康診断における画像診断の分野で全国139の医療機関(2021年12月現在)から年間77万件の読影依頼を受ける遠隔読影の大手事業者だ。遠隔読影とは、例えば胸部X線画像のデータを放射線診断専門医のいる施設が受け取り診断を行うことをいう。その需要は増加傾向にある。

そんな大日本印刷とイリモトメディカルが提携することで、AIの活用により画像診断のワークフローが最適化され、診断精度の向上が期待される。具体的には、イリモトメディカルが行っている遠隔読影のワークフローにAIを取り入れ、効果的・効率的な読影支援システムや業務支援システムを開発し導入することとしている。第1弾の取り組みとしては、肺結節を検出するAI診断ソフトを活用し、胸部X線画像の読影による肺がんの早期発見の支援を挙げている。今後は、画像診断できる部位や疾病を増やしてゆくという。

これによりイリモトメディカルは、読影のさらなる高速化、高品質化を目指し、診断精度の向上と、読影医師の業務負担の軽減を図るということだ。