ゲーム: この写真は本物の顔か?それともコンピューターが作り出した顔か?

コンピューターは最近ますます、人の心を落ち着かなくさせるような技能に秀(ひい)でてきた。それは、実在しない人間の顔を作り出すことだ。そしてコンピューターは、かつて存在したことのない人間の画像を作れるようになった。

今週、ThisPersonDoesNotExistが、このコンセプトをヴァイラルに広めるような役割を演じた。このWebサイトは、コンピューターが作り出した新しい顔を数秒間隔で次々と見せてくれる。そして、その…ときどき気持ち悪くなるような…猫バージョンが、ThisCatDoesNotExistだ。

しかも今度は、それがゲームになった。顔の画像を見て、どれが本物の人間か当てるゲームだ。(ネタバレ: そのゲームによると、上図の8つの顔はどれもコンピューターが作った顔だ。)

その名もまさしくWhichFaceIsReal(どの顔が本物)と呼ばれるそのサイトは、二つの画像を並べて表示する。どちらかが本物、他方がコンピューターが作った顔だ。このゲームを作ったのはワシントン大学の二人のプロフェッショナルで、上の二つのサイトと同じ技術を使っている。そのStyleGANと呼ばれるアルゴリズムを、Nvidiaのチームが最近オープンソースにした。このアルゴリズムは、二つのニューラルネットワークを対戦させる。一方は偽の顔の画像を作り、他方が偽を判定する。

現時点では、どれが本物か当てるのは不可能だ。でも、しばらくプレーしていると、もしかしてあなたなら、コンピューターが犯す間違いに気づくかもしれない。ゲームの作者も、いくつかの問題を指摘している。顔に水滴のようなしみがあったり、笑顔の口の前歯の数が多すぎたり…。

しかし、あなたがその90%を正しく当てたとしても、もしも偽の顔が、本物の顔とこれほど意図的なまでに対照的でなかったら、果たして当てることができただろうか? つまり偽の顔のどれかが、インターネット上のプロフィールのランダムな写真のような出来栄えだったとしたら、あなたは何も感じずにそれを見過ごしただろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

OCR、自然言語処理、データ予測などAIプロダクトを複数提供するCogent Labsが資金調達

手書き文字をデータ化するOCRプロダクトの「Tegaki」などを提供するCogent Labsは1月30日、SBIインベストメント、京都電子計算、TIS、野村ホールディングス、みずほ銀行、三井住友信託銀行、および個人投資家から資金調達を実施したと発表した。金額は非公開。

Cogent Labsが手がけるサービスは3つある。金融機関や自治体向けに導入が進む手書き文字の読み取りサービス「Tegaki」、ニュース分析などに利用する自然言語文章の分析エンジン「Kaidoku」、金融業界などで利用できる時系列データ予測エンジンの「TSF」などを展開している。

このようにAI関連技術を応用して複数のプロダクトをCogent Labsは国内外から優れたAI人材を採用し、技術の研究開発にも積極的だ。世界20カ国からAI人材を採用し、従業員は現在66名となっている。また、2018年10月にはイギリスのUniversity College Londonとのパートナーシップを発表。人間の脳と同じ仕組みでAIが思考する「モジュラーAI」という次世代AI技術を共同で研究していくという。

同社は今回調達した資金を利用して、既存サービスの強化、および上記のようなAI技術を応用した新規サービスの開発を進めるという。

AIスタートアップのシナモンが15億円調達、サントリー代表の新浪氏がアドバイザーに

文書読み取りエンジン「Flax Scanner」などを展開するシナモンは1月28日、SBIインベストメント、未来創生ファンドなどから15億円を調達したと発表した(融資含む)。また、2月1日よりサントリーホールディングス代表取締役の新浪剛史氏がアドバイザーに就任することも併せて発表された。今回のラウンドに参加した投資家は以下の通り。

  • SBIインベストメント
  • FFGベンチャービジネスパートナーズ
  • 伊藤忠テクノソリューションズ
  • Sony Innovation Fund
  • TIS
  • 未来創生ファンド
  • 野村ホールディングス
  • 住友商事
  • SMBCベンチャーキャピタル
  • 千本倖生氏
  • 石黒不二代氏

シリアルアントレプレナーの平野未来氏が率いるシナモンは、AIによってホワイトカラーの生産性を向上させることを目指すスタートアップだ。文書を読み取るOCRサービスのFlax Scanner、チャットボットの「Scuro Bot」、レコメンデーションエンジンの「Lapis Engine」などを展開している。また、直近では音声認識技術の「Rossa Voice」をプレローンチし、実証実験を開始している。

なかでも、同社の主力プロダクトであるFlax Scannerは読み取り精度が実データで95〜98%と高精度であることが特徴。独自にデータベースを構築することで、読み取りデータを自動補正するなどの機能もある。保険証や免許証のようにフォーマットが国単位で統一されている場合は、機械学習によって記載された文字を読み取ることは技術的なハードルは低い。しかし、Flax Scannerでは、例えばアンケート用紙などのように、統一されていないフォーマットでも高い精度で読み取りが可能だ。

今回の資金調達は2018年6月に実施したシリーズBに次ぐもの。同社は今回の資金調達により、海外におけるAI人材の獲得、AIプロダクトの基盤技術やプロダクトUIの強化などを進める。加えて、2018年12月に設立が完了したアメリカ法人を拠点に、今年から海外進出を本格化させていく構えだ。

地球規模のカオスに隠されたパターンを抽出するAIを創るDARPA

複雑系の因果関係に関するもっとも有名な説明として、一匹の蝶が羽ばたくと、地球の裏側で台風が発生する、というものがある。その説明は思考を刺激してくれるかもしれないが、結局のところ役に立つことはない。われわれが本当に必要としているのは、1つの台風に注目したとき、それを引き起こした蝶がどれなのかを突き止めること。そして、できればその前に、その蝶が飛び立とうとするのを防ぐことだ。DARPA(米国防総省国防高等研究事業局)は、AIによってまさにそれが可能になるはずだと考えている。

この研究機関の新しいプログラムは、毎日のように発生する無数のできごとや、メディアの記事をふるいにかけて、それらの中に含まれる関連性の糸口、あるいはストーリーを識別できる機械学習システムを作ることを目指している。それはKAIROS(Knowledge-directed Artificial Intelligence Reasoning Over Schemas=スキーマによって推論する知識指向の人工知能)と呼ばれている。

ここで言う「スキーマ」は、非常にはっきりした意味を持っている。人間が自分の周囲の世界を理解する際に使う基本的なプロセス、という考え方だ。それによって人間は、関連するできごとを小さなストーリーにまとめている。たとえば、店で何かを買う場合を考えてみよう。通常は、まず店に入ってモノを選び、それをレジに持っていく。すると店員がそれをスキャンして、あなたはお金を払う。その後で店を出るのだ。この「何かを買う」というプロセスは、誰にでも分かるスキーマだろう。もちろんその中には別のスキーマ(製品を選ぶ、お金を払う)を含むことができるし、それがまた別のスキーマ(贈り物を送る、家で料理を作る)に含まれることもある。

こうしたことは、われわれの頭の中で想像するのは簡単だが、コンピュータシステムが理解できるよう、明確に定義することは驚くほど難しい。人間にとっては、長い間慣れ親しんできたことであっても、自明のこととは限らないし、法則に従っているわけでもない。重力加速度によってりんごが木から落ちるのとはわけが違うのだ。

しかも、データが多ければ多いほど、定義するのは難しくなる。何かを買う、というのはまだ簡単な方だ。冷戦や弱気市場を認識するスキーマは、どのように作り出せばよいのだろうか? それこそが、DARPAが研究したいところなのだ。

関連記事:この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

「山のような情報、そしてその中に含まれる静的な要素の中から関連性を発見するプロセスには、時間的な情報とイベントのパターンが必要となります。現在利用可能なツールやシステムでは、そうしたことを大規模に実行するのは難しいのです」と、DARPAのプログラムマネージャ、Boyan Onyshkevychは、ニュースリリースで述べている

同機関によれば、KAIROSは、「一見何の関係もないように見えるできごとやデータを認識して相互関係を導き出し、われわれを取り囲む世界に関する幅広いストーリーを作り、伝えることの可能な、半自動のシステムを開発することを目指している」ということだ。

どうやって? 彼らには漠然としたアイデアはあるのだが、専門知識を求めているところだ。問題は、そうしたスキーマは、今のところ人間が労力をかけて定義し、検証する必要があるということ。それなら、最初から人間が情報を調べたほうがマシということになりかねない。そこで、KAIROSプログラムは、それ自身を教化するAIも組み込もうとしている。

初期のシステムは、大量のデータを取り込んで、基本スキーマのライブラリを構築することに限定される。本を読んだり、ニュース記事を追ったりすることによって、上で述べたような、候補となるスキーマの長大なリストを作成できるはずだ。さらにそれによって、愛、人種差別、所得格差など、AIによって扱うことが難しい問題に対するより広範囲でつかみどころのないスキーマに関するヒントを得ることができるかもしれない。また、その他の問題が、それらとどう関わってくるか、あるいは異なるスキーマ同士の関連性についても得るものがありそうだ。

その後で、複雑な現実世界のデータを調べ、作成したスキーマに基づいて、イベントやストーリーを抽出することができるようになる。

軍事および防衛面への応用は、非常に明らかだ。たとえば、すべてのニュースやソーシャルメディアの投稿を取り込んで、銀行の取り付け騒ぎ、クーデター、あるいは衰退傾向にあった派閥の再興などの発生の可能性を管理者に通知するようなシステムが考えられる。諜報活動員は、今現在もこのようなタスクに全力を尽くしている。人間が関わることは、ほぼ間違いなく避けられないだろうが、「複数のソースから備蓄が報告されています。化学兵器による攻撃の記事が広くシェアされ、テロリストによる攻撃の可能性が指摘できます」などと報告してくれるコンピュータのコンパニオンがいれば、歓迎されるだろう。

もちろん、現時点ではそうしたことはすべて純粋に理論的なものだが、だからこそDARPAが研究しているわけだ。その機関の存在意義は、理論を実用化することにあるのだから。もし失敗したら、少なくともそれが不可能であると証明しなければならない。とはいえ、現在のAIシステムのほとんどが、非常に単純なものであることを考えれば、彼らが創ろうとしているような洗練されたシステムは、想像するだけでも難しい。まだ道のりが長いことは間違いない。

画像クレジット:agsandrewShutterstock

原文へ

(翻訳:Fumihiko Shibata)

AIがビデオチャットに映る自分を自動でメイク、背景ぼかしも可能な「PerfectCam 2」

スタートアップで働く人や起業家のみなさんは、普段からビデオチャットで社内外の人と話す機会も多いと思う。僕もその1人で、直接会って話すほかにビデオチャットで取材を行うことも多い。

でも、そんな時に気になってしまうのが自分の画面に映る背景だ。自宅からビデオチャットをする時なんかは、ちょっと気を抜くと干しっぱなしの洗濯物が写り込んでしまうなんてこともある。オフィスの壁やホワイトボードに事業計画などの情報を書くことも多いであろう起業家のみなさんも、この「ビデオチャット背景問題」には共感してくれるはずだ。

その背景問題を解決してくれるサービスが登場したので紹介しておこう。台湾のテクノロジー企業であるサイバーリンクが本日発表したWebカメラプラグイン「PerfectCam 2」だ。

PerfectCamでは顔認識技術によって人物と背景を見分け、背景のみをぼかすことができる。リアルタイムで輪郭を抽出してぼかし効果を入れるので、ビデオに映る人物が動いていてもOKだ。これがあれば、背景に写り込んだ下着も黒い物体ぐらいにしか見えないだろう。ぼかしの度合いはスライダーで調節可能なほか、ビデオチャットに映る自分に美肌効果を加えるなんてこともできる。

ぼかし機能に加えて、PerfectCamには「ARバーチャルメイク機能」も搭載されている。これは、AR技術を利用してAIが自分の顔にお化粧をしてくれるという機能だ。プリセットとして用意されたメイクは9種類。ビデオ会議が始まる5分前までうっかり寝てしまっていたとしても大丈夫だ。

PerfectCamはTwitch、YouTube Live、Facebook Liveなどライブ配信プラットフォームのプラグインとしても機能する。だから、Web会議などの用途だけではなく、YouTuberが背景をぼかす必要のある場所で撮影を行うときなどでも利用できるだろう。PerfectCamのホーム画面からSkypeやGoogle hangoutsなどのビデオチャットアプリを直接起動することも可能だ。

PerfectCam 2はサイバーリンクのオンラインストアから購入可能。1500円の1ヶ月プラン、3780円の3ヶ月プラン、1万4580円の12ヶ月プランの3種類が用意されている。また、1月末には法人向けプランも始まる予定だ。

下の動画を観ていただくと分かるように、PerfectCamのバーチャルメイク機能とぼかし機能はかなり高いクオリティで実装されていると思う。気になる人はこちらのオンラインストアからチェックしてみるといいだろう。

AI時代のカスタマージャーニー強化法

テクノロジーは何百年もの間、世界で経済成長の礎(いしずえ)の役割を果たしてきた。それは直近の3つの産業革命を支えており、いまや様々な分野に出現しつつあるテクノロジーによって示される、第4次産業革命の原動力になっている。

当然のことながら、人工知能はこの新しい革命を推進する重要な技術の1つだ。現代コンピューターサイエンスの父、アラン・チューリングが、1950年代に述べたように、「私たちが望むのは、経験から学ぶことができる機械である」。彼の論文”Computing Machinery and Intelligence”(計算する機械と知性について)は、ニューラルネットワークとコンピューター知性をいかに計測すべきかについての最も初期の記述である。AIのコンセプトは新しいものではないものの、私たちはAIが企業の中の実際のビジネス価値を、ようやく推進しようとしている局面に立ち会っているのだ。

今日の企業は、AIを活用して顧客、パートナー、従業員のエクスペリエンスを強化し改善しようとしている。しかし、多くの人がまだ認識していないことは、AIの良さはそれをサポートするAPIの良さに左右されるということだ。

たとえば、私たちは会話型コマースの登場を目にしている。そこでは消費者たちはAlexaやSiriのようなデジタル音声アシスタントを介して、ビジネスやサービスとの対話を行うのだ。ここでは非常に重要な2つのことが起きている。第1に、音声アシスタントは、音声コマンドを理解するためにAIと機械学習技術(別の言葉で言えば、大量の既存データを使用して訓練されたアルゴリズム)を利用する。第2に、音声アシスタントは、そうしたコマンドを実行するために、対応する仕事を行ってくれるAPIを提供しているバックエンドサービスを呼び出す。例えばそうしたバックエンドサービスには、データベースから製品情報を取り出したり、注文管理システムに注文を投入したりするものが含まれるだろう。APIたちこそがAIを本当に役に立つものにするのだ。それなしには、AIモデルの価値は企業には開放されない。

AIの課題

多くの企業がAIベースのシステムを導入し始めている。ガートナーが最近行った3000人以上のCIOに対する調査によれば、21%は既にAIへのパイロットプロジェクトや短期計画に取り組んでいると回答している。また別の25%は、中長期計画を持っていると答えている。

しかし多くの企業では、チャットボット経由のクエリや、AIや機械学習ベースのプラットフォームを通じたレコメンデーションを、顧客に提供するポイントソリューションとしてAIを採用している。だがこうしたポイントソリューションは、カスタマージャーニー全体へ影響する力を持っていない。現代のデジタルワールドにおけるカスタマージャーニーは複雑で、その対話は様々なアプリケーション、データソース、そしてデバイスの上に散らばっている。ビジネスにとって、企業の中にある全てのアプリケーションサイロ(例えばERP、CRM,メインフレーム、データベースなど)を横断して、データを開放し統合して顧客の全方位像を作り上げることは非常に困難である。

では、AIを実現するために、企業はこうした情報システムをどのように開放すればよいのだろうか?その答えはAPI戦略だ。フォーマットやソースに関係なく、システムを横断して安全にデータを共有できる能力を持つAPIは、企業の神経システムになる。適切なAPI呼び出しを行うことによって、AIモデルと対話するアプリケーションは、AIシステム(あるいは脳)が提供する洞察に基づいて、実行可能なステップを遂行することができる。

APIはAIをどのように活かすのか

成功するAIベースのプラットフォームを構築するための鍵は、組織全体の開発者たちによって容易に見つけることができて、利用することができる一貫したAPIを提供することに、投資を行うことだ。幸運なことに、APIマーケットプレイスが登場したことにより、ソフトウェア開発者がゼロからすべてを作成するために汗を流す必要はなくなっている。その代わりに、開発作業を加速するために、社内外の作業を発見して再利用することができる。

さらにAPIは、適切な情報へのアクセスを可能にすることによって、AIシステムのトレーニングを支援する。APIはまた、幅広いアプリケーション環境で、神経システムであるコミュニケーションチャネルを利用できるようにすることで、AIシステムがカスタマージャーニー全体に作用する能力を提供する。適切なAPIを呼び出すことで、開発者はAIシステムによって提供される洞察に基づいて振る舞うことができる。例えばAlexaやSiriは、バックエンドのERPシステムに対して、ブリッジなしで直接顧客の注文を行うことはできない。APIはそのためのブリッジとしての役割を果たすだけでなく、将来的にもそのERPシステムが他のアプリケーションと対話するために再利用される。

APIは、レガシーシステムからデータを開放したり、データをプロセスに組み込んだり、そしてエクスペリエンスを提供したりするといった、特定の役割を果たすために開発されている。サイロ化されたシステム内に閉じ込められたデータを開放することで、企業はデータの可用性を企業全体から手の届くものにするのだ。開発者は、データソースを選択してAIモデルをトレーニングし、AIシステムを企業の広範なアプリケーションネットワークに接続して実行することができる。

AIを使用してカスタマージャーニーを強化する

AIシステムとAPIが共に活用されて、適応性に優れた実行プラットフォームとなるにつれて、カスタマージャーニーは劇的に変化する。次のようなシナリオを考えてみよう:ある銀行が、家の売買を考えている顧客を対象としたモバイルアプリを提供しているとする。このアプリの中では、顧客は関心のある不動産を簡単に指定することが可能で、たとえば不動産の売買履歴情報や、近隣の情報、そして市場動向などの豊富な情報が、すぐにAPIを通して提供される。顧客は、アプリケーションでAI対応のデジタルアシスタントと対話して、融資の承認やローン金利を含む、ローン申請プロセスを開始することができる。モバイルアプリから取得された全てののデータは、エラーを減らし顧客に迅速で優れた体験を提供するために、住宅ローンプロセスにフィードバックされる。

企業はAIシステムの潜在的な可能性を、顧客にとって真に差別化された価値を生み出すための適応型プラットフォームを構築するといった戦略的なレベルでは、真に実現していない。ほとんどの組織では、AIを活用して大量のデータを分析し、顧客を引きつけるための洞察を取り出しているが、十分に戦略とは言えない。戦略的な価値は、こうしたAIシステムが、企業の幅広いアプリケーションネットワークに組み込まれて、パーソナライズされた1対1のカスタマージャーニーを推進できるようになったときじ実現できる。API戦略を導入することで、企業はAIが提供すべき可能性の完全な実現に向かって進み始めることができるのだ。

[原文へ]
(翻訳:sako)

QualcommがSnapdragon 855と新しいアンダーディスプレイ指紋センサーを発表

今週Qualcommは、マウイで今年のSnapdragon Summitを開催して、プレスやアナリストたちももてなしている。残念ながら行けなかったわれわれにも、Qualcommは2週間前にそのニュースのプレビューをくれている。その三日間を同社は、5Gへのフォーカスで幕開けすることに決め、また新製品Snapdragon 855モバイルプラットホームのプレビューもあった。そのほか同社は、ディスプレイの裏に実装する超音波利用の指紋判読センサーの発表も行った。

おたくのご近所に5Gのタワーが出現するのはまだ先の話だと思うが、その話題は数年前から過熱しているから、そろそろ5Gが現実になる、と言っても過言ではないだろう。AT&TとVerizonは今週マウイで5Gのネットワークをデモしている。Qualcommによるとそのイベントは、“5Gのお披露目パーティー”だそうだ。今後数か月間はたくさんの参入企業が、これと同じ言葉を使うだろうね。

短期的にそれよりおもしろいと思われるのは、同社が同じく今日(米国時間12/3)発表した新たなフラグシップ、855モバイルプラットホームだ。記者やアナリストたちに詳細は提供されなかったが、同社は855が“世界初のマルチギガビット5Gをサポートする商用のモバイルプラットホームだ”、と強調した。

また855は新しいマルチコアAIエンジンも目玉で、前のモバイルプラットホームに比べ3倍のAIパフォーマンスを提供、さらにまた、コンピュータービジョン専用シリコンにより、高性能なコンピューテーショナルフォトグラフィー(GoogleのNight Light的なもの)やビデオキャプチャーがサポートされる。

この新しいプラットホームはゲーム用に最適化されている、と同社は言う。そのプロダクト名
は“Snapdragon Elite Gaming,”だが、詳細は不明。さらにARの追究も継続し、Qualcommはそれを“extended reality”という独自のブランドで呼んでいる。

でも今回いちばんおもしろいのは、ニュースの最後に登場した脇役かもしれない。すなわち指紋センサーが今やスタンダードになり、中級機のスマートフォンにも載る。その新しい3D Sonic SensorsでQualcommは、ディスプレイの裏に鎮座する高性能超音波指紋ソリューションを約束する。ある意味でこれは、Qualcommの既存のディスプレイ直下型センサーの新しいブランド名だが、新しい技術もある。そこで今回の売りは、指紋スキャナーが、汚れたディスプレイや、ユーザーが画面保護膜を使っていても、十分に機能するという点だ。目の前に迫っているMobile World Congressには、この新しい指紋スキャナーを搭載した新しいフラグシップスマートフォンが、かなりの数、登場するのかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが日本のAI/ML企業ABEJAに投資

GoogleがAIと機械学習を手がける日本のABEJAに出資した。Googleが直接、しかも日本で投資をすることは、とても珍しい。

投資額は公表されていないが、数百万ドルぐらいらしい。創業6年になるABEJAによると、同社のこれまでの調達総額は60億円(5300万ドル)だ、という。そしてCrunchbaseによると、同社が公開しているこれまでの調達額が4500万ドルだから、53-45=800万ドルになる。ただしこれには、Googleからの投資以外に2014年のシリーズA(これも非公開)も含まれているはずだ。

数字はともかくとして、この投資が注目に値するのは、Googleの日本における投資であるだけでなく、戦略的投資でもあるからだ。

ABEJAはこう声明している: “今後ABEJAとGoogleは、リテールや製造業など、さまざまな分野のAIとMLによるソリューションでコラボレーションして、AIソリューションのアプリケーションをより一層振興し、日本のAI産業の成長に貢献したい”。

同社の主製品は機械学習を利用する‘platform as a service, PaaS’で、現在150社あまりの企業顧客が、ABEJAを使って彼らのデータ集積から事業分析やさまざまな識見(インサイト)を開発している。同社によると、リテール向けの専用製品は顧客データと売上データに的を絞り、およそ100社に利用されている。

Google Cloud Japanの代表取締役(マネージングディレクター)Shinichi Abe(阿部伸一)は、次のように声明している: “ABEJAには強力な技術力とMLの専門的技能があり、そのコラボレーションの実績と、技術的ソリューションの効果的なデプロイメントで業界全般から高く評価されている。この投資は、リテールと製造業、およびその他の分野における革新的なソリューションで、ABEJAとのコラボレーションの道を拓くものである”。

Googleは、中国でAIと機械学習に大きく注力しており、昨年は北京に研究開発部門を開設した。しかし同社の研究とフォーカスの大半は、アメリカとヨーロッパが主力だ。Deep Mindの本社もヨーロッパにある。Googleは、インドシンガポールでもAI/ML関連の買収をしているが、それらの主な目的は、今後の成長市場における、Google製品のローカライゼーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

中国Infervision、画像によるがん検知サービスを280の病院に提供

つい最近まで、我々は医用画像から病気を診断するのに、訓練を受けた医師の目に頼っていた。

ひと握りのスタートアップが、顔認識や自動運転に使われているのと同じ技術である深層学習を通じた医用画像分析の改良を世界中で競っているが、北京拠点のInfervisionはそうしたスタートアップの一つだ。

Infervisionはこれまでに Sequoia Capital Chinaのような主要投資家から7000億ドルを調達していて、中国で多い死亡原因である肺がんの細胞を見分ける事業をまずスタートさせた。今週、シカゴで開かれた北米放射線学会の年次総会で、設立3年のこのスタートアップはコンピュータービジョンを使った分析を心石灰化のような胸部関連の病状にも広げることを発表した。

「AIを使った分析作業に、より多くのシナリオを加えることで、我々はこれまで以上に医師をサポートできる」とInfervisionの創業者でCEOのChen KuanはTechCrunchに対しこう語った。医師は1回の画像スキャンから数十の病気を見つけることができる一方、AIには1度に複数のターゲットオブジェクトをどうやって特定するかを教えなければならない。

しかしChenは、マシーンはすでに他の点で人間にまさっていると言う。その一つとして、マシーン分析が速いことが挙げられる。通常、医師が1枚の画像を分析するのに15〜20分かかる。それに対し、InfervisionのAIが分析レポートをまとめるのにかかる時間は30秒以下だ。

AIはまた、長年の課題である誤診断にも対応する。中国の医療新聞Medical Weeklyは、炭鉱夫によくみられる病気である黒肺塵症の診断の精度が、経験5年以下の医師で44%だったとレポートしている。また、1950〜2009年にあった検視を調べた浙江大学の研究では、臨床の誤診断率は平均46%だったことが明らかになった。

「医師は長時間働き、常にかなりのストレス下に置かれている。これがエラーにつながる」とChenは指摘する。

Chenは、彼の会社が診断の精度を20%高めることができる、と主張する。中国ではよくあることだが、遠隔の奥地ではヘルスケアの提供が不足していて、そうした場合にAIが医者の代わりとなる。

初のクライアントを獲得

深層学習を扱う他の企業と同様、Infervisionもさまざまなソースからのデータを使ってアルゴリズムのトレーニングを続ける必要がある。今週現在、Infervisionは280の病院ーうち20の病院は中国外にあるーと協働していて、毎週12病院が新たなパートナーとして加わっている。またInfervisionは、中国の一流の病院の70%が同社の肺に特化したAIツールを活用している、としている。

しかしInfervisionは出だしから順風満帆だったわけではない。

中国南部の町、深圳市の出身であるChenは、ノーベル賞受賞者のエコノミストJames Heckmanのもとで学んだが、シカゴ大学の博士課程を中退したのちに、Infervisionを立ち上げた。起業家として歩み始めて最初の6カ月、中国中の40もの病院に足を運んだーそれは無駄だった。

「当時医療AIはまだ新しいものだった。病院というのはもともと保守的だ。患者を守らなければならず、そのために外部の人とパートナーになるのを敬遠する」とChenは回顧した。

やがて、四川省人民医院がInfervisionにチャンスをくれた。Chenと、創業メンバー2人はわずかながらまとまったイメージデータを入手した。Chenたちは病院横の小さなアパートに引っ越し、事業を進めた。

「我々は医師の働きぶりを観察し、彼らにAIがどのように働くのかを説明し、彼らの不満に耳を傾け、プロダクトをイテレートした」とChenは語る。Infervisionのプロダクトは優れたものであることを証明し、すぐにその名は医療従事者の間で知られるようになった。

「病院はリスク回避の傾向にあるが、そのうちの誰かが我々のことを気に入ってくれたらそれが口コミで広がり、他の病院がすぐに我々にアプローチしてくる。医療業界はかなり緊密だ」とChenは話した。

AIは過去数年で二次的なインベンションからヘルスケアにおける標準へと発展し、病院はテックスタートアップのサポートを積極的に模索し始めている。

Infervisionは海外マーケットでも向かい風の中で歩を進めてきた。たとえば、米国ではInfervisionは医師訪問をアポ制に制限され、これによりプロダクトのイテレーションスピードが遅くなった。

Chenはまた、多くの西洋の病院が中国のスタートアップが最先端の技術を提供できるということを信じなかった、と認めた。しかし彼らはInfervisionは何ができるかということを知ると、Infervisionを歓迎した。これは部分的には、1日あたり画像2万6000枚という貴重なデータのおかげだ。

「技術能力に関係なく、中国のスタートアップは、他国のスタートアップが巡り会うことがない、山のようなデータへのアクセスが与えられている。これはかなりのアドバンテージだ」とChenは話す。

中国の巨大な医療産業において、競争には事欠かない。AIを監視とフィンテックにも持ち込んだ中心的な存在のYituは、今週あったシカゴ放射線学会でがん発見ツールを発表した。

AIソリューションを商品として提供することで収入を上げているInfervisionは、今後は脳血管系そして循環器系の疾患のような、社会の負担増を招く病状に特化したプロダクトを優先する、としている。

イメージクレジット: Infervision

[原文へ]

(翻訳:Mizoguchi)

AIと3Dプリントを使って写真の絵画を再現できるようになった

MITのコンピューターサイエンス・人工知能ラボの研究者が、写真から絵画を再現するシステムをつくりだした。この技術を使うと、博物館やアート好きの人が、お気に入りの絵画の写真を撮って絵の具のような仕上がりのコピーをプリントできる。

RePaintと呼ばれるこのプロジェクトでは、それぞれの絵画とまったく同じ色を再現するために機械学習を活用していて、階調表現を使って何千もの色を出力できるハイエンドな3Dプリンターでプリントする。

研究者はエドガー・ドガやサルバドール・ダリの残された作品をとらえる、より良い方法を見つけた。彼らは開発した“色トーニング”という特殊な技術を使った。この色トーニングでは、3Dプリンターと、まるでキットカットバーの中にあるチョコレートとワッフルのような薄いレイヤーの中に入った10種類の透明インクが使用される。そして研究者たちはこの方法に、“階調”という何十年もの歴史がある手法を組み合わせた。これにより、連続階調というより、かなりたくさんの小さなインクのドットでイメージがつくられる。こうした技術により色のニュアンスをとらえることができる、と研究チームは話している。

「もしあなたが絵画の色をギャラリーで目にしたもののように再現したら、家では異なる色に見えるかもしれない」と研究者のChangil Kimは語る。「我々のシステムはどんな照明状況でもうまくいき、これまでの試みよりずっと素晴らしい色の再現能力を備えている」

残念なことに、プリントできる大きさはせいぜい名刺サイズ。また、このシステムではマットな仕上がりや複雑な表面テクスチャにまだ対応できていない。しかし研究チームはアルゴリズムと3D出力技術の改善に取り組んでいて、最終的にはポーカーで遊んでいる犬の絵を3Dプラスティックに再現することができるようになるかもしれない。

[原文へ]

(翻訳:Mizoguchi)

AppleはSilk Labsを買収して次世代のAIに焦点を絞る

最近の調査によると、AppleのHomePodは、ホームハブとして市場が倍増している米国内のスマートスピーカーの市場シェアで、AmazonとGoogleから大きく引き離された3位となっている。シェアは、5%にも満たない。そして、そのフラグシップのパーソナルアシスタントSiriも、理解力と精度においてGoogleに遅れをとっていると見なされてきた。しかしAppleは、さらにAIを強化し、次世代の製品の中心に据えることを目指していることがうかがえる。そしてその動きは、買収によって加速されているように見える。

The Informationによれば、Appleはサンフランシスコを拠点とするスタートアップ、Silk Labsを密かに買収したようだ。同社は、ホームハブとモバイル両用の、AIベースのパーソナルアシスタント技術を開発している。

Silkのプラットフォームには、他のアシスタント技術とは異なる、2つの注目に値する部分がある。1つは、時間の経過とともにユーザーのことを(聴覚と視覚の両方を使って)よりよく学習し、振る舞いを修正すること。もう1つは、デバイス単独で動作するように設計されていることだ。つまり、「常時オン」のスピーカーがいつもユーザーに聞き耳を立て、デバイス内で何か処理しているというプライバシー上の心配や、クラウドとネットワーク技術による制約を受けるといった懸念を払拭できる。

Appleは、まだ取材に応じていないが、少なくとも何人かのSilk Labsの従業員が既にAppleで働いているようだ(LinkedInによれば、Silk Labの9人のエンジニアリング系の社員がそれに含まれている)。

つまり、まだこれが完全な会社の買収なのか、人的な買収なのかははっきりしない。もし、新たな情報が得られれば、この記事をアップデートするつもりだ。しかしそのチームを(そしてその技術を)導入するということは、Appleがすでに市場に出回っているようなものとは異なった製品の開発に注力することに関心があり、それを必要としていることを物語っている。

Silk Labsは、Mozillaの元CTOで、結局うまくいかなかったFirefox OSの生みの親、Andreas Galと、Qualcomm出身のMichael Vinesの両氏によって、2016年2月に創立された。ちなみにVinesは、その後2018年の6月、ブロックチェーンのスタートアップ、Solanaに主席エンジニアとして転職している

Silk Labsの最初の製品は、もともとソフトウェアとハ​​ードウェアを統合したものとして計画された。そして、Kickstarterからほぼ16万5000ドルを調達して、Senseというスマートスピーカーを製造し、発売する予定だった。Senseは、接続された家庭用の機器をコントロールし、ユーザーの質問に答え、内蔵されたカメラによって室内を監視し、人間とその行動を認識して学習できることになっていた。

しかし、そのわずか4ヵ月後、Silk LabsはSenseのハードウェアを切り捨て、Silkと呼ばれるソフトウェアに集中することを発表した。それは複数のOEMから、各社のデバイス上でSilkを稼働させることはできないか、という問い合わせを受けていると、Silk Labsが表明した直後のことだった(そして同社はKickstarter以外からも、約400万ドルを調達した)。

Silkには、そうしたOEMに対して、すでに市場に出回っている数多くのデバイスから差別化するため手法を提供する潜在能力はあったのだ。GoogleやAmazonのような製品に加えて、マイクロソフトのCortanaを利用するデバイスなど、そうしたアシスタント機能を搭載したスピーカーはいくつもある。

Silk Labsがハードウェア開発を中止すると発表したとき、一部の商業的なパートナーシップに関して、いくつかの話し合いが進行中だとしていた。また同時に、IoTデバイスを使ったコミュニケーション機能を開発するために、Silkプラットフォームの基本的なバージョンをオープンソースにすることも発表された。

Silk Labsは、そうしたパートナーの名前は明かさなかったが、会社を買収して廃業してしまうことが、技術を1社で独占するための1つの方法であったことは確かだ。

Silk Labsが構築してきたものを、これからAppleの製品、特に同社のスマートスピーカー、HomePodと結合することは魅惑的だ。

具体的に言えば、ユーザーについて学び、インターネットがダウンしていても機能し、ユーザーのプライバシーを保護する。そして特に重要なのは、常時接続された生活において、他のすべてのものを操作するための要となる、より賢いエンジンを提供できることだ。

それは、現在の市場リーダーから、はっきりと差別化できる機能セットを実現するために、おあつらえ向きだろう。特に、最近ますます重要視されるようになったプライバシーを考慮すればなおさらだ。

しかし、現在Appleが取り組んでいるハードウェアやサービスの領域を考慮すると、Silkチームと、その知的財産が、より広範囲のインパクトを持っている可能性を見ることができる。

Appleは、AIに関しては迷走してきた。2011年に音声アシスタントSiriをiPhone 4Sに初めて導入した際は、まだ他に先んじていた。それから長い間、数少ないえり抜きのテクノロジー企業がAIの有能な人材を独占していると人々が嘆くとき、常にAmazonとGoogle(Microsoftはそうでもないが)が引き合いに出された。そうした企業は、他の会社が製品を開発することを検討したり、より大きな規模での開発に関わろうとする余地を、ほとんど残していないというのだ。

さらに最近では、Alexaを搭載した数種類のデバイスを擁するAmazonや、Googleのような会社は、AI技術をコアとし、さらにメインのユーザーインターフェイスとしても採用したコンシューマー向け製品において、完全に他を出し抜いたようだ。Siriは、と言えば、うっかりTouch Barに触れたり、古いモデルのiPhoneのホームボタンを押してしまった場合に起動すると、うっとうしく感じることさえある。

しかし、こともあろうにAppleが、この分野で進むべき道を見失ってしまったと考えるのは、やはり完全に間違っている。この世界最大の会社は、いつも手の内を見せずに密かに行動することで知られているのだ。

実際、いよいよ真剣に取り組み始め、やり方を考え直そうとしている兆候も、いくつかある。

数ヶ月前に、元Google社員のJohn Giannandreaの下でAIチームを再編成した。そのプロセスの中で、若干の才能ある人物を失ったものの、それより重要なことに、SiriとCore MLのチームが、開発ツールからマッピングまで、社内の異なるプロジェクトにも協力して取り組める仕組みができつつある。

Appleは、過去数年間で、大小さまざまな買収を何十と繰り返してきた。それは、拡張現実、画像認識、そしてバックエンドでのビッグデータ処理など、複数の異なる領域で使えるAIエンジンの開発を目指して、有能な人材や知的財産を獲得するために他ならない。さらに、他にもイギリスのVocalIQなどのスタートアップを買収した。ユーザーとのやりとりから「学習」できる、ボイスインターフェイスを専門とする会社だ。

確かにAppleは、iPhoneの販売台数の低減に直面し始めた(単価は高くなっているので収益は減っていないが)。これは新しいデバイスに注力し、さらにその上で動くサービスをより重要視する必要があることを意味するはずだ。サービスはいくらでも拡張し、拡大させることができる。それによって定常的な収益を得ることもできる。それが、Appleがサービスへのさらなる投資にシフトすべき、2つの大きな理由だ。

AIのネットワークが、iPhoneだけでなく、コンピュータ、Apple Watch、Apple製のスマートスピーカー=HomePod、Apple Music、ヘルスケアアプリ、そしてあなたのデジタルライフ全体を支配することが期待されている。

[原文へ]

(翻訳:Fumihiko Shibata)

ドメインを限定してより有能な音声対応AIを作ろうとするWluperがシードで$1.3Mを調達

音声アシスタントなどのシステムにその知識を与える、会話型AIを作っているロンドンのWluperが、130万ドルのシード資金を獲得した。ラウンドをリードしたのは“ディープ・テック”専門のVC IQ Capitalで、これにSeedcamp, Aster, Magic Ponyの協同ファウンダーZehan Wang博士らが参加した。

2016年に創業し、最初はJaguar Land RoverのInMotion Venturesが支援していたWluperの“会話型AI(conversational AI)”は、初めはナビゲーション製品を対象にしていた。同社のAI技術は自称“目標指向の対話(goal-driven dialogue)”と呼ばれ、目標を絞ることにより、従来よりも自然な会話でナビゲーションのさまざまなタスクを支援する。

それを可能にする‘秘密のソース’は、ナビのような音声アシスタントを支えるAIは特定の、狭い、専門的分野のエキスパートになった方が良い仕事ができる、というWluper独自の信念だ。

Wluperの協同ファウンダーHami Bahraynianはこう述べる: “AlexaやSiriのようなインテリジェントなアシスタントも、本当に良いなと感じるのは、それらがユーザーの意図を正しく理解しているときだけだ。しかし実際には、理解していない場合がほとんどだ。それは、音声認識そのものの欠陥ではない。それは、フォーカス(対象、主題、テーマの特定化)を欠いていることと、その種のシステムの共通的な欠陥である論理的判断能力(‘推理’)の欠如だ。彼らはみな、いろんなことをそこそこできるけれども、どれ一つ完全ではない”。

AIが“一般的な”会話能力を持つのは15年か20年以上先と思われるが、そこへ向かうための中途的な目標は、Bahraynianによると、目的を絞った“インテリジェント・エージェント”を作ることだ。

“われわれがやっているのは、まさにそれだ”、と彼は言う。“われわれは、ドメインエキスパート(特定分野の専門家)の会話型インテリジェンスを作っている。それは、一つのことしかできないし、理解しない。でも、たとえば、輸送に関することなら何もかも完璧に知っている”。

この分野特定により、WluperのAIは、ユーザーが言ってることに関する明確な…見当はずれでない…想定ができる。そのため、複雑な質問でも自然に理解する。ひとつのクエリに複数の意図が含まれている場合や、前の質問のフォローアップ質問も理解するので、“本当の”会話ができる、とBahraynianは言う。

さらにまたWluperは、NLPパイプラインの“理解能力”の次に来るべきものとして、マシンの“知識取得能力”に関してR&Dを継続している。会話型AIというパズルが完成するための重要な必須のピースがその能力だ、と同社は考えている。

“自然言語で尋ねられたユーザーのクエリを正しく理解したとしても、適切で有益な情報を正しい場所から取り出して提供することは、それよりもさらに難しい。現在多く使われているルールベースのアプローチでは、応用性がゼロなのでまったくスケールしない”、とBahraynianは付言する。

“この問題を解決するためにわれわれは、従来の手作り的な方法に別れを告げて、マシンの知識取得を最適化するための新しい方法を探している。もっと意味のある結果を返せるためには、定型データと非定型データとの正しいバランスを見つける必要がある”。

そしてWluperのシード資金は、エンジニアとリサーチサイエンティストの増員による、同社の研究開発能力の拡張に充てられる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

現実のHAL9000が開発される – その名はCASE

慌てないで! たしかに、現実は芸術を模倣するが、Cognitive Architecture for Space Exploration(宇宙探査のための認識アーキテクチャー):CASEの開発者たちは、映画『2001年宇宙の旅』から教訓を学んでいる。彼らが作るAIは人を殺さないし、人間を未知の物体に遭遇させて宇宙の涅槃の境地に導いたりはしない(たしか、そんな話だったと思うが)。
CASEは、数十年間にわたりAIやロボット工学に携わってきたPete Bonassoが行っている研究で、始まったのは、今のバーチャルアシスタントや自然言語処理が流行するずっと前のことだ。今では忘れられようとしているが、この分野の研究の発端は、1980年代1990年代のコンピューター科学とロボット工学が急速に発達してブームとなった時代に遡る。
問題は、宇宙ステーション、有人宇宙船、月や火星のコロニーといった複雑な環境を、いかにしてインテリジェントに観察し管理運営するかだ。このシンプルな問題には答えが出ているが、この数十年で変化し続けてきた。国際宇宙ステーション(20年目に入った)には、それを管理する複雑なシステムがあり、時とともにどんどん複雑化してきた。それでも、みんなが想像しているHAL9000には遠く及ばない。それを見て、Bonassoは研究を始めたのだ。

20歳を迎えた国際宇宙ステーション:重要な11の瞬間

「何をしているのかと聞かれたとき、いちばん簡単な答は『HAL9000を作ってる』というものだ」と、彼は本日(21日)公開のScience Robotics誌で語っている。現在、この研究は、ヒューストンの調査会社TRACLabsの後援のもとで進められている。
このプロジェクトには数々の難題が含まれているが、そのなかのひとつに、いくつもの認知度の層と行動の層を合体させることがある。たとえば、住環境の外にある物をロボットアームで動かすといった作業があるだろう。または、誰かが他のコロニーにビデオ通話を発信したいと思うときもある。ロボットとビデオ通話用のソフトウエアへの命令や制御を、ひとつのシステムで行わなければならない理由はないが、ある地点で、それら層の役割を知り、深く理解する包括的なエージェントが必要になる。

そのためCASEは、超越的な知能を持つ全能のAIではなく、いくつものシステムやエージェントを取りまとめるアーキテクチャーであり、それ自体がインテリジェントなエージェントという形になっている。Science Robotics誌の記事で、またその他の詳細な資料でもBonassoは解説しているが、CASEはいくつかの「層」から構成されていて、制御、ルーチン作業、計画を統括する仕組みだ。音声対応システムは、人間の言葉による質問や命令を、それぞれを担当する層が処理できるようにタスクに翻訳する。しかし、もっとも重要なのは「オントロジー」システムだ。
宇宙船やコロニーを管理するAIには、人や物、そしてうまうやっていく手段を直感的に理解することが求められる。つまり、初歩的なレベルで説明すると、たとえば部屋に人がいないときは、電力を節約するために照明を消したほうがよいが、減圧をしてはいけない、といった状況を理解することだ。または、誰かがローバーを車庫から出してソーラーパネルの近くに駐車したときは、AIは、ローバーが出払っていること、どれが今どこにあるか、ローバーの無い間のプランをどう立てるかを考えなければならない。
このような常識的な理屈は、一見簡単そうに思えるが、じつは大変に難解なものであり、今日、AI開発における最大の課題のひとつに数えられている。私たちは、原因と結果を何年もかけて学び、視覚的な手がかりをかき集めて、周囲の世界を頭の中に構築するなどしている。しかしロボットやAIの場合は、そうしたことは何も無いところから作り出さなければならない(彼らは即興的な行動が苦手だ)。その点、CASEは、いくつものピースを組み合わせることができる。

TRACLabsのもうひとつのオントロジー・システム PRONTOEの画面

Bonassoはこう書いている。「たとえば、利用者が『ローバーを車庫に戻してくれ』と言ったとする。するとCASEはこう答える。『ローバーは2台あります。ローバー1は充電中です。ローバー2を戻しますか?』と。ところが『ポッドベイのドアを開けろ』(居住区にポッドベイのドアがある場合)と言うと、HALとは違い、CASEは『わかりました、デイブ』と答える。システムに妄想をプログラムする予定ははいからだ」
なぜ彼は「ところが」と書いたのか、理由は定かではない。しかし、どんなに映画好きでも、生きたいという意欲に映画が勝ることがないのは確かだ。
もちろん、そんな問題はいずれ解決される。CASEはまだまだ発展途上なのだ。
「私たちは、シミュレーションの基地で4時間のデモンストレーションを行ったが、実際の基地で使用するまでには、やらなければならないことが山ほどある」とBonassoは書いている。「私たちは、NASAがアナログと呼ぶものと共同開発を行っている。それは、遠い他の惑星や月の環境を再現した居住空間だ。私たちは、ゆっくりと、ひとつひとつ、CASEをいろいろなアナログで活動させ、未来の宇宙探査におけるその価値を確実なものにしていきたいと考えている」
私は今、Bonassoに詳しい話を聞かせてくれるよう依頼している。返答があり次第、この記事を更新する予定だ。
CASEやHALのようなAIが宇宙基地を管理するようになることは、もはや確定した未来の姿だ。たくさんのシステムをまとめる極めて複雑なシステムになるであろうものを管理できる合理的な方法は、これしかないからだ。もちろん、言うまでもないが、それは一から作られるものであり、そこでとくに重要になるのが、安全性と信頼性、そして……正気だ。

[原文へ]
(翻訳:金井哲夫)

AIではなく、量子コンピュータが我々の将来を決める

「量子(quantum)」という言葉は、20世紀後半になって、他の一般的な形容詞では表せない、何かとても重要なものを識別するための表現手段となった。例えば、「Quantum Leap(量子の跳躍)」は劇的な進歩のことを意味する(Scott Bakula主演の’90年代初頭のテレビシリーズのタイトルでもあるが)。

もっとも、それは面白いとしても、不正確な定義だ。しかし、「量子」を「コンピューティング」について使うとき、我々がまさに劇的な進歩の時代に入ったことを表す。

量子コンピューティングは、原子と亜原子レベルで、エネルギーと物質の性質を説明する量子論の原理に基づいた技術だ。重ね合わせや量子もつれといった理解するのが難しい量子力学的な現象の存在によって成立する。

アーウィン・シュレディンガーの有名な1930年代の思考実験は、同時に死んでいて、かつ生きているという一匹の猫を題材にしたもので、それによって「重ね合わせ」というものの明らかな不条理を浮き彫りにすることを意図していた。重ね合わせとは、量子系は、観察、あるいは計測されるまで、同時に複数の異なる状態で存在できる、という原理だ。今日の量子コンピュータは、数十キュービット(量子ビット)を備えていて、まさにその原理を利用している。各キュービットは、計測されるまでは0と1の間の重ね合わせの中に存在している(つまり、0または1になる可能性がいずれもゼロではない)。キュービットの開発は、膨大な量のデータを処理し、以前には不可能だったレベルの計算効率を達成することを意味している。それこそが、量子コンピューティングに渇望されている潜在能力なのだ。

シュレディンガーはゾンビの猫について考えていたが、アルバート・アインシュタインは、彼が「離れた場所の奇妙な相互作用」と表現した、光速よりも速く通信しているように見える粒子を観察していた。彼が見ていたのは、もつれ合った電子の作用だった。量子もつれとは、同じ量子系に属する複数の粒子の状態は、互いに独立して描写することができない、という観測結果のことだ。かなり遠く離れていても、それらはやはり同じ系に属している。もし1つのパーティクルを計測すると、他のパーティクルの状態も直ちに判明するように見える。もつれ合った粒子の観測距離の現時点での最長記録は、1200キロメートル(745.6マイル)となっている。量子もつれは、量子システム全体が、その部分の合計よりも大きいことを意味する。

ここまでの話で、そうした現象がなんとなくしっくりこないというのであれば、シュレディンガーの言葉が、その居心地の悪さを和らげてくれるかもしれない。彼は量子理論を創出した後で「私はそれが好きではありませんが、申し訳ないことに私にはどうすることもできないのです」と言ったと伝えられている。

様々なグループが、それぞれ異なる方法で量子コンピューティングに取り組んでいる。従って、その仕組みについて1種類の説明で済ますのは現実的でないだろう。しかし、読者が従来のコンピューティングと量子コンピューティングの違いを把握するのに役立つかもしれない1つの原理がある。それは、従来のコンピュータは2進数を扱う、ということ。つまり、各ビットは0または1の2つのうちのどちらかの状態しか取れない、という事実の上に成り立っている。シュレディンガーの猫は、亜原子の粒子が同時に無数の状態を示すことができることを説明した。1つの球体を想像してみよう。その2進数的な状態は、北極では0、南極では1になると仮定する。キュービットの世界では、その球全体で無数の他の状態を保持することができる。そして、複数のキュービット間の状態を関連付けることで、ある種の相互関係が生まれる。それによって、量子コンピューティングは、従来のコンピューティングでは達成できない、さまざまな分野のタスクに適応することができるのだ。こうしたキュービットを生成し、量子コンピューティングのタスクを遂行するために十分な時間だけ存在させておくことが、現在の課題となっている。

Jon Simon/Feature Photo Service for IBM

IBM研究者で、同社のTJワトソン研究所の量子コンピューティング研究室に所属するJerry Chow

量子コンピューティングを文明化する

こうしたことは、量子力学の奇妙な世界の入り口に過ぎない。個人的には、私は量子コンピューティングに心を奪われている。技術的な奥義から人類に利益をもたらす潜在的なアプリケーションに至るまで、さまざまなレベルで私を魅了しているのだ。しかし、今のところ、量子コンピューティングの仕組みに関しては、うまく説明しようとすればするほど混乱を招くのが実情だ。そこで、より良い世界を作るために、それがどのように役立つのかを考えてみることにしよう。

量子コンピューティングの目的は、従来のコンピューティングの能力を補助し、拡張することにある。量子コンピュータは、ある種のタスクを、従来のコンピュータよりもはるかに効率的に実行する。それによって、特定の分野で我々に新しいツールを提供してくれる。量子コンピュータは、従来のコンピューターを置き換えるものではないのだ。実際、量子コンピュータが得意分野で能力を発揮するためには、たとえばシステムの最適化などについては、これまでのコンピュータの手助けを必要とする。

量子コンピュータは、エネルギー、金融、ヘルスケア、航空宇宙など、多くの異なった分野での課題の解決を促進するのに有効だ。その能力は、病気を治し、世界の金融市場を活性化し、交通をスムーズにし、気候変動に対処したりするための手助けとなる。たとえば、量子コンピューティングは、医薬品に関する発見と開発をスピードアップさせ、気候変動とその悪影響を追跡して説明するための大気モデルの精度を向上させるための潜在能力を備えている。

私をこれを、量子コンピューティングの「文明化」と呼ぶ。そのような強力な新技術は、人類に利益をもたらすために使うべきだからだ。そうでなければ、我々は船に乗り遅れてしまうだろう。

intel-quantum-17-qubit-2

Intelの量子コンピューティング用17キュービットの超伝導テストチップは、接続性を向上させ、電気的および熱力学的な特性を向上させるためのユニークな特徴を備えている。(クレジット:Intel Corporation)

投資、特許、スタートアップなどの上昇傾向

これは、私の内なるエヴァンジェリストの主張だ。しかし事実を見ても、投資と特許出願に関する最新の検証可能な世界規模の数字は、両分野における上昇傾向を反映している。そしてそのトレンドは今後も継続するものと思われる。エコノミスト誌によれば、2015年には、機密扱いされていない各国の量子コンピューティングへの投資の世界的な総計は、約17.5億ドルに達している。欧州連合が6億2300万ドルで全体をリードしている。国別では米国がトップで4億2100万ドル、中国がそれに続く2億5700万ドル、次がドイツの1億4000万ドル、英国の1億2300万ドル、カナダの1億1700万ドルの順だ。20の国が、少なくとも1000万ドルを量子コンピューティングの研究に投資している。

Thomson Innovation社が提供する特許検索機能によれば、同時期の量子コンピューティング関連の特許出願件数では、米国がトップで295件、次いでカナダが79件、日本が78件、英国が36件、中国が29件となっている。量子コンピューティングに関連する特許の件数は、2017年末までに430%増加すると予想された。

結局のところ、国、巨大テクノロジー企業、大学、スタートアップが、こぞって量子コンピューティングと、その潜在的な応用範囲を模索しているというわけだ。安全保障と競争上の理由で、量子コンピューティングを探求している国家、および共同体もある。量子コンピュータは現在使われている暗号化方式を破り、ブロックチェーンを殺し、他の暗黒面の目的にも有効だと言われてきた。

私はその独占的で凶暴なアプローチを否定する。オープンソースの協調的な研究開発のアプローチをとれば、量子コンピューティングには、より広範囲の善良な用途があることは明らかだ、と私には思える。この技術へのより広いアクセスが得られるようになれば、それも十分可能だろうと私は信じている。私は、クラウドソーシングによる量子コンピューティングの応用が、より大きな善のために勝利を得ることを確信している。

もし関わりを持ちたいのであれば、IBMやGoogleなどのように一般家庭にも浸透しているコンピューティングの巨人が用意している無料のツールを探してみるといい。また、大企業やスタートアップによるオープンソースの提供もある。量子コンピュータはすでに現在進行形のものであり、アクセスの機会は拡大の一途をたどっている。

独占的なソリューションは、オープンソース、協調的な研究開発、普遍的な量子コンピューティングの価値の提案に屈服するだろうという私の見立てに沿って、北米だけですでに数十社ものスタートアップが、政府や研究機関と並んで、量子コンピューティングのエコシステムに飛び込んだことを指摘させていただこう。たとえば、Rigetti Computing、D-Wave Systems、1Qbit Information Technologies、Quantum Circuits、QC Ware、Zapata Computingといった名前は、もう広く知られているかもしれないし、すでに大企業に買収されているかもしれない。このような発生期にはなんでもアリなのだ。

ibm_quantum

量子コンピューティング標準の策定

関わりを持つもう1つの方法は、量子コンピューティング関連の標準を策定する活動に参加することだ。技術的な標準は、結局は技術の開発を促進し、経済的なスケールメリットをもたらし、市場を成長させる。量子コンピュータのハードウェアとソフトウェアの開発は、共通の用語からも、結果を評価するための合意された測定基準からも、恩恵を受けるはずだ。

現在、IEEE Standards Association Quantum Computing Working Group(IEEE規格協会の量子コンピューティング作業部会)は2つの標準を策定中だ。1つは量子コンピューティングに関する定義と用語であり、それによってみんなが同じ言語で話すことができる。もう1つは、従来のコンピュータに対する量子コンピュータの性能を評価し、両者を比較するためのパフォーマンスの測定法とベンチマーキングに関するものとなっている。

さらに標準を追加する必要があれば、おいおい明らかになるはずだ。

画像のクレジット:VICTOR HABBICK VISIONS

[原文へ]

(翻訳:Fumihiko Shibata)

Amazon Comprehendでは機械学習の技術とは無縁なデベロッパーでも専門用語で自然言語処理モデルを訓練できる

昨年Amazonは、自然言語処理のツールComprehendを発表した。それは情報のコーパスから、よく使われている語や語句を取り出し、ドキュメントを分類する。今日Amazonは同社のデベロッパーカンファレンスRe:inventに一週間先駆けて、Comprehendの機能向上を発表した。それにより機械学習の専門知識のないデベロッパーでも、専門用語や語句のリストを作るだけで機械学習のモデルを構築できる。

その機能アップを発表するブログ記事で、AmazonのディープラーニングとAIのゼネラルマネージャーMatt Woodがこう書いている: “本日Comprehendに新しいカスタム化機能を導入することを嬉しく思う。これによってデベロッパーは、Comprehendを拡張して自然言語で書かれている用語を見つけ、チームや企業や業界にとって専門的なテキストを分類できる”。

重要なのは、すべての複雑な処理をAmazonが面倒見るので、機械学習や自然言語処理の素養のないデベロッパーでも言葉のリストをシステムに与えるだけで、テキストからそれらの語を検出/取り出しできるようになることだ。Woodは書いている: “カスタマイズされた機械学習のモデルを構築、訓練、そしてホストする重労働はすべてComprehendが行い、これらのモデルをプライベートなAPIでデベロッパーが利用できるようにする”。

これには、二つの部分がある。まず、デベロッパーは専門用語などのリストを作る。それは、たとえば法律事務所なら法律用語、自動車会社なら部品番号のリストだったりするだろう。デベロッパーがすることは、これらの用語のリストを公開するだけだ。Comprehendがカスタマイズされた言葉を見つけることを学習し、そのリストに基づくプライベートでカスタマイズされたモデルを作る。

第二の部分は、分類のカスタマイズだ。言葉のリストを作ったら、次は、それらの用語が現れる論理(ロジック)のリストを作る。それについてWoodは、こう書いている:

“言葉の用例がわずか50件でも、Comprehendはカスタムの分類モデルを自動的に訓練し、それを使ってユーザーのドキュメントを各カテゴリーに分類する。たとえばカスタマーサポートのメールを、担当部門ごとにグループ化したり、ソーシャルメディアのポストを製品別に分類、あるいはアナリストの報告書を事業部別に分類したりできるだろう”。

これらの雑多で大量のドキュメントは、カテゴリー分けして初めて役に立つし、適切な担当者にそれを渡したり、あるいはアプリケーションがプログラムの一環として利用したりできるようになる。

Comprehendはユーザーに、カスタマイズされた機械学習のモデルを作る方法を、上述のようなごく単純な方法として提供し、楽屋裏の細部は自分でやる。一般的に言っても、クラウド企業は複雑難解なものを単純化して、専門的な知識や技能のないデベロッパーでも一連のサービスを利用できるようにする。Comprehendの場合は、機械学習の知識のない者がカスタマイズされたモデルを作れる方法を提供する。

Comprehendのこの新しい機能は、今日(米国時間11/19)から利用できる。

〔参考記事
Amazon Comprehend日本語ドキュメンテーション(1)
Amazon Comprehend日本語ドキュメンテーション(2)
Amazon Comprehend用例解説(1)
Amazon Comprehend用例解説(2)
「amazon comprehend 日本語」でググると、さまざまな日本語ドキュメンテーションが出てきます。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

企業のデータ保護とコンプライアンス充足をAIと機械学習で自動化するCognigoが$8.5Mを調達

AIと機械学習を利用して企業のデータ保護とGDPRなどの規制へのコンプライアンスを助けるCognigoが今日(米国時間11/13)、シリーズAのラウンドで850万ドルを調達したことを発表した。このラウンドをリードしたのはイスラエルのクラウドファンディングプラットホームOurCrowdで、これにプライバシー保護企業のProsegurState of Mind Venturesが参加した。

同社は、重要なデータ資産を護り、個人を同定できる情報が自社のネットワークの外に漏れることを防ごうとしている企業を支援できる、と約束している。そして同社によると、そのやり方は、専用システムのセットアップやそれらの長年の管理を必要とするような手作業の管理ではない。たとえばCognitoによれば、同社は企業のGDPRコンプライアンスの達成を、数か月ではなく数日で完了する。

そのために同社は、事前に訓練したデータ分類用の言語モデルを使用する。そのモデルは、給与明細や特許、NDA、契約書など、よくあるカテゴリーを検出するよう訓練されている。企業は独自のデータサンプルでモデルをさらに訓練し、その独自のニーズのためにモデルをカスタマイズできる。同社のスポークスパーソンは曰く、“唯一必要な人間による介入は構成だが、それは一日で済む作業だ。それ以外では、システムは完全に人手要らずだ”。

同社によると、新たな資金はR&Dとマーケティングと営業のチーム拡大に充てられ、目標は市場プレゼンスの拡張と製品知名度の向上だ。“弊社のビジョンは、顧客が自分のデータを利用して確実にスマートな意思決定ができ、同時にそのデータが継続的に保護されコンプライアンスを維持することだ”、と同社は言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

データサイエンティストたちのモデルの活用度を高めるGoogle CloudのKubeflowパイプラインとAI Hub

今日(米国時間11/8)Google Cloudが、KubeflowパイプラインとAI Hubを発表した。この二つのツールは、データサイエンティストが、自分の作ったモデルをいろんな組織や企業で共通的に利用できるようにすることが主な目的だ。

Google CloudでAIとML製品を担当しているプロダクトマネージメントのディレクターRajen Shethによると、同社は、データサイエンティストたちが、モデルを作るけどそれが一度も使われない、という経験をしょっちゅうしていることを知っている。Googleによると、機械学習を団体競技にたとえるなら、モデルはデータサイエンティストから、それらを使ってアプリケーションを作るデータエンジニアとデベロッパーにパスされなければならない。

対策としてGoogleが発表したのが、Kubeflowパイプラインだ。それはKubeflowのエクステンションで、KubeflowはKubernetesをベースとするオープンソースの機械学習用フレームワークだ。パイプラインは要するにコンテナ化されたビルディングブロックのことで、機械学習のエコシステムに属する人たちを連係させて機械学習のワークフローを作り、管理する。

そうやってモデルをコンテナに入れたら、その後データサイエンティストは必要に応じてその中のモデルを単純に調整し、継続的デリバリのようなやり方で再ローンチできる。Shethによると、これによって企業内のモデルの利用の可能性がさらに広がる。

“Kubeflowパイプラインはユーザーに、いろんなパイプラインで実験する方法を提供し、信頼性があって再現可能な環境の中で最良の結果を作りだすものはどれか、を決められる”、とShethは、この新しい機械学習機能を発表するブログ記事に書いている。

同じく今日発表されたAI Hubは、その名のとおり、データサイエンティストがそこでいろんなMLコンテンツを見つけられる場所だ。そこには、KubeflowパイプラインやJupyterノートブック、TensorFlowモジュールなどなどがあるだろう。それは一種の公開リポジトリになり、Google Cloud AIやGoogle ResearchなどGoogleのさまざまなチームが素材を提供し、研究開発に関わるGoogleの専門的知識技能をデータサイエンティストが利用できる場になる。

しかしGoogleはこのハブに、公開ライブラリ以上のものを求めている。同社の見方では、そこはチームが自分たちの企業内で情報をプライベートに共有できる場にもなって、二重の目的に奉仕する。これによって、重要なビルディングブロックが中央的なリポジトリで可利用になるから、モデルの利用の拡大に大きく貢献するだろう。

AI Hubは今日からアルファで利用でき、Googleからの初期的コンポーネントの一部や、内部的リソースを共有するためのツールが提供される。そして今後は徐々に、提供物と能力の拡大が定常的に行われる予定だ。

Googleによると、これによってモデルが汎用のビルディングブロックになり、それによりモデルを容易に共有できる方法が提供され、モデルがさまざまに実用される機会が増えるだろう。これらのツールは、それを達成するための第一歩だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ファッション企業のAI活用を一気通貫で支援するLiaroが6000万円を調達

アパレル業界向けにAIソリューションを提供するLiaro(リアロ)。同社は11月2日、ディープコアとDEEP30(東​京大学松尾豊研究室からスピンアウトして設立されたVC)より総額6000万円の資金調達を実施したことを明らかにした。

調達した資金を活用してエンジニアを中心とする人材採用やR&Dを進める計画。より多くのアパレル企業へのサービス展開を目指す。

Liaroは学生時代から機械学習分野の研究に取り組んできた代表取締役CEOの花田賢人氏を中心に、AIエンジニアが集まるチームだ。現在はファッションテックの領域に注力して、アパレル業界向けの事業を展開している。

最近は必要とされるソリューションをSaaSのようにパッケージ化してまるっと提供するスタートアップも増えているけれど、今のところLiaroは「受託に近い」スタイル。画像認識技術を用いた商品の自動タグ付けシステムや類似商品のレコメンドエンジン、商品の紹介テキストを自動生成するシステムなど、アパレルECを中心に各社の課題に合わせて必要な機能を提供する。

たとえば商品のタグ付けに関して課題を感じているECは多い。「ユーザー側にはタグを使って商品を細かく絞り込んで検索したいニーズがあるが、それに対応するには相応のマンパワーがかかる上、ケアレスミスの問題もある」(花田氏)からだ。

リソースをかけてタグを付けたはいいものの、それが不正確だと使いづらくなってしまいかねない。Liaroの技術に興味を示す企業としては、人的なコストの削減や業務効率化はもちろん、タグのミスをなくしたいというニーズがあるという。

そもそも花田氏が事業ドメインをファッション業界でのAIテクノロジー活用に決めた背景には、アパレル業界の大きな課題でもある「在庫問題」があった。

国内だけでも9兆円もあるとされるこの市場では、約50%の商品が売れ残る前提で販売されているため、在庫だけで数兆円規模に及ぶ。花田氏が原因のひとつにあげるのが「消費者に届くまでの商流が長い」こと。作った商品が消費者にどのように消費されているのか、細かいデータが上流工程の人に伝わっていないためにテクノロジーを活かしきれていないという考えだ。

近年アパレル業界ではこの課題を解決すべく、AIを用いた取り組みが増えてきている。ただしAIを有効活用するためには、リアルタイムに大量のデータを使っていけるデータ基盤が整備されていることが前提。ここがIT企業以外にとってはかなり大きなハードルになるという。

「アルゴリズムももちろん重要ではあるが、それ以上にポイントになるのが土台となるデータ基盤を整備できるかどうか。ファッション企業がAIを活用できるように、アルゴリズムの実装からデータ基盤の開発までを一気通貫で支援していくというのが今取り組んでいる事業だ」(花田氏)

Liaroでもこれまで約1年半に渡るR&Dを通して、この“データの整備”に取り組んできた。具体的には1000万枚以上の画像を集めて、それらにきれいなタグデータを付与する作業に時間を費やしたという。

「クローリングするだけだとどうしても教師データがなかったり、あっても雑だったりする。Liaroではタグ付のためのシステムを作り、『どういう所でモデルが作りにくくなるのか』『ファッションアイテムではどのようなタグの付け方をするのが良いか』を試行錯誤しながら、現場で使えるデータを整えてきた。きれいなデータを大量に持っていることが、自分たちの特徴だと考えている」(花田氏)

写真中央がLiaro代表取締役CEOの花田賢人氏

この辺りは花田氏自身のバックグラウンドも影響しているようだ。冒頭でも触れた通り学生時代から機械学習分野の研究に取り組みながら、チームラボのレコメンドチームでエンジニアのアルバイトも経験。大規模なインフラの開発にも携わった。起業した当初はコンシューマー向けのサービスを作っていたので、当時の経験も活きているという。

今後は調達した資金も活用してエンジニアの採用やR&Dに取り組むと共に、まずはアパレルEC向けのAIソリューション展開を加速させながら成功事例を作っていく方針。ゆくゆくはAIを活用した商品の需給予測やMDのアシストにも取り組む計画だ。

「『そもそもどこで何がどれくらい売れているのか』という傾向を細かく把握できるデータ基盤を作ることで、販売機会の損失を減らしたり、配置を最適化できるような環境を提供することから始める。僕たちとしては基本的に意思決定をするのは人間だと考えているので、データを十分に活用しきれていない部分にAIを挟みこむことによって、より科学的な意思決定ができるように支援していきたい」(花田氏)

Liaroは2014年の設立。ドリコムの学生向けインキュベーションプログラムがきっかけで生まれたスタートアップだ。当初はC向けのサービスを展開するも、途中でB向けに方向転換。多くのデータが眠り、インパクトも大きいファッション業界での事業展開を決め、現在に至る。

同社ではこれまでにもイーストベンチャーズやスカイランドベンチャーズから資金調達をしている。

AI画像診断で医療現場を変えるエルピクセルが30億円を調達、オリンパスや富士フイルムとタッグで事業加速へ

医療や製薬、農業といったライフサイエンス領域の画像解析ソリューションを開発する東大発ベンチャーのエルピクセル。同社は10月29日、オリンパス、CYBERDYNE、富士フイルムなどを引受とする第三者割当増資により、総額で約30億円を調達したことを明らかにした。

今回調達した資金を基に、AI活用の医療画像診断支援技術「EIRL(エイル)」を中心としたプロダクト開発を加速する計画。合わせて国内外での市場開拓ならびに販路構築、それらに伴う組織体制の強化などにも取り組むという。

同社は2014年3月の設立。過去には2016年10月にジャフコ、Mistletoe、東レエンジニアリング、個人投資家らから7億円の資金調達を実施している。

なお今回エルピクセルに出資したのは以下の企業だ。

  • オリンパス
  • CYBERDYNE
  • テクマトリックス
  • 富士フイルム
  • SBIインベストメント
  • CEJキャピタル(CYBERDYNE子会社)
  • ジャフコ

これまでも何度か紹介している通り、エルピクセルは東京大学の研究室のメンバー3名によって創業されたスタートアップ。研究室時代から培ってきたという画像解析技術を活用してライフサイエンス領域で画像解析システムの研究開発を行ってきた。

特に力を入れているのが医療分野における研究だ。東京大学や国立がん研究センターをはじめ複数の医療機関とタッグを組み、人工知能を活用した画像診断支援技術・ソフトウェアの開発に取り組んでいる。

それをプロダクト化したものが2017年11月に発表したEIRLだ。近年CTやMRI、内視鏡などの医療機器の高度化が進み、医療現場では取扱う医療画像のデータ量が急増している。EIRLは現場で膨大な画像に向き合う医師をサポートするためのプロダクト。画像診断支援技術を通じて見落としや誤診を防ぎ、効率的な医療の実現を目指している。

今回の調達はこれらの動きを一層加速させるためのものだ。法令ほか必要な手続きを経て、同社の技術が医療機器として使用できることを目指すほか、国内外の市場開拓と販路拡大に取り組む。また医療現場へのスムーズな導入とアフターケアの充実を見据え、いくつかの調達先とは業務提携も進める計画だ。

たとえばオリンパスとはこれまでも内視鏡・顕微鏡画像診断支援のAI技術開発に関する共同研究に取り組んできた。両社では今後の業務提携も視野に入れ、新たな協力体制についても協議していくとしている。

富士フイルムに関しても4月に提携し、同社の医用画像情報システム上でエルピクセルの診断支援AI技術を利用できるサービスの開発に着手済み。まずはエルピクセルのAIエンジンを富士フイルムの内視鏡システムで活用するためのシステムを開発し、AI技術の共同開発も検討する。

またCYBERDYNEとは本日付で業務提携を発表。双方の技術を複合融合し、疾患の早期発見・診断・治療に向けた医療ビッグデータ解析の開発強化を目指す。

Google、画像検索にLensを適用し、画像の公告活用を推進

Googleのアナウンスによれば、AIを活用したLens技術を画像検索で利用できるようにしたそうだ。検索したイメージ写っている物の情報を入手して、買い物の際に役立てることができるようになるとのこと。たとえば格好良いリビングルームの写真には、おそらく素敵なソファも写っていることだろう。そのソファに関する情報(購入できる場所など)を教えてくれるようになるのだ。

Pinterestを使っている人には、Google検索がPinterest風の機能ももつようになったのだといえばわかりやすいかもしれない。

Google Lensが生成した写真上の「dot」や、あるいは気になるものを手動で囲んで指定したエリアをタップすれば、Google検索が、指定したアイテムの関連情報を検索してくれるようになている。類似の画像、特定アイテムのウェブページ、ないし指定アイテムが写っている映像などを検索してくれるようになる

利用範囲はショッピングにとどまらない。写真に写ったランドマークや動物、あるいは旅行予定地についての詳細情報を得たりするのにも役立つはずだ。

さまざまな活用シーンが考えられるとは言っても、もちろんGoogleの主目的はグッズについての情報を提供することだろう。Googleの公告主のページへ閲覧者を誘導できる可能性も増えるわけだ。Pinterestの成功にあやかろうと考えているのだろう。

Pinterestは先月、月間アクティブユーザーが25%増加した旨をアナウンスしている。上場に向けて加速中ともいえる状況だ。Pinterestの利用者は、ファッションや家庭用品、旅行プランなどの情報を得て、Pinterestから商品やサービスを購入をする頻度を高めているらしい。公告主のプロダクトに、興味をもってもらえる仕組みも強化しているところだ。たとえば今年になってからは、公告製品のプロモーションビデオなども流すようになっている。

さらにPinterestは、1週間前に製品購入を便利にするための機能を増強した旨をアナウンスしている。テスト段階において、Pinterestからの製品ホームページへのアクセスが40%も増加したのだそうだ。

FacebookおよびInstagramは、次々にクライアントを販売店のサイトに送り込みつつある。またAmazonも広告ビジネスへの参入度合いを深めつつある。Googleもまた、公告主サイトへのクリックスルーレートを高めるなどの企業努力が期待される時期となっているわけだ。

画像検索でのLens活用は、まずアメリカにおける英語を利用するモバイルユーザー向けに公開したとのこと。他の国および言語へのサポートも広げていく予定であるとのことだ。

原文へ

(翻訳:Maeda, H