[著者:Taylor Nakagawa]
人工知能(AI)に期待されていることは計り知れないが、そのゴールに至るまでのロードマップはいまだ不透明だ。TechCrunch Disruptサンフランシスコのステージでは、AIを専門とする知識人たちが、現在の市場での競争の様子、アルゴリズムが差別主義を助長させないための方法、未来のマンマシン・インターフェイスといった課題について意見を述べ合った。
そこで、2018年のDisruptで語られた、AIの現状について注視すべき5つの点を紹介しよう。
1. アメリカがAIで中国に参入しようとすれば多くの障害に遭遇する
中国がAIに力を入れて華々しい発展を遂げていることは、各方面で数多く報道され、もはや無視できない存在にまでなっている。AlibabaやTencentのような巨大企業が国産ビジネスに何億ドルもつぎ込んでいるため、アメリカ企業がAIで中国に参入しても、動き回ったり拡大できる余地はだんだん狭くなっている。AI投資家でありSinnovationのCEO李開復(リー・ カイフー)は、AI開発においては、中国とアメリカは「並行宇宙」に生きていると話している。
Sinovation Chairman & CEO Kai-FU Lee says China has surpassed the U.S. in terms of AI capabilities #TCDisrupt pic.twitter.com/r71HlXgDDd
— TechCrunch (@TechCrunch) 2018年9月5日
https://platform.twitter.com/widgets.js
Sinnovation会長にしてCEO李開復は、AIに関しては中国はアメリカを超えたと話す。
Googleの中国進出を助けた李は、「AIを電気と同様に考えるべき」だと説明している。「トーマス・エジソンもAIの深層学習も、どちらもアメリカ生まれですが、彼らはそうした技術を発明し、寛大にも公開しました。今や中国は、最大のデータ量を誇る最大の市場として、従来型のビジネスのあらゆる場所、インターネットやその他のあらゆるスペースに価値を加えるために、AIを実際に使っています」
「中国の起業家エコシステムは巨大です。現在、コンピュータービジョン、音声認識、ドローンの分野でもっとも価値の高いAI企業は、すべて中国企業です」
2. AIの偏見は古い問題の新しい顔
AIは、数多くの仕事から、つまらない単調な作業をなくし、人々に生産性と効率性をもたらすと約束されてきた。しかし、多くのAIシステムの学習に使用されるデータには、人間が持つ偏見が植え付けられていることがあり、それを放置すれば、所得格差や人種差別といった体系的問題をはらむコミュニティーを今よりも疎外することにつながりかねない。
「社会的経済地位の低い人たちは、より監視が強化され、さらにアルゴリズムで調べられることになります」と、Google AIのTimmit Gebruは言う。「なので、地位の低い仕事の求職者ほど、自動化されたツールで処理される可能性が高くなります。現在、こうしたアルゴリズムがさまざまな場所で使われていますが、機会均等法のような法律に準拠しているかを確かめることすらできていません」
Algorithmic bias is a new face of an old problem rooted in income disparity and racism. Timnit Gebru (Google AI), Ken Goldberg (UC Berkeley) and Chris Ategeka (UCOT) outline steps to build more objective algorithms in the future. #TCDisrupt pic.twitter.com/XnK422JTL8
— TechCrunch (@TechCrunch) 2018年9月20日
https://platform.twitter.com/widgets.js
アルゴリズムの偏見は、所得格差と人種差別に根をもつ古い問題の新しい顔だ。将来のより客観的なアルゴリズム構築のためのステップの概要を示すTimmit Gebru(Google AI)、Ken Goldberg(UCバークレー)、Chris Ategela(UCOT)
危険なアルゴリズムが広がりを阻止できる可能性のある解決策を、UCバークレーのKen Goldbergが解説した。彼は、複数のアルゴリズムとさまざまな分類子が共同して働き、ひとつの結果をもたらすアンサンブル理論の概念を引用している。
しかし、不適切な技術のための解決方法が、よりよい技術であるかどうかを、どうやって確かめたらよいのだろう。Goldbergは、適正なアルゴリズムを開発には、AIの外の分野から来た、さまざまな経歴を持つ人間が欠かせないと語る。「機械の知能と人間の知能には、深い関連性があると思われます」とGoldbergは説明する。「異なる視点を持つ人は非常に貴重です。ビジネスの世界でも、そうした人が認められつつあるようです。それはPRのためではなく、異なる経験値と多様な視点を持つ人がいれば、よりよい決断が下せるからです」
3. 未来の自律走行は、人と機械の協力に依存することになる
運送会社の多くは、移動が高度に自動化されて、人間が介在することがかえって有害になる近未来の夢の世界を想像している。
UberのCEO、Dara Khosrowshahiは、そうはならないと指摘する。人間を隅に追いやろうと競い合う時代では、人間と機械が手を取り合って働くほうが現実的だと彼は言う。
「人間もコンピューターも、それぞれ単独で働くより、一緒に働いたほうがうまくいく。私たちには自動化技術を導入する能力があります。サードパーティーの技術、Lime、私たちの製品は、すべてが協力してハイブリッドを構成しています」
The future of autonomous travel will rely on people and computers working together, says Uber CEO Dara Khosrowshahi #TCDisrupt pic.twitter.com/K5668OtRXi
— TechCrunch (@TechCrunch) 2018年9月6日
https://platform.twitter.com/widgets.js
「未来の自律走行は、人と機械の協力に依存することになると、UberのCEO、Dara Khosrowshahiは言う」
Khosrowshahiが最終的に描いているUberの未来では、エンジニアがもっとも危険の少ないルートを監視し、乗客のための最適なルートが自動的に選択されるという混合作業になるという。この2つのシステムを組み合わせることが、自律走行の成熟には大変に重要で、乗客の安全を守ることにもなる。
4. アルゴリズムを「公平」だと判断するための合意による定義は存在しない
昨年の7月、ProPublicaはある報告書を発表し、その中で機械学習が、独自に偏見を芽生えさせる危険性を強調している。調査によると、フロリダ州フォートローダーデールで使われていたAIシステムは、黒人の被告が将来再び犯罪を犯す可能性は、白人の被告の2倍あると誤った指摘を行った。この歴史的な発見は、公正なアルゴリズムの構築方法に関する論議を呼び起こした。
あれから1年、AIの専門家はまだ完全な構築方法を見つけていないが、アルゴリズムにおける、数学と人間というものへの理解を組み合わせた文脈的アプローチが、前に進むための最良の道だと考える人は多い。
How can we create fair algorithms? Kristian Lum (Human Rights Data Analysis Group) says there’s no clear answer, but it depends on the contextual data training the AI #TCDisrupt pic.twitter.com/CEiglgeX2d
— TechCrunch (@TechCrunch) 2018年9月19日
https://platform.twitter.com/widgets.js
公正なアルゴリズムをどうやって作るか? Kristian Lum(Human Rights Data Analysis Group)は、明確な答えはないが、AIの文脈的なデータトレーニングによると言う。
「残念なことに、公正とはどんなものか、に関する定義の普遍的な合意が得られていません」とHuman Rights Data Analysis Groupの主任統計学者Kristian Lumは話す。「データをどのように刻んでゆけば、最終的にアルゴリズムが公正でないとわかるのか、ということです」
Lumの説明によれば、この数年間、数学的な公正さの定義を巡って研究が進められてきたという。しかし、このアプローチはAIの道徳に対する見識と相容れない場合が多い。
「アルゴリズムの公正さは、大いに文脈に依存します。それは、トレーニングに使用するデータに依存するということです」とLumは語る。「問題について、深く理解しておく必要があります。そして、データについても深く理解しておかなければなりません。それができたとしても、公正さの数学的定義への意見は分かれます」
5. AIとゼロトラストは「理想的な縁組」であり、サーバーセキュリティーの進化の鍵となる
前回の大統領選挙で、私たちは、個人情報、金融資産、民主主義の基礎を守るために、セキュリティーシステムの改良が喫緊の課題であることを学んだ。Facebookの元主任セキュリティー責任者Alex Stamosは、Disruptサンフランシスコにおいて、政治とサイバーセキュリティーの現状の厳しい見通しを示し、次の中間選挙でのセキュリティーのインフラは、2016年当時からそれほど良くなっていないと話した。
では、セキュリティーシステムの改善に、AIはどれくらい役に立つのだろうか。OktaのMark RodgersとDuoのMike Hanleyは、AIと「ゼロトラスト」と呼ばれるセキュリティーモデルの組み合わせに期待を寄せている。本人確認ができないかぎり、どのユーザーもシステムにアクセスできないという仕組みだ。それが、人を介さず侵入してくる相手を積極的に排除できるセキュリティーシステムの開発の鍵になるという。
Marc Rodgers (Okta) and Mike Hanley (Duo) outline how AI and Zero Trust will work hand-in-hand to build future security systems #TCDisrupt pic.twitter.com/h23e8Kzu2j
— TechCrunch (@TechCrunch) 2018年9月25日
https://platform.twitter.com/widgets.js
AIとゼロトラストが組み合わせた将来のセキュリティーシステムの仕組みを説明するMarc Rodgers(Okta)とMike Hanley(Duo)
「ゼロトラストの背景にある考え方全体が、自分のネットワーク内のポリシーを自分で決めるというものなので、AIとゼロトラストは理想的な縁組なのです」とRodgersは話している。「AIは、人間に代わって決断を下すことを得意としています。これまで人間には不可能だったほどの短時間で判断します。ゼロトラストが進化して、ゼロトラストのプラットフォームにAIが組み込まれるようになることを、私は大いに期待しています」
この大きな仕事を機械に任せられるようになれば、サイバーセキュリティーのプロは、もうひとつの差し迫った問題を解決する機会を得る。それは、これらのシステムを管理する資格を持つセキュリティーの専門家の配属だ。
「必要な仕事を実際に熟せる有能なセキュリティーのプロが、大幅に不足してます」とHanleyは言う。「それは、セキュリティーを提供する企業にとって、片付けなければならない仕事が特定できる非常に大きなチャンスとなります。この分野には、解決されていない問題が、まだたくさんあります。なかでも、ポリシーエンジンは面白いチャレンジになると思います」
Disruptサンフランシスコ2018のその他の記事(英語)
[原文へ]
(翻訳:金井哲夫)