コロナ禍と社会動乱の同時発生によってはっきりしたAI規制の必要性

編集部注:Newman(ニューマン)氏は、Baker MacKenzie(ベーカーマッケンジー)の北米企業秘密部門を率いている弁護士です。本記事に掲載されている見解や意見はニューマン氏個人のものです。

筆者は、イノベーションを推進しつつ公衆の衛生と安全を保護するためのAI規制を長年にわたり提唱してきた者として、筆者が提案し現在は下院の討議用草案となっている「Section 102(b) of The Artificial Intelligence Data Protection Act(人工知能データ保護法第102(b)条)」法案を、米国連邦議会が超党派で成立させるのをこれ以上遅らせるべきではないと考えている。この第102(b)条で規定されるAIの倫理的使用に関する法令は、いわば防護柵として、個人の尊厳を守るためになくてはならないものだ。

人工知能データ保護法第102(b)条とはどのような法律なのだろうか。また、連邦政府がこの法案を早急に成立させる必要があるのはなぜなのだろうか。

これらの質問に答えるには、まず、我々の民主主義社会が2つの脅威に同時に直面するという歴史上まれな状況の中で人工知能(AI)がどのように使われているかを理解することが必要である。それを理解して初めて、AIが個人の尊厳に対してどのようにリスクとなるのかを認識し、米国市民が大切にしている自由を守り社会の基盤を支えるうえで前述の第102(b)条が非常に重要な措置の1つであることを理解できる。

米国では今、人種差別と警官による暴力行為を終わらせようと大規模な抗議活動が行われており、それと同時に、死をもたらす新型コロナウイルス感染症のパンデミックを鎮めようと苦戦する中で社会不安が高まっている。この二重の危機のいずれの場合においても―さらには生活のすべての側面において―我々がそれに気づいているかどうか、あるいは同意しているかどうかに関わらず、個人に関する重要な決定を下すために政府や民間組織によってAI技術が導入されている。多くの場合、AIは社会を補助する役割を担い、我々が新しい日常にできるだけ早く順応できるように助けるものとして利用されている。

しかし、これまで政策立案者たちは全体的に、AIの利用が公衆の衛生と安全に及ぼす深刻なリスクを見て見ぬふりをしてきた。今までAIといえば、そのアルゴリズムのトレーニングに使われるデータセットの公平性、偏見の有無、透明性が注目されることがほとんどだった。確かに、アルゴリズムに偏見が入り込んでいることには疑いの余地がない。雇用や融資の現場を見れば、女性や民族的少数派が不公平な方法で排除されているケースを目撃するのは簡単だ。

我々はまた、AIが想定外かつ、時には説明不能でさえある結論をデータから導き出すのを見てきた。一例として、裁判官が非暴力事件の被告に公明正大な判決を下すのをサポートする目的で導入された再犯予測アルゴリズムに関する最近の事例について考えてみよう。理由はまだ明らかにされていないが、そのアルゴリズムでは23歳より若い被告に対してより高いリスク点数が算出され、その結果、収監回数がより多い23歳以上の犯罪者よりも実刑期間が12%長くなり、収監期間も再犯予測率も軽減されなかった。

しかし、米国が直面している二重の危機は、往々にして見過ごされてきた別のもっと厄介な問題を浮き彫りにした。それは、AIアルゴリズムが正常に機能した場合でも、その結果に対して社会が倫理的な観点から不快に感じる場合にはどのように対処すべきなのか、という問題である。AIの主な目的は、正確な予測データを算出することにより、人間が決定を下す際の判断根拠を提供することである。政策立案者は今こそ、「AIで何ができるか」ではなく「AIがすべきではないこと」について措置を講じるべきだ。

政府や民間企業は、個人データを果てしなく集め続けている。現在、AIアルゴリズムは米国を含め世界中で、我々すべてに関するあらゆる種類のデータを正確に収集、分析するために利用されている。例えば、群衆の中から顔認識でデモ参加者を監視したり、一般市民が適切なソーシャルディスタンシングを守っているかどうかを判別したりするのにAIが使われている。また、接触者追跡のために携帯電話のデータが収集されており、特定の地域における新型コロナウイルスの感染状況や、抗議デモの場所、規模、暴徒化の有無を予測するために、公開されたソーシャルメディアのデータが収集されている。さらに、マスク着用や高熱の有無を分析するためのデータがドローンを使って集められていることや、入院している新型コロナウイルス感染症患者の重症化の可能性を予測するために個人の健康情報データが集められていることも忘れてはならない。

これだけの量の個人データをこれほど大規模に収集して分析するのは、AIを使わなければ不可能だ。

治安を維持し壊滅的なパンデミックを抑え込むためという大義名分の下でAIを使って携帯電話のデータ、社会的な行動、健康記録、移動パターン、ソーシャルメディアの投稿内容をはじめとする多数の個人データセットにアクセスして個人のプロフィールを把握できるということはすなわち、さまざまな政府系の機関や法人が我々にとって最もプライベートな個性、政治観、社交関係、社会的行動について恐ろしいほど正確に予測し得ること、また現実にそうなることを意味している。

このまま何の規制も課されなければ、AIがはじき出した分析結果のデータが、法執行機関、雇用者、家主、医師、保険会社をはじめ、その種のデータを収集あるいは購入し得るあらゆる個人、民間企業、政府機関によって個人に関する予測的な判断を下すために利用され、判断根拠になった予測が正確かどうかに関わりなく、その判断結果が個人の生活に影響を及ぼし、自由民主主義の根幹を揺るがすことになる。雇用の現場において面接、採用、昇進、解雇の対象者を選ぶ際にAIが果たす役割はかつてなく大きくなっており、拡大し続けている。刑事司法の分野では、収監対象者や判決内容を決めるためにAIが使われている。その他の場面でも、例えば自宅への訪問者に対する防犯チェックや、病院で特定の治療を制限すること、融資申請の却下、ソーシャルディスタンシング規制に違反した場合の罰則などにもAIが関わっている。

AIに関する規制に乗り気でない人々は、上記のような懸念を単なる仮説で大げさすぎる話として片付けてしまいがちだ。しかし、ほんの数週間前、ミシガン州に住む黒人男性のRobert Williams(ロバート・ウィリアムズ)氏が、AI顔認識のミスによって誤認逮捕されるという事件が起きた。報道や米国自由人権協会(ACLU)のプレスリリースによると、デトロイト警察はウィリアムズ氏の自宅の前庭、妻と恐怖に震える2歳と5歳の娘たちの目の前で、同氏に手錠をかけたという。警察は同氏を自宅から40分ほど離れた拘置所に連行し、一晩収容した。次の日の午後に行われた取り調べで警察官が「コンピュータの顔認識が間違っていた」と認め、同氏はやっと釈放された―この時、逮捕から約30時間が過ぎていた。

この事件はAIによる顔認識のミスが無実の市民の逮捕につながった最初の事例として広く知られることになったが、このような事件はこれからも起きるだろう。今回の事件では、法執行機関による逮捕という、国民に大きな影響を与える重大な決定を下す際にAIが主要な根拠として使われた。我々はここで、AIの顔認識が間違った人間を特定して、その人の自由を奪ったという事実だけに注目すべきではない。AIが特定の重大な決定を下す際の根拠として使われるべきでない状況を特定して、そのような状況ではたとえAIの分析結果が正しいとしてもAIの使用を禁止しなければならない。

民主主義社会に住む者として、我々は、考えたが実行しなかった犯罪のせいで逮捕されたり、最終的に必ず死に至ると分かっている病気の治療を拒否されたりすることについて、ウィリアムズ氏の誤認逮捕事件と同じくらい不快に感じることだろう。個人の自由を守るために、いわばAIの「飛行禁止区域」を設ける必要がある。ある種の重大な決定が人工知能のアルゴリズムによってはじき出された予測結果のみに依存して下されることを絶対に許してはならない。

もう少し明確に言うと、AIにインプットしたデータにも、それに基づいてアウトプットされた結果にもまったく偏見が含まれておらず、透明性と正確性にもまったく問題がないことに、関係するすべての専門家が同意している場合であっても、それをどんな形であれ予測的あるいは実質的決定に使うことを禁止する法令を設けなければならない、ということだ。確かにこれは、数学的な正確さを追求するこの世界にはそぐわないかもしれないが、それでも必要なのである。

人工知能データ保護法第102(b)条は、AIが正確な結果を算出した場合と不正確な結果を算出した場合のどちらのシナリオにおいても適切かつ合理的にデータを保護できる規制である。具体的には次の2つの方法でデータを保護する。

第一に、第102(b)条では、どのような決定においてAIを根拠の全体もしくは一部とすることが禁じられるのかが具体的に指定されている。例えば、対象組織が人工知能のみに依存して決定を下すことがAIの誤用として禁止される場合について列挙されている。それには、個人の新規採用、雇用、懲戒処分、医療行為の拒否または制限、医療行為の範囲について医療保険会社が決定を下す場合などが含まれる。社会で最近生じてきた出来事に照らして考えると、AIが人種差別や保護されたマイノリティに対するハラスメントを助長するツールとして使われるリスクをさらに抑えるために、AI使用禁止対象となる分野は今後拡大していくことだろう。

第二に、第102(b)条では、AIによる分析が全面的に禁止されるわけではないその他の分野については、意思決定のプロセスにおいて必ず人間を関与させることが義務付けられている。

第102(b)条を早急に成立させることによって、立法機関は個人の生活に影響を及ぼす重大な決定が人工知能アルゴリズムによって算出される予測データのみに基づいて下されることを防ぎ、個人の尊厳を守ることができるのである。

関連記事:コロンビアから学ぶ、テック業界と輸送産業の発展を阻む古い規制

カテゴリー:人工知能・AI

タグ:コラム プライバシー

[原文へ]

(翻訳:Dragonfly)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。