【コラム】バイデン政権はインクルーシブであるためにAI開発の取り組みにもっと力を入れる必要がある

本稿の著者Miriam Vogel(ミリアム・フォーゲル)氏は、人工知能に存在する無意識の偏見を減らすことを目的とした非営利団体EqualAIの代表兼CEO。

ーーー

人工知能国家安全保障委員会(NSCAI)は2021年3月、不安なメッセージを公的に伝える報告書を発表した。「米国は、AI時代に防衛したり競争したりする準備ができていない」というものだ。この報告書は、直ちに回答が求められる2つの重要な質問につながる。つまり、米国がAIの開発と導入に遅れをとった場合、米国は世界の超大国であり続けるのか?そして、この軌道を変えるために私たちは何ができるのか?

一見、中立的に見える人工知能(AI)ツールを放置すると、不平等が拡大し、事実上、差別が自動化されてしまう。テクノロジーが可能にする弊害は、すでに信用判断、医療サービス広告などで表面化している。

このような事態の再発と規模の拡大を防ぐために、Joe Biden(ジョー・バイデン)政権は、AIと機械学習モデルに関する現行の法律を明確にする必要がある。これは、民間企業による利用をどのように評価するかという点と、政府システム内でのAI利用をどのように管理するかという点の両方においてだ。

一見、中立的に見える人工知能(AI)ツールを放置すると、不平等が拡大し、事実上、差別が自動化されてしまう。

政権は、ハイテク分野に重要な地位の人事を置いたり、就任初日にEquitable Data Working Group(公平なデータのためのワーキンググループ)を設立する大統領令を発布するなど、好印象を与えている。これにより、米国のAI開発とデジタル空間における公平性の確保を懸念する懐疑的な人たちをも安心させた。

しかし、AIへの資金提供を現実のものとし、その開発と利用を保護するために必要なリーダーと体制を確立するという強い決意を政権が示さなければ、その安心も束の間のことだろう。

優先順位の明確化が必要

連邦政府レベルでは、AI政策や技術分野における平等性へのコミットメントが大きく変化してきている。OSTPの副局長であるAlondra Nelson(アロンドラ・ネルソン)、NECのTim Wu(ティム・ウー)、NSCのKurt Campbell(カート・キャンベル)など、バイデン政権内の注目を集める人事を見ると、内部の専門家による包括的なAI開発に大きな焦点が置かれていることが分かる。

NSCAIの最終報告書には、包括的なAI開発のためのより良い基盤を実現するために重要となる提言が含まれている。例えば、現在および将来の従業員を訓練するためのU.S. Digital Service Academy(米デジタルサービスアカデミー)を通じて新たな人材パイプラインを構築することなどが挙げられている。

また、報告書では、副大統領が率いる新しいTechnology Competitiveness Council(技術競争力協議会)の設立を推奨している。これは、AIのリーダーシップに対する国の取り組みを最高レベルの優先事項として維持するために不可欠なものとなるだろう。ハリス副大統領が大統領との戦略的パートナーシップを持っており、技術政策に精通していること、公民権に力を入れていることなどを考慮すると、AIに関する政権のリーダーシップをハリス副大統領が陣頭指揮することは理に適っていると思われる。

米国は模範となるべきだ

AIは、何千通もの履歴書に目を通し、適している可能性のある候補者を特定するなど、効率化を実現する上で強力であることはわかっている。しかし、男性の候補者を優先的に採用するAmazonの採用ツールや、人種に基づく信用の「デジタル・レッドライニング」など、差別を拡大することもできてしまう。

バイデン政権は、AIが政府の業務を改善する方法についてのアイデアを募る大統領令を各省庁に出すべきだ。また、この大統領令では、米国政府が使用するAIが意図せずに差別を含む結果を広めていないかどうかを確認することも義務付けるべきである。

例えば、AIシステムに組み込まれた有害なバイアスが、差別的な提案や、民主的で包括的な価値観に反する提案につながっていないかどうかを評価する。そして、AIが常に反復して新しいパターンを学習していることを考慮すると、定期的に再評価を行うスケジュールを設定するべきだ。

責任あるAIガバナンスシステムの導入は、特定の利益を拒否する際にデュープロセスの保障が求められる米国政府においては特に重要だ。例えば、AIがメディケイドの給付金の配分を決定するために使用され、そのような給付金がアルゴリズムに基づいて修正または拒否された場合、政府はその結果を説明できなければならず、これはまさに技術的デュー・プロセスと呼ばれている

説明可能性、ガイドライン、人間の監督なしに決定が自動システムに委ねられると、この基本的な憲法上の権利が否定されるという、どうしようもない状況に陥ってしまう。

同様に、主要企業によるAIの安全対策を確実なものにするにあたり、政権はその調達力を通じて絶大な力を持っている。2020年度の連邦政府の契約費は、新型コロナ対策費を含める前でも、6000億ドル(約64兆9542億円)を超えると予想されている。米国政府は、AIシステムを連邦政府が調達する際のチェックリストを発行すれば、非常に大きな効果を上げることができる。これにより、関連する市民権に配慮しつつ、政府のプロセスが厳格かつ普遍的に適用されるようになるだろう。

AIシステムに起因する差別からの保護

政府は、AIの弊害から私たちを守るためのもう1つの強力な鍵を握っている。調査および検察の権限だ。判断がAI搭載システムに依存している場合、現行の法令(ADA、フェアハウジング法、フェアレンディング法、公民権法など)の適用可能性を明確にするよう各機関に指示する大統領令が出れば、世界的な大混乱に陥る可能性がある。米国で事業を行っている企業は、自社のAIシステムが保護対象クラス(Protected Class)に対する危害を加えていないかどうかをチェックするきっかけができることだろう。

低所得者は、AIの多くの悪影響に対して不相応に弱い立場にある。特にクレジットやローンの作成に関しては、従来の金融商品へのアクセスや、従来のフレームワークに基づいて高いスコアを得ることができない可能性が高いため、その傾向が顕著だ。そしてこれが、そのような判断を自動化するAIシステムを作るためのデータとなる。

消費者金融保護局(CFPB)は、差別的なAIシステムに依存した結果の差別的な融資プロセスについて、金融機関に責任を負わせる上で極めて重要な役割を果たす可能性がある。大統領令の義務化は、AI対応システムをどのように評価するかを表明するための強制機能となり、企業に注意を促し、AI利用に関する明確な予測で国民をよりよく保護することができる。

個人が差別的な行為をした場合には責任を問われ、説明もなく恣意的に公共の利益が否定された場合にはデュー・プロセス違反となることが明確になっている。理論的には、AIシステムが関与している場合、これらの責任と権利は容易に移行すると思われるが、政府機関の行動や判例(というよりもむしろ、その欠如)を見る限り、そうではないようだ。

差別的なAIに対する法的な異議申し立てを基本的に不可能にするようなHUD(都市住宅開発省)規則案を撤回するなど、政権は良いスタートを切っている。次のステップとして、調査や訴追の権限を持つ連邦政府機関は、どのようなAI行為が審査の対象となり、現行の法律が適用されるのかを明確にする必要がある。例えば、HUDは違法な住宅差別について、CFPBは信用貸しに使用されるAIについて、労働省は雇用、評価、解雇の際に行われる判断に使用されるAIについてといった具合だ。

このような行動は、苦情に関する原告の行動に有益な先例を作るという利点もある。

バイデン政権は、差別のない包括的なAIの実現に向けて、心強い第一歩を踏み出した。しかし、連邦政府は、AIの開発、取得、使用(社内および取引先)が、プライバシー、公民権、市民的自由、米国の価値観を保護するような方法で行われることを連邦政府機関に要求することで、自らの問題を解決しなければならないだろう。

カテゴリー:パブリック / ダイバーシティ
タグ:ジョー・バイデンコラム人工知能アメリカ差別医療広告インクルーシブ

画像クレジット:Andy Emel / Getty Images

原文へ

(文:Miriam Vogel、翻訳:Dragonfly)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。