AIの倫理規定を試行し参加を呼びかける欧州委員会

欧州委員会は、人工知能技術を開発し、適用する際の倫理規定の草案をテストする試験的プロジェクトを開始することを発表した。そうした規定を実際に施行できることを確認するためだ。

このプロジェクトでは、フィードバックを集積し、いわゆる「人間中心のAI」についての国際的な合意形成を促すことを目指している。さまざまな懇談会だけでなく、今後のG7やG20といった場で議論を盛り上げることが目標だ。

欧州委員会のAIに関するハイレベルグループは、産業界、学界、市民社会にまたがる52人の専門家によって構成されるもので、昨年の夏に公告された。そして昨年12月には、信頼できるAIについての倫理ガイドラインの草案を発行した。

さらにその文書の改訂版が、この3月に委員会に提出された。そこでは、専門家の意見を、信頼できるAIのための7つの「キーとなる要件」に集約している。その中では、既存の法律と規制を遵守する機械学習技術のあり方についても触れている。以下、順に見ていこう。

  • 人為作用と監視:「AIシステムは、人為作用と基本的権利を尊重することによって公平な社会を実現すべきであり、人間の自律を縮小、制限、または誤らせるものであってはならない」
  • 堅牢性と安全性:「信頼できるAIには、安全性、信頼性、および堅牢性を確保するためのアルゴリズムが必要であり、それはAIシステムのすべてのライフサイクルにおけるエラーや矛盾に十分に対処できるものでなければならない」
  • プライバシーとデータ運用:「市民は自分のデータを完全にコントロールできなければならない。そして、市民に関するデータが市民を傷つけたり、差別するために使われるようなことがあってはならない」
  • 透明性:「AIシステムのトレーサビリティ(追跡可能性)は保証されていなければならない」
  • 多様性、無差別、公平性:「AIシステムは、あらゆる範囲の人間の能力、技能、および要件を考慮し、アクセシビリティを確保しなければならない」
  • 社会的および環境的健全:「AIシステムは、建設的な社会の変化を促進し、持続可能性と環境保護の責任を増強するために使用されなければならない」
  • 説明責任:「AIシステムと、その結果に対する責任、および説明責任を確実なものにするための機構を整備しなければならない」

倫理的AIを促進するための戦略の次の段階は、このガイドラインの草案が大規模な試行において、どのように機能するかを見極めることだ。そこには、国際的な組織や、連帯外の企業など、広範囲の利害関係者が絡んでくる。

欧州委員会によれば、試行はこの夏にも開始されるという。そこで委員会は、企業、行政機関、各種団体に対して、AIに関するフォーラム、つまりEuqopean AI Alliance(欧州AI連盟)に参加登録し、試行の開始時に通知を受け取るよう呼びかけている。

また、そのAIのハイレベル専門家グループのメンバーは、欧州連合の加盟国の中の関連する利害関係者に、ガイドラインを提示し説明することにしている。そのグループのメンバーは、4月9日にブリュッセルで開催された第3回のDigital Dayにおいても、作業の詳細を発表した。

欧州委員会は、「人間中心の人工知能に対する信頼を築く」という公式の文書の中で、試行の計画を次のように説明している。

この作業は2つの柱を持っている。それは、(1)AIを開発し、または使用する利害関係者(公的機関を含む)を巻き込んだガイドラインの試行フェーズ、それと(2)加盟国および製造業やサービス部門など、さまざまな利害関係社のグループに対する、継続的な助言、啓発活動からなる。

  1. 2019年6月から、すべての利害関係者および個人に依頼して、アセスメントリストをテストし、それを改善するためのフィードバックを提供するように求める。さらに、AIのハイレベル専門家グループは、民間および公共部門の利害関係者との綿密なレビューを実施して、より詳細なフィードバックを集める予定となっている。それにより、広範囲なアプリケーションの領域で、ガイドラインをどう実装すればよいのかについての情報を得る。ガイドラインの実効性および実現可能性に関するすべてのフィードバックは、2019年末までに評価される予定となっている。
  2. これと並行して、欧州委員会はさらなるアウトリーチ活動を組織し、AIのハイレベル専門家グループの代表者が、加盟国の関連する利害関係者(製造業やサービス部門を含む)にガイドラインを説明する機会を与える。さらに、そうした利害関係者が、AIガイドラインについて意見を述べ、貢献できるようにな機会を準備する。

この声明の中で、Digital Single Market担当の副委員長、Andrew Ansip氏は次のように述べている。「AIの倫理的側面は、付加機能やアドオンといった類のものではありません。私たちの社会が技術から完全な恩恵を受けるためには、信頼が不可欠です。倫理的AIは、ヨーロッパにとって競争における優位をもたらすことのできるウィンウィンの提案です。それによって、人々が信頼できる人間中心のAIのリーダーになれるのです」。

「今日、私たちは倫理的で安全なAIに向けた重要な一歩をEU内で踏み出しました」とDigial Economy and Society担当コミッショナーのMariya Gabriel氏は付随する別の声明で述べている。「私たちは今や、EUの価値観に基づいた確固たる基盤を築いています。それは産業界、学界、市民社会を含む多くの利害関係者の広範かつ建設的な取り組みに基づいたものです。私たちは今、これらの要件を実践すると同時に、人間中心のAIに関する国際的な議論を発展させるのです」。

試行段階の後、2020年の初めには、専門家AIグループが、受け取ったフィードバックを基にして形成された主要な要件について、アセスメントリストをレビューすることになると、欧州委員会は述べている。さらに、そのレビューに基づいて結果を評価し、次のステップを提案することになるという。

一方、2019年の秋までに、欧州委員会は、AI研究の粋を集めたセンターのネットワークをいくつか立ち上げることにしている。さらに、デジタルイノベーションハブのネットワークも設立する予定となっている。加盟国と利害関係者との間の議論を促進することで、データ共有のためのモデルを開発して実施し、共通のデータ空間を最大限に活用することを目指すものだ。

この計画は、2018年4月に策定された欧州委員会のAI戦略に基づいており、今後10年間で、公共および民間のAI投資を少なくとも年間200億ユーロ(約2兆5300億円)にまで増加させることを目標としている。より多くのデータを利用可能にし、才能を育成し、信頼を確保するものだ。

画像クレジット:NicoElNino/Getty Images

原文へ

(翻訳:Fumihiko Shibata)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。