欧州司法裁判所で異議申立てされた「オーウェル的」AIうそ発見器プロジェクト

EU出資の研究プロジェクトが議論の的になっている。そしてこのプロジェクトに関して2021年2月初旬、欧州司法裁判所で法的な異議申し立てが行われた。プロジェクトの目的はというと、顔の表情に基づく「うそ発見」に人工知能を使用して入国審査をスピードアップすることである。

欧州連合(EU)の資金調達プログラムを監督する研究執行機関(REA)に対して行われた透明性に関する訴訟は、2019年3月にドイツ海賊党の欧州議会議員で人権擁護活動家のPatrick Breyer(パトリック・ブレイヤー)氏が起こしたものである。同氏は以前にも文書の開示拒否をめぐって欧州委員会に勝訴している。

同氏はこのプロジェクトの倫理的評価、法的許容性、マーケティング、および成果に関する文書の公開を求めている。さらに、公的資金を投入した研究はEUの基本的権利を遵守しなければならないという原則を規定し、その過程でAIの「まやかし」により公的資金が浪費されることを阻止したいと考えている。

この度の公聴会に続く声明でブレイヤー氏は「EUは危険な監視、統制技術を開発させ続けており、将来的には兵器研究にも資金を提供することになるでしょう。私的な利益のために公的資金が使われている非倫理的な研究に対し、公的な監査と議論を可能にする画期的な判決を期待しています」と述べた。「納税者や科学者、メディア、議会議員には、公的資金に基づく研究に関する情報を取得する権利があることを、今回の透明性に関する訴訟で裁判所にきっぱりと裁定してもらいたいと思っています。『iBorderCtrl(アイボーダーコントロール)のビデオうそ発見器』のような疑似科学的でオーウェル的(権威主義や監視社会を表す表現)な技術についてはなおさらです」。

裁判所はまだこの件について判決日を指定していないが、裁判官からREAに対し「1時間以上にわたって集中的かつ批判的な」質問があったとブレイヤー氏は述べた。また同氏が明らかにしたところによると、関連するAI技術についての文書は、公開はされていないが裁判官によりその内容が検討されている。この文書には「人種的特徴」に関する記述なども含まれ、多くの疑問が投げかけられているということだ。

ブレイヤー氏によると、裁判長は続けて、物議を醸しているiBorderCtrlプロジェクトについて、より多くの情報を公開しREAに隠蔽するものが何もないと証明することは、同機関の益にもなるのではないかと問いただしたという。

AI「うそ発見器」

問題の研究が議論の的となっているのは、正確なうそ発見器という概念はいまだサイエンスフィクションの域を出ず、人がうそをついてることを示す「すべての人に共通の心理学的サイン」の存在は立証されていない、という正当な理由からである。

しかし、このAIを駆使したビデオうそ発見器(ウェブカメラで被験者の顔の表情をスキャンしながら、バーチャル入国審査官からの質問に答えるように求め、欧州理事会(EC)のプロジェクト公式概要で「嘘のバイオマーカー」と表現されているものを検出することで、被験者の表情の真実性をスコア化するというもの(本当にこういう仕様なのである)を構築するための商業研究開発の「実験」は、EUのHorizon 2020(ホライゾン2020)計画の下で450万ユーロ(約5億7000万円)以上の研究資金を獲得している。

iBorderCtrlプロジェクトは2016年9月から2019年8月までの間に実施され、資金調達は多くの加盟国(英国、ポーランド、ギリシャ、ハンガリーなど)において13の民間または営利団体の間で広く行われた。

欧州委員会が2020年公表するとしていた公開調査報告書であるが、透明性の欠如に異議を唱えるブレイヤー氏の質問に対する書面での回答によると、まだ公開されていないようだ。

2019年、米国のインターネットメディアであるThe Intercept(インターセプト)が、iBorderCtrlのシステムを実際にテストした。このビデオうそ発見器は被験した記者に嘘をついているという無実の罪を着せた。彼女が16の質問のうち4つに、虚偽の回答をしたと判断し、総合スコア48という数字を与えたのだ。この結果をチェックした警察官によると、この記者は追加チェックの対象になるとシステムにより判断を下されたという。もちろん、このシステムが実際の入国審査で稼働されたわけではなかったので、再チェックになることはなかったのだが。

The Interceptはこの記者に対するテスト結果のコピーを入手するため、EU法により定められた権利であるデータアクセス要求を提出する必要があったと述べた。The Interceptはレポートで、ダービー大学の犯罪捜査学教授であるRay Bull(レイ・ブル)氏の言葉を引用している。同氏はiBorderCtrlプロジェクトには「信憑性がない」と述べ、人の顔のマイクロジェスチャーをモニタリングすることで嘘を正確に測定できるという十分な証拠はない、という理由を挙げている。

「REAはこのうそ発見器に実質的効果があると都合のよい解釈をし、多くの資金を浪費しています。この技術の根底には、真実を述べている人と、うそをついている人の振る舞いについて、根本的な誤解があります」ブル氏はこのようにも語っている。

十分なデータを入力するだけでAIが人間の特徴を自動予測できるという考えは、とても広く浸透している。とても嘆かわしいことだ。機械学習を応用して顔の形から「人格的特徴」を導き出すことで骨相学を復活させようとする最近の試みからも、そのことは明らかだ。こうして、顔をスキャンするAI「うそ発見器」は、非科学的な「伝統」に従っているのだ。そうした恥ずべき伝統は長い間はびこっている。

21世紀になって、何百万ユーロ(何億円)もの公的資金が粗悪な、古いアイデアの焼き直しにつぎ込まれているのは、率直にいって信じ難いことだ。こうした公的資金の無駄遣いは、EUが資金協力するこのうそ発見器の研究に内在する倫理的・法的な盲点について検討しようとする以前の問題だ。またこの研究は、EU憲章に定められた基本的権利に反している。そして、この研究が開始されるに至るうえで誤った判断が多く下されたことを考えると、とても情けない気持ちになる。

このような怪しげなAIの応用システムに資金を提供することは、データ駆動型テクノロジーが偏見や差別を広げるリスクを抱えていることを示す、過去の優れた研究をすべて無視しているようにも見える。

ただし、このAI応用実験における倫理的側面への配慮について、iBorderCtrlを支援するコンソーシアムが下した評価については、非常に限られた情報しか公開されていないため、確かなことはわからない。この倫理的側面への配慮というのは、ビデオうそ発見器に対する訴状の中核となる部分だ。

ルクセンブルクにある欧州司法裁判所での異議申し立ては、欧州委員会にとって非常に厄介な疑問を提起している。EUは疑似科学的な「研究」に公的資金を投入すべきなのか?本当の科学に資金を提供するべきではないか?そして、EUの珠玉となる主力研究プログラムが、なぜこれほどまでに公的な監視を受けていないのか?といった疑問である。

一方で、このビデオうそ発見器がEUの「倫理的自己評価」プロセスをパスしたという事実から「倫理面の問題がないかチェックする」とされているこのプロセスが、まがい物であることがうかがい知れる。

「研究開発の申請を受け入れるかどうかは、まず加盟国の代表者が判断を下し、最終的にはREAが決定します。したがって公的な監視がなく、議会やNGOは関与していません。そういったプロジェクトのすべてを審査する、独立した倫理団体もありません。研究開発に関連した全体的な仕組みは、非常にお粗末なものなのです」とブレイヤー氏は語る。

「この研究開発の目的は科学に貢献することでも、公共の利益に寄与することでも、EUの政策に貢献することでもなく、産業を支援することであり、つまり販売できる製品を開発することであるというのがREAの基本的な主張です。成り立ちからして、これはまさに経済支援プログラムなのです。そしてこうしたプログラムのあり方の是非、プログラムの妥当性の有無について私たちは議論すべきだと思っています」。

「EUはAIを規制しようとしていますが、実際のところ、非倫理的で違法な技術に資金を提供しているのです」と同氏は付け加えた。

外部からの倫理的監視がない

EUが自らの定める権利に反するような研究に資金を提供することは、偽善である。さらに、批判者たちが主張するように、本当に有用な研究(安全保障目的の研究、もっと広く見れば公共利益に寄与する研究、EUの議員が好んで言及する「欧州的価値観」を促進する研究など)に費やされるべき公的資金の無駄遣いであるといえる。

「この研究は正常に機能しない、非倫理的である、違法であるといった理由からまったく活用されることがない上に、本当に重要で有用な他のプログラムに使われるべき資金を浪費しています。こうした点について私たちは知り、理解する必要があります」とブレイヤー氏は主張する。

「例えば保安対策プログラムに投資して警察官の安全装備を改良できるかもしれません。あるいは犯罪防止対策として国民への情報提供システムを改善できるかもしれません。つまり資金を適切に利用すれば、多くのことに貢献できるのです。怪しげな技術に資金が無駄遣いされるようなことがあってはならないのです。AI「うそ発見器」に類する技術が決して実用化されないよう祈るばかりです」。

EUの主力研究およびイノベーションプログラムの今回の具体化は、Horizon 2020を引き継いでおり、これには2021年から2027年の期間で約955億ユーロ(約12兆円1700万円)の予算が計上されている。またデジタルトランスフォーメーションの推進とAIの開発は、EUが 公表している研究資金投入の優先事項にあたる。そのため「実験的」AIに利用できる資金は莫大にあると考えられる。

しかし、アルゴリズムによるまやかしに資金が浪費されないよう監視するのは誰なのか。研究開発がEUの基本的人権に関する憲章に明らかに反している場合、このアルゴリズムによるまやかしは危険なものになるのだ。

欧州委員会は、これらの問題に関する説明を求める再三の要請を拒否したが、公になっている項目(下記)と、文書へのアクセス(これが訴状の中核なす)に関する背景情報をいくつか発表した。

「研究における倫理」に関する同委員会の公式声明は「EUが資金提供する研究においては倫理が最優先される」という主張から始まる。

「Horizon 2020の下で行われるすべての研究やイノベーション活動は、倫理的原則、および基本権憲章や欧州人権条約を含む関連する国内法、EU法、国際法を遵守しなければならない」とも述べ、さらにこう続く。「すべての計画は特定の倫理評価を受ける。この評価により、その研究プロジェクトが倫理的規則および基準を遵守しているかどうかが検証され、その遵守を契約により義務づけられる」。

この声明は尊厳やプライバシー、平等、無差別の権利といったEUの基本権を「ビデオうそ発見器」が遵守することができるのかという点について、詳しく述べてはいない。

そして注目すべきは、欧州データ保護監督官(EDPS)が、EUの資金提供する科学研究とデータ保護法との間のズレについて懸念を表明したことだ。2020年の予備的意見書にはこう書かれている。「我々は、データ保護当局と倫理審査委員会が活発な議論を行い、共通理解を深めることを提言する。議論すべき内容には次のものが含まれる。真正な研究に該当する活動を判定する基準、科学研究を対象とするEUの行動規範、EUのフレームワークプログラム(EU加盟国および関連国を対象とした研究助成プログラム)とデータ保護基準との緊密な連携、民間企業が保有するデータを研究者が公共の利益という観点に基づいて活用できる状況を定義するための話し合いの開始、といったことである」。

とりわけiBorderCtrlプロジェクトについては、研究において倫理的側面が関係する部分を「研究開始当初に定められた倫理要件を遵守」しながら進めていけるよう監督する倫理アドバイザーを任命した、と欧州委員会はTechCrunchに語った。「アドバイザーについては、コンソーシアムからの自律性と独立性を確保しながらその職務を果たす」と主張しているが、プロジェクトの(自薦の)倫理アドバイザーが誰であるのかについては明らかにしなかった。

「倫理的な部分については、プロジェクトの遂行中、同委員会やREAが常に管理し、成果物を適宜改正している。報告期間の終わりに行われる技術審査会議では、外部の独立した専門家の協力を得て慎重に分析を行っており、2019年3月に十分な倫理チェックが行われた」と記載されている。

この自主規制的な「倫理チェック」についての詳細は明らかにされなかった。

「これまでのところ、基本的に倫理チェックは欧州委員会が、提案や要請に応じて設置した専門家グループにより行われています」とブレイヤー氏は言い、EUの研究プログラムの構成に言及している。「研究プログラムは業界の専門家が大半を占めており、議会議員は1人もおらず、市民社会の代表者は、私が考えるところでは1人しかいません。つまりそもそも最初から構成が間違っているのです。それから研究執行機関(REA)があり、実際の決定はEU加盟国の代表者によって行われます」。

「研究提案を奨励する動き自体は調べてみると非常に一般的なもので、問題はないようです。本当の問題は提出された研究提案の方なのです。そして私が理解している限り、こういった提案は独立した専門家によって審査されていません。つまり、倫理の問題に自己評価で対処しているのです。プロジェクトに高い倫理的リスクがあるかどうかは、基本的に研究の提案者が申告することになっています。提案者が倫理的リスクがあると申告した場合のみ、REAによって選出された専門家が倫理評価を行います」。

「我々には誰の研究提案が採用されたのかも、その研究の内容もわかりません。そうした情報は非公開なのです。後になってプロジェクトに倫理的な問題があることがわかったとしても、資金援助を取り消すことはできません」。

欧州委員会がAIの応用に関してリスクベースの規定を策定中であることから、偽善を暴こうとするブレイヤー氏による告発は大きな注目を集めている。またEUの議員たちは、人工知能技術がEUの価値観や権利に沿って適用されるようにするためには「ガードレール」が必要であることを何年も前から主張してきた。

関連記事:EUでのデジタル課税やAI、プライバシー保護について競争政策担当委員が欧州議会に回答

例えば欧州委員会のEVP(エグゼクティブバイスプレジデント)であるMargrethe Vestager(マルグレーテ・ベステアー)氏は、人工知能が「倫理的に使用され」「人間の意思決定をサポートし、それらを損なうことがない」ようにするための規定の必要性について語っている

しかしEUの諸機関は、EUで実施されれば明らかに違法となるようなAI研究に公的資金を投入していることも事実である。市民社会の批評家たちは「うそ発見」の有効性を裏づける科学的根拠がないことを考えると、この研究は明らかに非倫理的であると非難している。

iBorderCtrlのウェブサイト内にあるFAQセクションでは、同プロジェクトで開発された技術の一部は実際に導入された場合、既存のEUの法的枠組みの範囲を超えてしまうことを、プロジェクトを推進している商業ベースのコンソーシアムが認めている。そしてこれは「法的根拠を確立する政治的決定が民主的になされない限り、そうした技術は導入できない」ことを意味する、と付け加えている。

言い換えれば、そのようなシステムを実際に欧州の入国審査に使うことは、法律を変えなければ違法になるということだ。それにもかかわらず、ヨーロッパの公的資金がそうした技術の研究に投入された。

欧州データ保護監督官(EDPS)の広報担当者はブレイヤー氏のケースについて具体的にコメントすることを控えたが、それでも科学研究とデータ保護に関するEDPSの予備的見解は重要な意味を持つことを認めた。

また、EU全体における健康データの研究目的の共有を奨励する欧州委員会の最近の動きに対応した、さらなる関連研究についても触れた。これについてEDPSは、データ保護の予防措置は「最初に」定義されるべきであり、また、研究が開始される前に「考え抜かれた」法的根拠が確立されるべきであると助言している。

「EDPSは健康データ共有の枠組み内でデータを倫理的に使用することに留意するよう勧告しており、そのために、既存の倫理委員会および国内法に照らした同委員会の役割を考慮に入れることを促している」と、EUの主任データ監督官は書いている。また「健康データ共有計画の成功には、EUの価値観(基本的権利の尊重など)に根ざし、合法で、責任ある倫理的管理を保証する強力なデータガバナンスメカニズムの確立が鍵となることは確実だ」と加えている。

(長文を嫌う人のための)要約:データの法的・倫理的な使用は、最初から研究努力の大前提である。データが法的・倫理的に使用されているかどうかを、研究開始後にチェックするようなことがあってはならない。

検証不可能な技術

EUの資金が投入された研究プロジェクトに対して独立した倫理的監視がないことに加え、営利目的とされる研究について現状懸念されるのは、外部の人間がその研究の技術を独立して検証する(つまり誤りを立証する)方法がないことだ。

iBorderCtrlの技術の場合、プロジェクトの成果に関する有意なデータは公開されておらず、情報公開法に基づいてデータを要求しても、商業的利益を理由に認められない。

ブレイヤー氏は2019年にこのプロジェクトが終了して以来、その成果に関する情報を取得しようと試みているが、果たされていない。ガーディアン紙は2020年12月に同氏が反撃したことについて詳しく報じている。

プロジェクトの成果に関する情報を公開する、しかも終了後、長い時間を経てからそうするための要件は、EUの研究に関わる法的枠組みの下では非常に限られているとブレイヤー氏は述べている。したがって同氏が望むのは「商業的利益」を盾に公共の利益になる情報開示をすべてにおいて拒否することはできない、という主張に司法裁判所が合意することである。

「REAは基本的に、プロジェクトが実際に実用化できるかどうかを検討する義務はないので、実用化できない研究に資金提供する権利があると主張しています」と同氏はTechCrunchに語った。「それに、情報を公開することで技術の販売に悪影響が及ぶ場合、それは情報公開を拒む十分な理由になると主張していますが、これは商業的に機密性の高い情報を極端に拡大解釈しています」。

「ソフトウェアプログラムのソースコードや、内部計算など、本当に商業上の秘密が含まれている情報を除外することなら私も認めます。しかし、例えばあるプロジェクトに倫理的な問題があるとされている場合は、商業的利益を理由に情報公開要求を拒否できるようなことがあってはなりません。倫理的な問題があるプロジェクトであれば、たとえ公開された情報に商業上の秘密が含まれていなくても、確かに技術の販売に悪影響が及ぶでしょう。しかしREAの主張のような解釈はあまりにも極端です」。

「今回の法的措置が前例となり、倫理的な問題があり、実際に使用されたり導入されたりした場合に違法となる技術に関する情報を明らかにし、公衆の「知る権利」は技術を販売するための商業的利益よりも優先されるということが明言されるよう願っています」とブレイヤー氏は付け加えた。「REAは情報を公開することで技術が売れる可能性が低くなるためにそうしないと言っています。こうした主張について知ったとき、今後、彼らは情報公開要求すべてに対して同じような主張で対抗してくるはずですから、このケースは間違いなく法廷に持ち込む価値があると考えました」。

市民社会団体も、iBorderCtrlプロジェクトに関する詳しい情報を入手しようという試みに失敗している。The Interceptが2019年に報じたところによると、ミラノに拠点を置くHermes Center for Transparency and Digital Human Rights(透明性とデジタル人権のためのエルメスセンター)の研究者が情報公開法を利用してiBorderCtrlのシステムなどに関する内部文書を入手したが、彼らが得た何百ものページは大幅に修正されており、その多くは完全に黒塗りにされていた。

「その他の怪しげな研究プロジェクトについて調べようとして失敗したジャーナリストから、REAが情報を大量に隠しているという話を聞いたことがあります。倫理報告書や法的評価のようなものでさえも隠匿されており、そうした情報自体に商業的な機密は含まれていません」とブレイヤー氏は続ける。「ソースコードもいかなる機密情報も含まれていません。REAはこうした情報に関しては部分的にも公表していません」。

「EU当局(REA)は実際のところ、利益が減る可能性が判明すれば情報はすぐに非公開にするのだから、どのような関心に基づく情報公開要求があっても我々には関係がないと述べているのです。これには開いた口がふさがりません。自分たちの税金が何に使われているのかを知りたいという納税者の関心、および「虚偽検出」の実験をテスト、検証すべきだと求める科学的な関心の観点からも、REAの主張は容認できません。さらに、『虚偽検出』については本当に機能するのかという点を焦点に激しい議論が交わされています。科学者が虚偽検出の技術を検証したり誤りを立証したりするためには、当然ながら、この実験の詳細情報が必要です」。

「また、民主的にいえば、議会議員がこのようなシステムの導入を決定する場合や、研究プログラムの枠組みを決定する場合にさえも、詳細情報を知る必要があります。例えば、誤検出の数はどれくらいだったのか、システムの実際の精度はどの程度か、顔認証技術などは特定の集団にはあまりうまく機能しないことを考慮すると、差別的影響があるのか、といった情報です。私たちが本当に今すぐに知る必要があるのは、こういった情報で十分なのです」。

EUが資金提供している研究に関連する文書へのアクセスについて、欧州委員会は「各ケースは慎重かつ個別に分析される」と付け加えながらも、規則1049 / 2001を参照するよう我々に促した。欧州委員会によると同規則が「一般的な原則と制限を規定している」という。

しかしHorizonプログラムの規則に対する同委員会の解釈は、情報公開法の適用を、少なくともiBorderCtrlプロジェクトのケースでは完全に排除しているように見える。

ブレイヤー氏によると、情報公開は研究結果の概要に限定されている。この概要はプロジェクトの完了から約3、4年後に公開可能となる。

「どこかの科学雑誌でこのプロジェクトについて5、6ページの論文が掲載されますが、もちろんそれを使って技術の検証や誤りの立証をすることはできません」と同氏はいう。「プロジェクト関係者による具体的な取り組みや、プロジェクトへの協力機関は不明です。そのため研究結果の概要は科学的にも民主的にも何の意味も持たず、一般市民にも利益はありません。しかも、公開までに時間がかかりすぎます。ですから、将来私たちがより多くの情報を把握し、できれば公開討論が行われることを私は期待しています」。

EU研究プログラムの法的枠組みは二次法である。そのため、ブレイヤー氏は「商業的利益」の保護に関する包括的条項が、透明性に関するEUの基本的な権利より優位になるようなことがあってはならないと主張している。しかしもちろん、決定は裁判所次第だ。

「透明性、それに情報へのアクセスは、実際EUの基本的権利であり、EU基本権憲章に記載されているため、私にも大いにチャンスがあると考えています。そしてこのホライズンの法規はあくまでも二次法であり、一次法から逸脱できません。二次法は一次法に沿って解釈される必要があります」とブレイヤー氏は語る。「ですから、おそらく裁判所が私の主張を認め、公共の利益の優先を前提としつつ商業上の情報も保護する情報公開法の観点から、うまくバランスの取れた判断を下すと思います。裁判所がちょうどよい妥協点を見つけ、うまくいけば、これまでよりも多くの情報が公開されるようになり、透明性も増すだろうと思います」。

「おそらくREAは文書の一部を黒く塗りつぶし、一部は修正するでしょうが、原則として文書にアクセスできるようになると期待しています。そして、将来的にこの研究に関して要求される情報の大半を、欧州委員会とREAは必ず提供しなければならないことになります。この研究に関連して怪しげなプロジェクトがまだたくさんあるからです」。

ブレイヤー氏によると、資金提供申請を承認する委員会を産業界とEU加盟国の代表者(彼らは当然、EUの資金が常に自分たちの地域に入ってくることを望んでいる)中心に構成するのではなく、議会の代表者、より多くの市民社会の代表者、科学者も含めて構成することで、研究プロジェクトを監視できる優れたシステムをスタートさせることができる、とのことである。

「研究プロジェクトの監視システムには独立した参加者が必要で、そうした参加者が過半数を占めるべきです」と同氏はいう。「それは、研究活動の舵を取り、公共の利益、EUの価値観の遵守、そして研究の有用性といったことを促進する上で意味があることです。私たちは、効果がなかったり、倫理的な問題であったり、違法であったりするために決して利用されない研究について知り、理解する必要があります。そうした研究によって、とても重要かつ有用な他のプログラムに使うべき資金が浪費されているからです」。

ブレイヤー氏はまた、防衛に焦点を置く新しいEU研究プログラムが立ち上げ中であることを指摘している。この研究プロジェクトの構造は、これまでと同じである。つまり資金提供の決定や情報開示に対する適切な公的監視体制が整えられていない。同氏は次のように述べている。「REAは防衛技術の研究プロジェクトにおいても、iBorderCtrlの場合と同様のことを行おうと考えています。そして、この研究プロジェクトでは致死技術さえ扱われるのです」。

ブレイヤー氏によると、これまでのところiBorderCtrlに関して唯一開示されているのはそのシステムの技術仕様の一部と通信レポートの一部のみで、同氏はどちらも「大幅に修正されている」と述べている。

「REAは、例えば、このシステムを導入した国境機関も、このプロジェクトに関与している政治家も明らかにしていません」とブレイヤー氏は語る。「興味深いのは、EUから資金提供を受けたこのプロジェクトの一環としてEUの国境当局や政治家に技術が披露されているということです。なぜこの点が興味深いのかというと、欧州委員会は、iBorderCtrlの目的の研究に限られるため、開発された技術が導入され、問題が起こるようなことはないと主張し続けているからです。しかし実際のところ、REAはすでにプロジェクトを利用して技術の導入と販売を推進しているのです。そしてたとえこの技術がEU国境で使用されることはないとしても、開発に資金を提供するということは、他の政府で使用される可能性があります。つまり、中国やサウジアラビアといった国々に販売されることもあり得るということです」。

「また、虚偽検出技術を販売している会社(マンチェスターに拠点を置くSilent Talker Ltd)は、この技術を保険会社に提供したり、就職面接で利用できるかたちで販売したりしています。銀行もローン申請の際にこの技術を利用することがあるかもしれません。つまりAIシステムは嘘を見抜けると信じられているため、虚偽検出技術が民間企業で広く使われるリスクがあるということです。まったく信頼性に欠ける虚偽検出技術でうそを見抜こうとすることはいわばギャンブルであり、この怪しげな技術のせいで多くの人が不利益を被るリスクがあります」。

「EUがそのような『インチキ』技術に資金提供することを誰も阻止しないというのは言語道断です」とブレイヤー氏は語る。

欧州委員会は「The Intelligent Portable Border Control System(インテリジェント・ポータブル・ボーダー・コントロール・システム、iBorderCtrl)」の研究では「陸路での国境検問の効率性、利便性、安全性を高めるための新しいアイデアを探求した」と述べ、他のセキュリティ研究プロジェクトと同様「セキュリティの課題に対処するために、新しいアイデアや技術をテストすることを目的としている」とした。

「iBorderCtrlのプロジェクトに期待されていたのは、すぐに実用化できる技術や製品を提供することではなかった。すべての研究プロジェクトが、実用化できる技術の開発につながるわけではない。研究プロジェクトが終了した後、さらに研究を進めるか、プロジェクトで研究対象となったソリューションの開発に着手するかどうかは、加盟国の判断に委ねられてる」とも述べている。

また、次世代技術の具体的な応用については「基本的権利や個人データの保護に関するEUの規則を含むEU法と国内法、保護条項を常に遵守しなければならない」とした。

しかしブレイヤー氏はまた、同委員会が「研究開発に過ぎない」「特定の技術についてその用途は定めていない」などと主張して、世間の目をそらせようとしているのはずる賢いと訴えている。「もちろん実際のところ欧州委員会は、開発された技術が有用であること、機能することが判明した場合、その技術に対して賛意を表明するよう議員に圧力をかけます」と同氏は主張する。「また、EU自体で使用されていなくても他の国に販売されることになるでしょう。だからこそ、この研究に対する監視と倫理的評価の欠如は本当にあってはならないことだと思います。特に公共の場での大規模な監視など、監視技術の開発と研究が繰り返し行われているため、とりわけそういえます」。

「欧州委員会はインターネットから大量にデータを収集して処理するプロジェクトを進めています。しかし、この研究はプライバシーの権利という基本的な権利への干渉に関するものであるため、同委員会のセキュリティに関する方針の欠陥が大きな問題となってきます」とブレイヤー氏は続ける。「その方針では、監視社会といった非倫理的な方法を禁止する制限が定められていません。またそうした物理的な制限のみならず、倫理面で問題のあるプロジェクトを端から排除できる制度上の仕組みもありません。そして倫理面で問題のあるプログラムが考案され開始されると、同委員会はプログラムに関する情報を公開することすら拒否するでしょう。そのようなことは本当に言語道断であり、さきほども言ったように、裁判所が適切なバランスを取ってより多くの情報が開示されるようになり、それによって我々は、こういった研究計画の成り立ちについて、公開討論を実施できるようになって欲しいと願っています」。

ブレイヤー氏は、防衛研究開発基金を設立しようとする、欧州委員会の計画について再び言及した。この基金は、虚偽検出技術の場合と同様、産業中心の意思決定構造と「欠陥のある倫理評価メカニズム」の下で運営されていく。自律型兵器に資金を提供できるEUの研究には制限があるものの、大量破壊兵器や核兵器など、他の分野では公的資金の投入を申請できると指摘している。

「ですから、これは非常に大きな問題となるでしょうし、当然、これまでにも増して同じような透明性の問題が出てくるでしょう」と同氏は付け加える。

透明性全般に関して、欧州委員会は「可能な限り成果を公表するよう、プロジェクトに常に促している」とTechCrunchに述べた。特にiBorderCtrlについては、CORDDIS(コミュニティの研究開発情報サービス)ウェブサイトと専用ウェブサイトでプロジェクトに関する詳細な情報が提供されているとのことだ。

iBorderCtrlのウェブサイト内「publications(資料)」ページをじっくり閲覧すると「ethics advisor(倫理アドバイザー)」「ethic’s advisor’s first report(倫理アドバイザーによる第一次報告)」、「ethics of profiling, the risk of stigmatization of individuals and mitigation plan(プロファイリングの倫理、個人の不名誉のリスク、およびそのリスクの軽減計画)」「EU wide legal and ethical review report(EU全体の法・倫理審査報告書)」など、多くの「deliverables(成果物)」が見つかる。これらはすべて「confidential(機密)」としてリストされている。

カテゴリー:パブリック / ダイバーシティ
タグ:EUうそ発見器AI

画像クレジット:mark6mauno / Flickr under a license.

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。