【コラム】欠陥のあるデータは障がいを持つ人を危険にさらしている

編集部注:Cat Noone(キャット・ヌーン)氏は、世界のソフトウェアをアクセス可能にすることをミッションとするスタートアップStarkのプロダクトデザイナーで共同ファウンダー、CEO。彼女は世界の最新のイノベーションへのアクセスを最大化する製品と、テクノロジーを実現することにフォーカスしている。

ーーー

データは単に抽象的なものではなく、人々の生活に直接的な影響を及ぼしている。

2019年、ある車椅子ユーザーが交通量の多い道を横断していた際、AIを搭載した配達ロボットがその進行を歩道の縁石で妨げてしまうという事故が起きた。「テクノロジーの開発において、障がい者を副次的に考えるべきではありません」と当事者は話している。

他の少数派グループと同様、障がい者は長い間欠陥のあるデータやデータツールによって被害を受けてきた。障がいにはさまざまな種類がありそれぞれ大きく異なるため、パターンを検出してグループを形成するようプログラムされたAIの型通りの構造に当てはまるようなものではない。AIは異常なデータを「ノイズ」とみなして無視するため、結論から障がい者が除外されてしまうことが多々あるのが現状だ。

例えば、2018年にUberの自動運転のSUVに追突されて死亡したElaine Herzberg(エレイン・ハーツバーグ)氏のケースがある。衝突時、ハーツバーグ氏は歩いて自転車を押していたためUberのシステムはそれを「車両」「自転車」「その他」のどれかとして検出し、瞬時に分類することができなかったのだ。この悲劇は後に障がい者に多くの疑問を投げかけた。車椅子やスクーターに乗っている人も、同じようにこの致命的な分類ミスの被害者になる可能性があるのだろうか。

データを収集し処理する新たな方法が必要だ。「データ」とは個人情報、ユーザーからのフィードバック、履歴書、マルチメディア、ユーザーメトリクスなどあらゆるものを指し、ソフトウェアを最適化するために常に利用されているが、データが悪用される可能性や各タッチポイントに原則が適用されていない場合などもあり、そういった不正な方法を確実に理解した上で利用されているわけではない。

今、障がい者を考慮したデータ管理を実現するための、より公平な新しいデータフレームワークが必要とされている。それが実現しなければ、デジタルツールへの依存度が高まる日々の生活の中、障がいを持つ人々はこれからもより多くの危険に直面することになるだろう。

誤ったデータが良いツールの構築を妨げる

アクセシビリティの欠如が障がい者の外出を妨げることはないとしても、質の高い医療や教育、オンデマンド配送など、生活の要となる部分へのアクセスを妨げてしまう可能性はある。

世の中に存在するツールはすべて、作り手の世界観や主観的なレンズが反映された、作り手の環境の産物である。そしてあまりにも長い間、同一のグループの人々が欠陥したデータシステムを管理し続けてきた。これでは根本的な偏見が永続し、これまで光が当てられてこなかったグループが引き続き無視されていくという閉ざされたループに陥ってしまう。データが進歩するにつれ、このループは雪だるま式に大きくなっていくだろう。我々が扱っているのは機械「学習」モデルだ。「X(白人、健常者、シスジェンダー)でない」ことは「普通でない」ことを意味すると長い間教えられていれば、その基礎の下、進化していくのである。

データは私たちには見えないところでつながっており、アルゴリズムが障がい者を除外していないというだけでは不十分である。バイアスは他のデータセットにも存在している。例えば米国では、黒人であることを理由に住宅ローンの融資を拒否することは違法とされているが、融資は有色人種に不利なバイアスが内在するクレジットスコアに基づいて審査が行われるため、銀行は間接的に有色人種を排除していることになる。

障がいのある人の場合、身体活動の頻度や週の通勤時間などが間接的に偏ったデータとして挙げられる。間接的な偏りがソフトウェアにどのように反映されるかの具体的な例として、採用アルゴリズムがビデオ面接中の候補者の顔の動きを調査する場合、認識障がいや運動障がいのある人は、健常者の応募者とは異なる障壁を経験することになるだろう。

この問題は障がい者が企業のターゲット市場の一部として見なされていないことにも起因している。企業が理想のユーザー像を思い描いて意見を出し合う開発の初期段階において、障がい者が考慮されないことが多く、精神疾患のような人目につきにくい障がいの場合は特にその傾向が著しい。つまり、製品やサービスを改良するために使用される初期のユーザーデータには、障がい者のデータが含まれていないということだ。実際、56%の企業がデジタル製品のテストを障がい者に対して定期的に行っていないという。

テック企業が障がい者を積極的にチームに参加させれば、彼らのニーズをより反映したターゲット市場が実現するだろう。さらに技術者たちが、目に見える、あるいは目に見えない除外項目を意識してデータに反映させる必要がある。これは簡単な作業ではないためコラボレーションが不可欠となるだろう。日々使用するデータから間接的なバイアスを排除する方法について、話し合いの場を広げ、フォーラムに参加したり知識を共有することができれば理想的である。

データに対する道徳的なストレステストが必要

ユーザビリティ、エンゲージメント、さらにはロゴの好みなど、企業は製品に対して常にテストを実施している。どんな色が顧客を獲得しやすいか、人々の心に最も響く言葉は何かなど、そういったことは把握しているのに、なぜデータ倫理の基準を設定しないのか。

道徳的なテクノロジーを生み出すことに対する責任は、企業の上層部だけにあるわけではない。製品の土台となるレンガを日々積み上げている人々にも責任があるのだ。フォルクスワーゲンが米国の汚染規制を逃れるための装置を開発した際、刑務所に送られたのはCEOではなくエンジニアである。

私たちエンジニア、デザイナー、プロダクトマネージャーは皆、目の前のデータを認識し、なぜそれを収集するのか、どのよう収集するのかを考えなければならない。人の障がい、性別、人種について尋ねることに意味があるのか、この情報を得ることによりエンドユーザーにとってどのようなメリットがあるのかなど、必要としているデータを調査して自身の動機を分析しなければならない。

Stark(スターク)では、あらゆる種類のソフトウェア、サービス、技術を設計、構築する際に実行すべき5つのフレームワークを開発した。

  • どのようなデータを収集しているのか。
  • なぜそのデータを収集するのか。
  • どのように使用するのか(そしてどのように誤用される可能性があるか)。
  • IFTTT(「If this, then that」の略で「この場合はこうなる」を意味する)をシミュレートする、データが悪用される可能性のあるシナリオとその代替案を説明する。例えば大規模なデータ侵害が発生した場合、ユーザーはどのような影響を受けるのか。その個人情報が家族や友人に公開されたらどうなるのか?
  • アイデアを実行するか破棄するか。

曖昧な言葉や不明瞭な期待値、こじつけでしかデータを説明できないのであれば、そのデータは使用されるべきではない。このフレームワークでは、データを最もシンプルな方法で説明することが求められるため、それができないということは責任を持ってデータを扱うことができていないということだ。

イノベーションには障がい者の参加が不可欠

ワクチン開発からロボットタクシーまで、複雑なデータテクノロジーは常に新しい分野に進出しているため、障がい者に対する偏見がこれらの分野で発生すると障がいのある人々は最先端の製品やサービスにアクセスできなくなってしまう。生活のあらゆる場面でテクノロジーへの依存度が高まるにつれ、日常的な活動を行う上で疎外されてしまう人々もさらに多くなる。

将来を見据え、インクルージョンの概念をあらかじめ製品に組み込むことが重要だ。お金や経験値の制限は問題ではない。思考プロセスや開発過程の変革にコストがかかることはなく、より良い方向へと意識的に舵を切ろうとすることが大切なのである。初期投資は少なからず負担になるかもしれないが、この市場に取り組まなかったり製品の変更を後から余儀なくされたりすることで失う利益は、初期投資をはるかに上回るだろう。特にエンタープライズレベルの企業では、コンプライアンスを遵守しなければ学術機関や政府機関との契約を結ぶことはできないだろう。

初期段階の企業は、アクセシビリティの指針を製品開発に取り入れ、ユーザーデータを収集して、その指針を常に強化していくべきだ。オンボーディングチーム、セールスチーム、デザインチームでデータを共有することで、ユーザーがどのような問題を抱えているかをより詳細に把握することができる。すでに確立された企業は自社製品のどこにアクセシビリティの指針が欠けているかを分析し、過去のデータやユーザーからの新たなフィードバックを活用して修正を行う必要がある。

AIとデータの見直しには、単にビジネスフレームワークを適応させるだけでは十分ではなく、やはり舵取りをする人たちの多様性が必要だ。テクノロジー分野では男性や白人が圧倒的に多く、障がい者を排除したり、偏見を持ったりしているという証言も数多くある。データツールを作るチーム自体が多様化しない限り、各組織の成長は阻害され続け、障がい者はその犠牲者であり続けることになるだろう。

関連記事:インクルーシブデザインの制作に役立つツールを提供するStarkが約1.6億円を調達

カテゴリー:パブリック / ダイバーシティ
タグ:Stark障がいアクセシビリティ機械学習多様性コラムインクルーシブ

画像クレジット:Jorg Greuel / Getty Images

原文へ

(文:Cat Noone、翻訳:Dragonfly)

インドがTwitterの同国政治家に対する「操作メディア」判定に異議、「インド型変異株」投稿削除をSNS各社に要請

インド政府は、Twitter(ツイッター)がインドの政治家のツイートを「操作されたメディア」と分類したことに強い異議を唱え、さらに新型コロナウイルスの「インド型変異株」に言及した投稿を削除するよう、ソーシャルメディア企業各社に別途要請した。

最初の通知は、インドの与党であるインド人民党(BJP)の広報担当者であるSambit Patra(サンビット・パトラ)氏のツイートが「操作されたメディア」とタグ付けされた2日後に行われた。このツイートの中でパトラ氏は、インドの最大野党であるインド国民会議が、新型コロナウイルスのパンデミックに対するインド政府の取り組みを脱線させるために、いわゆる「ツールキット」を使用している、と主張していた。インドの主要なファクトチェック機関であるAlt Newsは、パトラ氏の主張を否定した。

またTwitterは、BJPのソーシャルメディアを統括するPriti Gandhi(プリティ・ガンジー)氏、BJPの全国書記長であるSunil Deodhar(スニール・ディーダル)氏、マハラシュトラ州代表のVinay Sahasrabuddhe(ヴィナイ・サハスラブッデー)氏、デリーのBJP書記長であるKuljeet Singh Chahal(クルジット・シン・チャール)氏らが投稿した同様のツイートにもラベルをつけた。インド政府の通知では政治家らの名前は挙げられておらず、ツイートの内容も特定されていない。

インド政府は通知の中で、Twitterが「操作された(メディア)」とラベルをつけたツイートは、調査が行われていないにもかかわらず「偏見的に」そう指定されたとし「公平性と公正性」の観点から、このようなタグを削除するよう同社に「要請」した。

インド政府は、今回のTwitterの行為は「中立・公平」なプラットフォームとしての信頼性を低下させ「『仲介業者(intermediary)』としてのTwitterのステータスに疑問符をつけるもの」と述べている。最近発表された法律によると、TwitterやFacebook(フェイスブック)など、ユーザー数が数百万人を超える一定規模のソーシャルメディア企業は、インドでは「仲介業者」とみなされる。

Twitterは多くの市場において、ニュースメディアや独立したファクトチェッカー、あるいは独自の技術を引用して、より多くのコンテキストや訂正を提供するために数年にわたり一部の政治家のツイートにラベルをつけてきたが、同社の広報担当者はTechCrunchに対し、ノーコメントと述べた。

またインドの通信IT省は別の書簡で、ソーシャルメディア企業各社に対し、新型コロナウイルスの「インド型変異株」に言及した投稿を削除するよう要請した。

「これは完全に誤りです。世界保健機関(WHO)が科学的に引用している新型コロナウイルス感染症(COVID-19)のそのような変種はありません。WHOは、コロナウイルスのB.1.617亜種と「インド型変異株(Indian Variant)」という用語を、いかなる報告書においても関連付けていません」と、同省は2通目の書簡で述べている(その内容はロイターが最初に報じた)。

今回の通知は、世界第2位のインターネット市場であるインドにおいて、Twitterが直面しているジレンマを浮き彫りにしている。Twitterは1億人以上のユーザーを擁し、地元のスタートアップを多く支援している。かたやFacebookも、インドをユーザー数で見ると最大の市場と位置づけ、インド企業にさらに大きな投資を行っている

Jack Dorsey(ジャック・ドーシー)氏が率いるTwitterは、2021年、インドでいくつかの厳しい状況に直面してきた。2021年初め、ニューデリーの命令に一時的に従った後、インド政府の政策やNarendra Modi(ナレンドラ・モディ)首相に批判的なツイートを投稿したアカウントを元に戻したことで、同社は同国政府から非難を受けた。

インド政府は2021年4月になって、新型コロナウイルスのパンデミックに関する政府の対応に批判的な投稿を削除するようTwitterとFacebookに命じたため、両者は再び公の場で対峙した。

今週初め、シンガポールは、新型コロナウイルスの新しい亜種が同国で発生したとする「ネット上のデマ」について、TwitterとFacebookに訂正を出すよう命じた

【更新】この記事は、2通目の書簡の詳細について更新された。

関連記事
インド政府がソーシャルメディアやストリーミングサービス企業に厳しい新規制を発表
Facebookがインド最大の通信事業者Jioに約6100億円を出資
Twitterがインド当局のさらなる警告を受け500以上のアカウントを停止
インド政府が同国のコロナ対応に批判的なツイートを削除するようツイッターに命令

カテゴリー:パブリック / ダイバーシティ
タグ:インドTwitterSNS新型コロナウイルス

画像クレジット:Nasir Kachroo / NurPhoto / Getty Images

原文へ

(文:Manish Singh、翻訳:Aya Nakazato)

難民救済NPOのBuffaloGridとTechfugeesが資金募集と教育とソーラー充電で協力

電気がない環境で暮らしている人たちに、スマートフォンの充電とデジタルコンテンツを提供しているBuffaloGridが、非営利の難民救済団体Techfugeesとともに、アフリカ東部と中東の故郷に戻れない人たちに無料の教育コンテンツとデバイスの充電を提供しようとしている。

Techfugeesは最初のサービスとして、太陽光発電による「BuffaloGrid Hub」をケニアとウガンダに展開し、教育と健康関連コンテンツへの無制限の無料アクセスを提供、またその他のストリーミングサービスへのアクセスやモバイルの充電サービスも提供する。

この共同キャンペーン「Knowledge is Freedom(知識は自由だ)」は、今後2年間で300万ドル(約3億3000万円)の調達を目標にしている。

BuffaloGridのCEOであるDaniel Becerra(ダニエル・ベセラ)氏は、次のように述べている。「私たちのミッションはインターネットアクセスの障壁を取り除き、次の10億人に情報とエネルギーとデジタルのスキルを提供することです。このキャンペーンで故郷を追われた人たちへの気づきを喚起し、私たちが力を合わせれば状況を変えられることを周知したい。チーム全員がTechfugeesと協力できることを喜んでいます。一緒になることで私たちの技術力も経験も他との結びつきもより強力になり、真の違いを作り出せるでしょう」。

一方、TechfugeesのCEOであるRaj Burman(ラージ・バーマン)氏は次のように述べている。「デジタル化と気候変動がますます激しくなっている今の世界で、私たちのミッションは強制的に故郷を追われた人たちが取り残されないようにすることです。約40万の難民が、ウガンダおよびケニアのルワムワンジャとカクマ-カロベイエイ救難キャンプで暮らしています。BuffaloGridとのコラボレーションには、私たちのケニアとウガンダの支部からの支援により、革新的で責任性のあるデジタルソリューションが故郷なき人たちに力をつけ、教育と健康のコンテンツへのアクセス障壁を克服して、生計を改善していける機会があります」。

Techfugeesによると、世界の人口の約1%にあたる8000万人が、気候変動や戦争、紛争、経済の悪化、そして迫害によって難民になっている。この数は、2050年には10億を超えると予想されている。

ベルファストに本部のあるBuffaloGridは、これまで640万ドル(約7億円)を調達し、Tiny VCやADV、Seedcamp、Kima VenturesそしてLocalGlobeなどを投資家として迎えている。

情報開示:Mike ButcherはTechfugeesの議長だ。

関連記事:難民とNGOのためのテクノロジーを主体にした革新的な25のプロジェクト

カテゴリー:パブリック / ダイバーシティ
タグ:BuffaloGridTechfugees難民アフリカ中東ソーラー充電教育

画像クレジット:BuffaloGrid

原文へ

(文:Mike Butcher、翻訳:Hiroshi Iwatani)

半導体不足がさらに深刻化し「危険水域」に突入か、MacやiPadの製造にも影響する可能性も

半導体不足がさらに深刻化し「危険水域」に突入か、MacやiPadの製造にも影響する可能性も

Nikada via Getty Images

昨今、あらゆる業界を悩ませていると言っても過言ではない半導体製造の不足。ここ最近は製造側の取り組みにも関わらず悪化の一途を辿っているといった状況ですが、リードタイム(発注から納品までの時間)が17週間にも及ぶことから、この問題では比較的影響の少なかったアップル製品にも、ついに影響が出る可能性があると報じられています。

この動向を報じているのは、米国Bloomberg。同誌の報道によると、サスケハナ・ファイナンシャル・グループはチップ製造の遅延(リードタイム)が3月時点での16週から4月では17週に延びており「ユーザーが供給の確保に必死になっていることを示している」と分析しているとのことです。

これは同誌が2017年にデータを追跡し始めて以来最も長い待ち時間であり、記事ではこれを称して「危険水域」と表現されています。

なお、さらに小規模な企業の場合はもっと影響が大きく、待ち時間が52週間を超えるほどの大問題になっており、製品の再設計や優先順位の変更さえも余儀なくされているとのこと。実際に最近は、日米の自動車メーカーにおいて一部のハイテク機能を省いて需要に応えているとの報道もありました

現状でのアップルは半導体メーカーにとっては最上級とも呼べる顧客である点や、ティム・クックCEOがサプライチェーンの構築や物流に長けた達人であるため、これまでは部品の供給不足に大きく悩まされたといった話はほとんどありませんでした。

しかし先日の第2四半期決算説明会では、幹部ら自らが今後MacやiPadが品薄になる見込みと警告していたほどです

特にアップルにとって重大と思われるのが、iPhoneのAシリーズチップやMacおよびiPad Pro用のM1チップを製造しているTSMCがある台湾が、目下危機的状況に置かれていることです。

台湾は新型コロナウイルス感染が再び拡大していることに加えて、雨期にほとんど雨が降らなかったために節水対策を強化するとも発表されており、こちらもチップ生産に影響するとの懸念もあります。

もっともTSMC側は今のところ「この措置が当社の事業に影響を与えるとは考えていない」との声明を出しています。

こうしたチップ不足が、今年のMacやiPadの生産や入手しやすさにどの程度の影響を与えるかはまだ不明です。またサスケハナは、リードタイムが長くなったことで各企業が在庫の積み増しや二重発注をするなど「悪い行動」に拍車をかけたようだも推測しています。

もしも今回のチップ不足が解消されても、その後の混乱は長引くのかもしれません。

(Source:BloombergEngadget日本版より転載)

関連記事
Google、Intel、Dell、GMなどテックと自動車業界のCEOたちが世界的なチップ供給不足問題で米政府と討議
半導体チップ不足によりGMがさら多くの工場を操業停止に
台湾の水不足でわかるテックへの気候変動の脅威
米国政府の支援でTSMCがアリゾナに約1.3兆円規模の先進的半導体工場を建設
米政府が先進的半導体工場の国内建設に向けインテルやTSMCと協議か

カテゴリー:パブリック / ダイバーシティ
タグ:サプライチェーン(用語)TSMC / 台湾セミコンダクター・マニュファクチャリング・カンパニー(企業)半導体(用語)台湾(国・地域)

ユーザーをだます「ダークパターン」デザインを集めて企業の恥を晒す通報窓口ができた

「dark pattern(ダークパターン)」という言葉は聞き慣れないかもしれない。しかし、この操作的デザイン現象は我々が日常的に使っているアプリやサービスに蔓延している。

ダークパターンは、消費者が企業を儲けさせる選択をするよう誘導し、多くの場合出費がともなう。個人データをうっかり渡してしまう誤解を招く表現や、おそらくキャンセルしたいサブスクリプションを更新する結果になる隠しボタンなどだ。

これからは、不審なダークパターンデザインを見つけた時には、Darkpatternstipline.orgに通報できる。Consumer Reports(コンシューマー・レポート)が主催する専用サイトだ。この新しい通報窓口は、EFF(電子フロンティア財団)、PEN America(ペン・アメリカ)、Consumer Reports、Access Now(アクセス・ナウ)をはじめとするデジタル権利保護団体による共同プロジェクトだ。

ダークパターン報告を集めるこの取り組みは、操作的デザインを標的とする新しい法律のおかげで、実効力をともなうものになった。

2021年3月、カリフォルニア州は画期的なプライバシー法であるカリフォルニア消費者プライバシー法(CCPA)を改定し、 テック企業によるダークパターンを禁止した。「この改定は、データプライバシー権を行使する上で混乱したり欺かれたりすることがないよう消費者を保護するものです」とカリフォルニア州司法長官のXavier Becerra(ザビエル・べセラ)氏が新たな規則について語った。

議会もダークパターンに懸念を示している。2019年、DETOUR Actと呼ばれる超党派法案が提出され、1億人以上のユーザーを持つ大企業による「曖昧、破壊的、あるいはユーザーの自律を損なう」ユーザーインターフェイスを禁止しようと試みた。同法案はその後進展しなかったが、威圧的なデザイン選択は、大手テクノロジー企業に対する連邦規制を実施しようとしている立法府にとって、数多い懸念材料の1つとなっている。

どこかのメールリストに騙して登録させようとする、矛盾したチェックボックスを見たことがありませんか?それがダークパターンです。

(訳注:画像のチェックボックスは、オプトインする / オプトアウトしない/ オプトインしなくない。最後に薄く小さく「すべてオプトアウトする」が見える)

通報窓口を作った人たちにとって、テクノロジー政策を具現化する規制当局に対する懸念は優先順位だ。「インターネットやその先でダークパターンを止めさせるためには、まず、今起きていることを分析し、その結果を使って政策立案者と立法者に働きかける必要があります」とEFFのデザイナーであるShirin Mori(シリン・モリ)氏はいう。

「このダークパターン通報窓口が、テクノロジー製品やサービスを全員にとってより公正かつ公平で利用しやすくしようとする私たちの活動を後押ししてくれることを願っています」。

関連記事:ユーザーを騙すダークパターンを禁じる超党派法案を米議会に提出

カテゴリー:パブリック / ダイバーシティ
タグ:ダークパターン個人情報プライバシー

画像クレジット:NurPhoto / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Nob Takahashi / facebook

フェイスブックがインドでコロナワクチン接種場所探しツールを展開、11億円寄付も

Facebook(フェイスブック)はインドの緊急事態に対し1000万ドル(約11億円)の支援を発表し、新型コロナウイルス感染拡大対応で苦戦しているインドでVaccine Finder(ワクチンファインダー)ツールの展開を開始した。

Facebookは、増大する医療用品危機をサポートすべく、病院のベッド数を増やすための5000台超の酸素濃縮機や、人工呼吸器、BiPAP(携帯型人工呼吸器)機器など生命維持装置の提供でUnited Way、Swasth、Hemkunt Foundation、I Am Gurgaon、Project Mumbai、US-India Strategic Partnership Forumといった数多くの組織と提携した。

Facebookはまた、同社のアプリでのVaccine Finderツール展開でインド政府と提携した、とも述べた。17言語で利用できる同ツールは人々が最寄りのワクチンセンターを見つけ出せるようデザインされている。

先週インドは18〜45歳を対象にワクチン接種を開始したが、ウェブサイトはすぐさまダウンし、この年齢グループの大半の人からの予約リクエストは受け付けられなかった。

低コストのISP構築に取り組んでいるバンガロール拠点のスタートアップWiFi Dabbaも、人々が簡単にワクチン接種の空きスポットを見つけられるようにするツールを開発したことも書き留めておく。

しかし、インドが現在直面している大きな問題は、ワクチン不足だ。

Facebookは新型コロナワクチンと予防衛生に関する情報をFacebook上の人々に提供すべく、非政府組織、インドの国連機関に広告クレジットを提供してサポートするとも明らかにした。

さらに同社は、緊急ケアをどのタイミングで探すべきか、マイルドな症状の家庭での対応の仕方についてUNICEF Indiaからのリソースを人々に提供するとも述べた。

世界第2位の人口を抱えるインドでは多くの企業、スタートアップ、起業家、投資家がここ数週間、政府や州政府の準備不足で拡大したパンデミックとの戦いで協力している

Pfizer(ファイザー)は米国時間5月3日、インドに7000万ドル(約76億円)分の医薬品を送ると明らかにした。「インドの新型コロナとの戦いのサポートに全力を注いでいて、社の歴史上最大の人道救援活動を結集するために急いで取り組んでいます」と同社の会長兼CEOのAlbert Bourla(アルバート・ブーラ)氏は述べた。

カテゴリー:パブリック / ダイバーシティ
タグ:Facebookインド新型コロナウイルスワクチン

画像クレジット:Abhishek Chinnappa / Getty Images

原文へ

(文:Manish Singh、翻訳:Nariko Mizoguchi

緊急通報対応を効率アップさせるクラウドベース開発のRapidDeployが約32億円調達

2020年のパンデミック禍での暮らしは現実世界であり、ときに悲惨なもので、効率的かつ万全の緊急対応サービスを利用できる状態にあることがいかに重要かを証明した。緊急対応サービスは必要とされればリモートで人々をサポートできる。そして遠隔からサポートできないときは、医療的な措置などを必要とする状況においてスタッフがすばやく派遣されるようにしている。このプロセスをサポートするクラウドベースのツールを構築している企業が米国時間4月29日、引き続き成長するための資金調達ラウンドを発表した。

911センター(日本の119番、110番通報センター)向けにクラウドベースのサービスとしてコンピューターを活用した出動テクノロジーを提供しているRapidDeploy(ラピッドデプロイ)は2900万ドル(約32億円)のシリーズBラウンドをクローズした。この資金は事業の拡大と顧客に提供しているSaaSツールの拡張の継続にあてる。RapidDeployの考えでは、最も効率的な方法で緊急対応を展開するのにクラウドは必要不可欠だ。

「911通報対応は初期においてはトランシーバーで行われていました。そして今、クラウドが信号の結節点になりました」とRapidDeployの共同創業者でCEOのSteve Raucher(スティーブ・ローチャー)氏はインタビューで述べた。

オースティン拠点のRapidDeployは911センターにデータと分析を提供している。助けを求めている人との重要なつながりであり、そうした通報を最寄りの消防救急や警察とつなげている。現在同社のプロダクトのRadiusPlus、Eclipse Analytic、Nimbus CADを使っている顧客は約700を数える。

この数字は米国の911センター(計7000)の約10%にあたり、人口の35%をカバーしている(都市部や人口の多いエリアにはより多くのセンターがある)。同社のプロダクトが利用されている州はアリゾナ、カリフォルニア、カンザスなどだ。また同社の元々の創業の地、南アフリカでも展開している。

今回の資金は、金融および戦略的投資家という興味深い組み合わせからのものだ。Morpheus Venturesがリードし、GreatPoint Ventures、Ericsson Ventures、Samsung Next Ventures、Tao Capital Partners、Tau Venturesなどが参加した。PitchBookのデータによると、直近のラウンドの前にRapidDeployは約3000万ドル(約33億円)を調達していたようだ。評価額は公開されていない。

EricssonとSamsungは、通信産業の主要プレイヤーとして、何が次世代の通信テクノロジーとなるのか、必要不可欠なサービス向けにどのように使われるのか、という点で利害関係がある(実際、かつての、そして現在の911通信の主要リーダーの1社はMotorolaで、EricssonとSamsungの競合相手となるかもしれない)。AT&TもまたRapidDeployのGTM戦略(物流と販売)パートナーで、同社はデータをシステムに送るのにApple、Google、Microsoft、OnStarを統合している。

緊急通報対応テクノロジーの事業は細分化されたマーケットだ。それらを「パパママ」事業だとローチャー氏は表現した。緊急対応サービスの80%が常時対応スタッフ4人以下という規模で(米国の町の大半が、あなたが思うような巨大な大都市よりもかなり小さいという事実の証だ)、多くの場合こうした町は昔ながらの古い設備で対応している。

しかし米国では過去数年、Jediプロジェクトや次世代の公共セーフティネットワークのFirstNetのようなイノベーションが盾となって状況は変わってきた。RapidDeployのテクノロジーは、人々の正確な位置の特定とサポート改善を支えるために携帯電話テクノロジーのイノベーションを利用してきたCarbyneRapidSOSのような企業と同じものだ。

関連記事:救急サービスを改善する次世代プラットフォーム開発のCarbyneが26億円調達

RapidDeployのテックはRadiusPlusマッピングプラットフォームをベースとしていて、これはスマートフォンや車両、ホームセキュリティシステム、その他のコネクテッドデバイスからのデータを使っている。データストリームにその情報を流し、911センターが位置だけでなく、通報した人の状態に関する潜在的な他の要素を判断するのをサポートできる。一方、Eclipse Analyticサービスはセンターが状況に優先順位をつけたり、どのように対応すべきか洞察を提供したりと、アシスタントのように機能する。そしてNimbus CADは出動して対応をコントロールすべき人を見つけ出すのを手伝う。

長期的には、新しいデータソース、そして通報者とセンター、緊急ケアプロバイダーの間の新しい通信方法をもたらすためにクラウドアーキテクチャを活用する、というのがプランだ。

「メッセージのスイッチというより、トリアージサービスです。ご覧の通り、プラットフォームは顧客のニーズとともに進化します。戦術的なマッピングは究極的にニーズをカバーするのに十分ではありません。当社は通信サービスの統合について考えています」とローチャー氏は述べた。実際、それはこうしたサービスの多くが向かおうとしている方向であり、消費者にとって良いことづくめだ。

「緊急サービスの未来はデータにあります。これまでよりも速く、対応が細やかな911センターを作ります」とMorpheus Venturesの創業パートナー、Mark Dyne(マーク・ダイン)氏は声明で述べた。「RapidDeployが構築したプラットフォームは、次世代911サービスを全米の過疎地や都市部のコミュニティで実際に使えるようにすることができると確信していて、スティーブやスティーブのチームと未来に投資することを楽しみにしています」。今回のラウンドの一環としてダイン氏はRapidDeployの取締役会に加わった。

カテゴリー:パブリック / ダイバーシティ
タグ:RapidDeploy資金調達SaaS緊急通報

画像クレジット:Spencer Platt / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Nariko Mizoguchi

欧州がリスクベースのAI規制を提案、AIに対する信頼と理解の醸成を目指す

欧州連合(EU)の欧州委員会が、域内市場のリスクの高い人工知能(AI)の利用に関するリスクベースの規制案を公表した。

この案には、中国式の社会信用評価システム、身体的・精神的被害を引き起こす可能性のあるAI対応の行動操作手法など、人々の安全やEU市民の基本的権利にとって危険性の高さが懸念される一部のユースケースを禁止することも含まれている。法執行機関による公共の場での生体認証監視の利用にも制限があるが、非常に広範な免除を設けている。

今回の提案では、AI使用の大部分は(禁止どころか)いかなる規制も受けていない。しかし、いわゆる「高リスク」用途のサブセットについては「ex ante(事前)」および「ex post(事後)」の市場投入という特定の規制要件の対象となる。

また、チャットボットやディープフェイクなど、一部のAIユースケースには透明性も求められている。こうしたケースでは、人工的な操作を行っていることをユーザーに通知することで、潜在的なリスクを軽減できるというのが欧州委員会の見解だ。

この法案は、EUを拠点とする企業や個人だけでなく、EUにAI製品やサービスを販売するすべての企業に適用することを想定しており、EUのデータ保護制度と同様に域外適用となる。

EUの立法者にとって最も重要な目標は、AI利用に対する国民の信頼を醸成し、AI技術の普及を促進することだ。欧州の価値観に沿った「卓越したエコシステム」を開発したいと、欧州委員会の高官は述べている。

「安全で信頼できる人間中心の人工知能の開発およびその利用において、欧州を世界クラスに高めることを目指します」と、欧州委員会のEVP(執行副委員長)であるMargrethe Vestager(マルグレーテ・ベステアー)氏は記者会見で提案の採択について語った

「一方で、私たちの規制は、AIの特定の用途に関連する人的リスクおよび社会的リスクに対処するものです。これは信頼を生み出すためです。また、私たちの調整案は、投資とイノベーションを促進するために加盟国が取るべき必要な措置を概説しています。卓越性を確保するためです。これはすべて、欧州全域におけるAIの浸透を強化することを約束するものです」。

この提案では、AI利用の「高リスク」カテゴリー、つまり明確な安全上のリスクをともなうもの、EUの基本的権利(無差別の権利など)に影響を与える恐れのあるものに、義務的な要件が課されている。

最高レベルの使用規制対象となる高リスクAIユースケースの例は、同規制の附属書3に記載されている。欧州委員会は、AIのユースケースの開発とリスクの進化が続く中で、同規制は委任された法令によって拡充する強い権限を持つことになると述べている。

現在までに挙げられている高リスク例は、次のカテゴリーに分類される。

  • 自然人の生体認証およびカテゴリー化
  • クリティカルなインフラストラクチャの管理と運用
  • 教育および職業訓練
  • 雇用、労働者管理、および自営業へのアクセス
  • 必要不可欠な民間サービスおよび公共サービスならびに便益へのアクセスと享受
  • 法執行機関; 移民、亡命、国境統制の管理; 司法および民主的プロセスの運営

AIの軍事利用に関しては、規制は域内市場に特化しているため、適用範囲から除外されている。

リスクの高い用途を有するメーカーは、製品を市場に投入する前に遵守すべき一連の事前義務を負う。これには、AIを訓練するために使用されるデータセットの品質に関するものや、システムの設計だけでなく使用に関する人間による監視のレベル、さらには市販後調査の形式による継続的な事後要件が含まれる。

その他の要件には、コンプライアンスのチェックを可能にし、関連情報をユーザーに提供するためにAIシステムの記録を作成する必要性が含まれる。AIシステムの堅牢性、正確性、セキュリティも規制の対象となる。

欧州委員会の関係者らは、AIの用途の大部分がこの高度に規制されたカテゴリーの範囲外になると示唆している。こうした「低リスク」AIシステムのメーカーは、使用に際して(法的拘束力のない)行動規範の採用を奨励されるだけだ。

特定のAIユースケースの禁止に関する規則に違反した場合の罰則は、世界の年間売上高の最大6%または3000万ユーロ(約39億4000万円)のいずれか大きい方に設定されている。リスクの高い用途に関連する規則違反は4%または2000万ユーロ(約26億3000万円)まで拡大することができる。

執行には各EU加盟国の複数の機関が関与する。提案では、製品安全機関やデータ保護機関などの既存(関連)機関による監視が想定されている。

このことは、各国の機関がAI規則の取り締まりにおいて直面するであろう付加的な作業と技術的な複雑性、そして特定の加盟国において執行上のボトルネックがどのように回避されるかという点を考慮すると、各国の機関に十分なリソースを提供することに当面の課題を提起することになるだろう。(顕著なことに、EU一般データ保護規則[GDPR]も加盟国レベルで監督されており、一律に厳格な施行がなされていないという問題が生じている)。

EU全体のデータベースセットも構築され、域内で実装される高リスクシステムの登録簿を作成する(これは欧州委員会によって管理される)。

欧州人工知能委員会(EAIB)と呼ばれる新しい組織も設立される予定で、GDPRの適用に関するガイダンスを提供する欧州データ保護委員会(European Data Protection Board)に準拠して、規制の一貫した適用をサポートする。

AIの特定の使用に関する規則と歩調を合わせて、本案には、EUの2018年度調整計画の2021年アップデートに基づく、EU加盟国によるAI開発への支援を調整するための措置が盛り込まれている。具体的には、スタートアップや中小企業がAIを駆使したイノベーションを開発・加速するのを支援するための規制用サンドボックスや共同出資による試験・実験施設の設置、中小企業や公的機関がこの分野で競争力を高めるのを支援する「ワンストップショップ」を目的とした欧州デジタルイノベーションハブのネットワークの設立、そして域内で成長するAIを支援するための目標を定めたEU資金提供の見通しなどである。

域内市場委員のThierry Breton(ティエリー・ブレトン)氏は、投資は本案の極めて重要な部分であると述べている。「デジタル・ヨーロッパとホライズン・ヨーロッパのプログラムの下で、年間10億ユーロ(約1300億円)を解放します。それに加えて、今後10年にわたって民間投資とEU全体で年間200億ユーロ(約2兆6300億円)の投資を生み出したいと考えています。これは私たちが『デジタルの10年』と呼んでいるものです」と同氏は今回の記者会見で語った。「私たちはまた、次世代EU[新型コロナウイルス復興基金]におけるデジタル投資の資金として1400億ユーロ(約18兆4000億円)を確保し、その一部をAIに投資したいと考えています」。

AIの規則を形成することは、2019年末に就任したUrsula von der Leyen(ウルズラ・フォン・デア・ライエン)EU委員長にとって重要な優先事項だった。2018年の政策指針「EUのためのAI(Artificial Intelligence for Europe)」に続くホワイトペーパーが2020年発表されている。ベステアー氏は、今回の提案は3年間の取り組みの集大成だと述べた。

ブレトン氏は、企業がAIを適用するためのガイダンスを提供することで、法的な確実性と欧州における優位性がもたらされると提言している。

「信頼【略】望ましい人工知能の開発を可能にするためには、信頼が極めて重要だと考えます」と同氏はいう。「(AIの利用は)信頼でき、安全で、無差別である必要があります。それは間違いなく重要ですが、当然のことながら、その利用がどのように作用するかを正確に理解することも求められます」。

「必要なのは、指導を受けることです。特に新しいテクノロジーにおいては【略】私たちは『これはグリーン、これはダークグリーン、これはおそらく若干オレンジで、これは禁止されている』といったガイドラインを提供する最初の大陸になるでしょう。人工知能の利用を考えているなら、欧州に目を向けてください。何をすべきか、どのようにすべきか、よく理解しているパートナーを得ることができます。さらには、今後10年にわたり地球上で生み出される産業データの量が最も多い大陸に進出することにもなるのです」。

「だからこそこの地を訪れてください。人工知能はデータに関するものですから―私たちはガイドラインを提示します。それを行うためのツールとインフラも備えています」。

本提案の草案が先にリークされたが、これを受けて、公共の場での遠隔生体認証による監視を禁止するなど、計画を強化するよう欧州議会議員から要請があった。

関連記事
EUがAIのリスクベース規則の罰金を全世界年間売上高の最大4%で計画、草案流出で判明
欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める

最終的な提案においては、遠隔生体認証監視を特にリスクの高いAI利用として位置づけており、法執行機関による公の場での利用は原則として禁止されている。

しかし、使用は完全に禁止されているわけではなく、法執行機関が有効な法的根拠と適切な監督の下で使用する場合など、例外的に利用が認められる可能性があることも示唆されている。

脆弱すぎると非難された保護措置

欧州委員会の提案に対する反応には、法執行機関による遠隔生体認証監視(顔認識技術など)の使用についての過度に広範な適用除外に対する批判の他、AIシステムによる差別のリスクに対処する規制措置が十分ではないという懸念が数多くみられた。

刑事司法NGOのFair Trialsは、刑事司法に関連した意義ある保護措置を規制に盛り込むには、抜本的な改善が必要だと指摘した。同NGOの法律・政策担当官であるGriff Ferris(グリフ・フェリス)氏は、声明の中で次のように述べている。「EUの提案は、刑事司法の結果における差別の固定化の防止、推定無罪の保護、そして刑事司法におけるAIの有意義な説明責任の確保という点で、抜本的な改革を必要としています」。

「同法案では、差別に対する保護措置の欠如に加えて、『公共の安全を守る』ための広範な適用除外において刑事司法に関連するわずかな保護措置が完全に損なわれています。この枠組みには、差別を防止し、公正な裁判を受ける権利を保護するための厳格な保護措置と制限が含まれていなければなりません。人々をプロファイリングし、犯罪の危険性を予測しようとするシステムの使用を制限する必要があります」。

欧州自由人権協会(Civil Liberties Union for Europe[Liberties])も、同NGOが主張するような、EU加盟国による不適切なAI利用に対する禁止措置の抜け穴を指摘している。

「犯罪を予測したり、国境管理下にある人々の情動状態をコンピューターに評価させたりするアルゴリズムの使用など、問題のある技術利用が容認されているケースは数多く存在します。いずれも重大な人権上のリスクをもたらし、EUの価値観を脅かすものです」と、上級権利擁護担当官のOrsolya Reich(オルソリヤ・ライヒ)氏は声明で懸念を表明した。「警察が顔認識技術を利用して、私たちの基本的な権利と自由を危険にさらすことについても憂慮しています」。

ドイツ海賊党の欧州議会議員Patrick Breyer(パトリック・ブレイヤー)氏は、この提案は「欧州の価値」を尊重するという主張の基準を満たしていないと警告した。同氏は、先のリーク草案に対して基本的権利の保護が不十分だと訴える書簡に先に署名した40名の議員のうちの1人だ。

「EUが倫理的要件と民主的価値に沿った人工知能の導入を実現する機会をしっかり捕捉しなれけばなりません。残念なことに、欧州委員会の提案は、顔認識システムやその他の大規模監視などによる、ジェンダーの公平性やあらゆるグループの平等な扱いを脅かす危険から私たちを守るものではありません」と、今回の正式な提案に対する声明の中でブレイヤー氏は語った。

「公共の場における生体認証や大規模監視、プロファイリング、行動予測の技術は、私たちの自由を損ない、開かれた社会を脅かすものです。欧州委員会の提案は、公共の場での自動顔認識の高リスクな利用をEU全域に広めることになるでしょう。多くの人々の意思とは相反します。提案されている手続き上の要件は、煙幕にすぎません。これらの技術によって特定のグループの人々を差別し、無数の個人を不当に差別することを容認することはできません」。

欧州のデジタル権利団体Edriも「差別的な監視技術」に関する提案の中にある「憂慮すべきギャップ」を強調した。「この規制は、AIから利益を得る企業の自己規制の範囲が広すぎることを許容しています。この規制の中心は、企業ではなく人であるべきです」と、EdriでAIの上級政策責任者を務めるSarah Chander(サラ・チャンダー)氏は声明で述べている。

Access Nowも初期の反応で同様の懸念を示しており、提案されている禁止条項は「あまりにも限定的」であり、法的枠組みは「社会の進歩と基本的権利を著しく損なう多数のAI利用の開発や配備を阻止するものではない」と指摘している。

一方でこうしたデジタル権利団体は、公的にアクセス可能な高リスクシステムのデータベースが構築されるなどの透明性措置については好意的であり、規制にはいくつかの禁止事項が含まれているという事実を認めている(ただし十分ではない、という考えである)。

消費者権利の統括団体であるBEUCもまた、この提案に対して即座に異議を唱え、委員会の提案は「AIの利用と問題の非常に限られた範囲」を規制することにフォーカスしており、消費者保護の点で脆弱だと非難した。

「欧州委員会は、消費者が日々の生活の中でAIを信頼できるようにすることにもっと注力すべきでした」とBEUCでディレクターを務めるMonique Goyens(モニーク・ゴヤンス) 氏は声明で述べている。「『高リスク』、『中リスク』、『低リスク』にかかわらず、人工知能を利用したあらゆる製品やサービスについて人々の信頼の醸成を図るべきでした。消費者が実行可能な権利を保持するとともに、何か問題が起きた場合の救済策や救済策へのアクセスを確保できるよう、EUはより多くの対策を講じるべきでした」。

機械に関する新しい規則も立法パッケージの一部であり、AIを利用した変更を考慮した安全規則が用意されている(欧州委員会はその中で、機械にAIを統合している企業に対し、この枠組みに準拠するための適合性評価を1度実施することのみを求めている)。

Airbnb、Apple、Facebook、Google、Microsoftなどの大手プラットフォーム企業が加盟する、テック業界のグループDot Europe(旧Edima)は、欧州委員会のAIに関する提案の公表を好意的に受け止めているが、本稿執筆時点ではまだ詳細なコメントを出していない。

スタートアップ権利擁護団体Allied For Startupsは、提案の詳細を検討する時間も必要だとしているが、同団体でEU政策監督官を務めるBenedikt Blomeyer(ベネディクト・ブロマイヤー)氏はスタートアップに負担をかける潜在的なリスクについて警鐘を鳴らしている。「私たちの最初の反応は、適切に行われなければ、スタートアップに課せられる規制上の負担を大幅に増加させる可能性があるということでした」と同氏はいう。「重要な問題は、欧州のスタートアップがAIの潜在的な利益を享受できるようにする一方で、本案の内容がAIがもたらす潜在的なリスクに比例するものかという点です」。

その他のテック系ロビー団体は、AIを包み込む特注のお役所仕事を期待して攻撃に出るのを待っていたわけではないだろうが、ワシントンとブリュッセルに拠点を置くテック政策シンクタンク(Center for Data Innovation)の言葉を借りれば、この規制は「歩き方を学ぶ前に、EUで生まれたばかりのAI産業を踏みにじる」ものだと主張している。

業界団体CCIA(Computer & Communications Industry Association)もまた「開発者やユーザーにとって不必要なお役所仕事」に対して即座に警戒感を示し、規制だけではEUをAIのリーダーにすることはできないと付け加えた。

本提案は、欧州議会、および欧州理事会経由の加盟国による草案に対する見解が必要となる、EUの共同立法プロセスの下での膨大な議論の始まりである。つまり、EUの機関がEU全体のAI規制の最終的な形について合意に達するまでに、大幅な変更が行われることになるだろう。

欧州委員会は、他のEU機関が直ちに関与することを期待し、このプロセスを早急に実施できることを望んでいると述べるにとどまり、法案が採択される時期については明言を避けた。とはいえ、この規制が承認され、施行されるまでには数年かかる可能性がある。

【更新】本レポートは、欧州委員会の提案への反応を加えて更新された。

カテゴリー:パブリック / ダイバーシティ
タグ:EU人工知能チャットボットディープフェイク透明性GDPR欧州データ保護委員会生体認証顔認証

画像クレジット:DKosig / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

プロジェクト管理の老舗Basecampは「社員の政治的意見表明禁止」で社員3分の1が退社

プロジェクト管理アプリのパイオニアであるBasecampではファウンダー、CEOのJason Fied(ジェイソン・フリード)氏による社員の政治的議論の禁止が大きな議論を巻き起こした。これをきっかけにBasecampの60名の社員の3分の1が持ち株の会社買取を受け入れて退社したという。退社の原因としてこの禁止令を上げるツイートが多数あった。

米国時間4月26日に、Basecampのジェイソン・フリード氏は社員が業務の場で社会的・政治的な意見を表明することを禁止することをブログで発表した。フリード氏は次のように書いている。

政治や社会一般に多少なりと関係する議論は、すぐに不愉快なものになる。ある方向の議論に参加しないことはその方向に反対したことになるとか、議論に参加すればしたでバッシングされるといったことが起きる(ような空気を作る)べきではない。

Basecampからの退職は会社に大きな影響を与えるはずだ。ツイートによればBasecampのデザイン部門の責任者、マーケティング部門の責任者、カスタマーサポート部門の責任者が全員退社するという。また同社のiOSチームも一斉に退職したらしい。退職社員の多くは長年同社に勤務していた。

 

Basecampでの政治活動禁止規則は、CoinbaseのCEOであるBrian Armsgrong(ブライアン・アームストロング)氏が2020年末に掲げた方針とほぼ同様だアームストロング氏は「特定の政治的主張や候補者の推薦」についての議論は、同社の本質的業務の遂行に悪影響があるとして禁止した。Coinbaseでは1200人の社員のうち60人前後がこの方針の変更を受けて退職した。Basecampにおける退職者の率はCoinbaseの場合よりはるかに高く、深刻なものだ。

Coinbaseと同様、Basecampは「新しい政治的的議論の禁止命令は差別的待遇を受けている社員を狙い撃ちにした箝口令だ」という強い批判を巻き起こした。

白人以外、また人種を問わずLGBTQである社員にとって何が「政治的」かという線引きは困難なものとなる。例えばBlack Lives Matter(ブラック・ライブズ・マター)運動は、ある基準では政治的話題とみなされるかもしれないが、当事者である多くの社員にとっては極めて個人的かつ重要な問題だ。白人男性のエンジニアのトップが政治的議論禁止令に強く反対したのは偶然ではなく、職場に分断を持ち込むと考えたからだ。

Basecampの共同ファウンダーでCTOのDavid Heinemeier Hansson(デビッド・ハイネマイヤー・ハンソン)氏は、自らのブログ記事でフリード氏の禁止令を敷衍し「フォーラムやトピックでテーマの選択が適切かどうか疑問がある場合は公開する前に(我々に)質問してください」と述べている

Platformerによると、フリード氏の公開状は事情のすべてを語っていないという。Basecampの社員によれば「主要な問題は特定の候補を応援するかどうかではない。Basecamp自体のDEI(ダイバーシティーやインクルージョンの増進)活動へのコミットメントについての社内の評価の相違から緊張が生じた」としている。しかしフリード氏のブログでは「社員が主導していたあるDEI活動が解散させられることになったのが社内緊張の原因の1つとなったことが婉曲に触れられている。

しかしフリード氏は「我々はプロジェクト管理、チーム・コミュニケーション、メール活用アプリなどを開発、運営会社であり、社会活動を目的とする会社ではない」と書いている。

カテゴリー:パブリック / ダイバーシティ
タグ:Basecamp

画像クレジット:Steve Bronstein / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:滑川海彦@Facebook

バイデン政権の労働長官はギグワーカーを従業員待遇にすべきと考えている

米国時間4月29日、バイデン政権の労働長官Marty Walsh(マーティ・ウォルシュ)氏は、ギグエコノミーという白熱している問題に言及して、福利厚生を欠いて働く多くの人びとは企業の従業員扱いになるべきだ、と主張した。

ロイターのインタビューでウォルシュ氏は、労働省はギグエコノミーに注目しており、その労働者の位置づけを変えることがバイデン政権の優先課題になりうると暗示した。

「ギグワーカーを従業員として待遇すべきと思われるケースが多い。現状では、労働者の待遇は場所や項目などによってまちまちであり、一貫性がない。全面的に一貫性があるべきだと私は考える」とウォルシュ氏はいう。

ウォルシュ氏によると、労働省はギグワーカーから利益を得ている企業に対して、それらの企業の非従業員に米国の平均的従業員並の福利厚生を確保するよう促すかもしれない、という。

「企業が売上と利益を得ることは、米国では普通のことであり、何も問題ではない。従業員に平均的な福利厚生を与えてなおかつ利益を得ている企業なら、何もいう必要はない。しかし私たちが一般的に求めるのは、企業の成功が確実に労働者の待遇にも反映することだ」とウォルシュ氏はいう。

ウォルシュ氏のコメントは現在のところ、国の施策によって認められてはいない。しかしそれらは、非従業員の労力を利用しているテクノロジー企業で、今だに大きな波風を惹き起こしている。4月29日のこのニュースで、UberとLyftそれにDoordashの株価は下がった。

そのインタビューでウォルシュ氏は、雇用主からの失業保険や健康保険がないギグワーカーのパンデミック関連の心配についても触れた。連邦政府はパンデミックの間に、ギグワーカーに対する福利厚生を認める2つの大型法案を成立させて、施策の緩みを修復した。しかしそれ以外では、彼らにはほとんどセーフティーネットがない。

労働法の改正はバイデン氏の選挙公約でもあり、大統領になってからは労働者保護の強化と労働者の組織化の支援を強調してきた。バイデン氏の政権移転サイトには、労働者保護の拡張に捧げられた部分があり、従業員を契約労働者扱いする誤りを「伝染病」と呼んでいる。

バイデン氏は米国時間4月28日夜の下院との合同会議で、以前からの労働組合の支持を繰り返し、労働者の組合結成や組合への参加を保護する法律であり組織化する権利の保護法(Protecting the Right to Organize Act)を賞揚した。その法律も拡張され、国の悪政を暴露する者にも適用されるようになる。

「ミドルクラスがこの国を作った。そして、組合がミドルクラスを作った」とバイデン大統領は語っている。

関連記事:バイデン大統領が「がんを撲滅」するために医療高等研究計画局の設立を提案

カテゴリー:パブリック / ダイバーシティ
タグ:ギグワーカーギグエコノミージョー・バイデンUberLyftDoorDash労働

画像クレジット:Jeenah Moon/Bloomberg/Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Hiroshi Iwatani)

バイデン大統領が「がんを撲滅」するために医療高等研究計画局の設立を提案

Biden(バイデン)米国大統領は、現地時間4月28日に議会で行った演説において、ワクチン接種の取り組みについて国民に報告するとともに、政権の野心的な目標を説明した。

バイデン大統領が就任してからの100日間は、何百万人もの米国民を貧困から救い、気候変動に歯止めをかける、広範な立法措置が印象的だった。だが、議会の上下両院合同会議で初めて行った施政方針演説では、それより規模は小さいものの劣らず野心的なもう1つの計画を強調した。それは「我々が知っている限りのがんを撲滅する」というものである。

「これ以上に価値のある投資はありません。これ以上に党派を超えた取り組みもありません」と、水曜日の夜に語ったバイデン大統領は「それは私たちの力でできることです」と続けた。

この発言は突然出てきたものではない。ホワイトハウスは2021年4月初め、画期的な健康研究のための新しい政府機関を設立するために、65億ドル(約7075億円)の予算要求を発表した。この機関は「ARPA-H(Advanced Research Projects Agencies for Health、医療高等研究計画局)」と呼ばれ、NIH(National Institutes of Health、国立衛生研究所)の中に設置される。当初はがん、糖尿病、アルツハイマー病などを対象とするが、さらに医療研究を根本的に変えるような「変革的イノベーション」を追求することになる。

この65億ドルの投資は、NIH予算の510億ドル(約5兆5520億円)の一部だ。しかし、ARPA-Hは、NIHの中に置くのではなく、保健福祉省の下に置くべきだと批判する専門家もいる

ARPA-Hは、国防省の高等研究計画局(DARPA)をモデルにしている。DARPAは、国防への応用を目的としてムーンショット的な技術を開発している機関だ。DARPAの目標は、科学というよりも空想科学のように聞こえることが多いものの、これまでに、GPSの前身となる技術や、現代のインターネットに発展したコンピュータネットワークであるARPANETなど、現在のさまざまなユビキタス技術に貢献したり、その基礎を作り上げてきた。

DARPAは、保守的で漸進的な研究チームとは異なり、他の政府機関よりもシリコンバレーに近い形で、大きな科学的進歩を積極的に追求している。バイデン大統領は、DARPAのモデルを最先端の医療研究に用いることで、米国がバイオテクノロジーの分野で後れを取ることはないようにしようと考えている。

「中国や他の国々が急速に迫ってきています」と、バイデン大統領は演説の中で述べた。「私たちは、未来の製品や技術となる、高度なバッテリー、バイオテクノロジー、コンピューターチップ、クリーンエネルギーを開発し、優位に立たなければなりません」。

関連記事:スタートアップにはバイデン大統領のインフラ計画を支持する110兆円分の理由がある

カテゴリー:パブリック / ダイバーシティ
タグ:ジョー・バイデンがん医療アメリカ

画像クレジット:Melina Mara/The Washington Post/Bloomberg / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Hirokazu Kusakabe)

DARPAがより軽く快適な生物・化学向け防護服の開発プログラム開始、感染症予防や治療提供など公衆衛生領域でも期待

DARPAがより軽く快適な生物・化学向け防護服の開発プログラム開始、感染症予防や治療提供など公衆衛生領域でも期待

DARPA

米国防高等研究計画局(DARPA)は、FLIR Systems、Leidos、Charles River Analyticsとの契約で化学・生物系の脅威から兵士やその状況に対応する人々を守るための、新しい個人用防護服の開発プログラムを立ち上げました。

パーソナライズド・プロテクティブ・バイオシステム(PPB)と称する個人用防護服は、既存の核・生物・化学物質向け防護服に比べより軽く快適で多様な危険に対応できることを目指しています。通常、このような防護服は結露防止用の通気孔を備えた不浸透性のゴムのような素材か、活性炭を含んだ通気性のある素材で作られています。この防護服は兵士の制服の上から着用し、さらにガスマスクなど保護具を装着して数日間にわたり戦闘や作業をこなせるよう作られています。

とはいえ、このような防護服は着心地が悪いうえに重く、新しく出てきた化学・生物系の兵器に対応できなくなりつつあります。そのためDARPAは広範な脅威に長時間対応可能な、軽量素材と分子技術の開発とそれを使った新しい防護服の開発を求めているわけです。

PPBプログラムマネージャーのEric Van Gieson氏は、今回のPPB開発プログラムは「脅威特有の脆弱性、熱的・物流的な負担、潜在的な被ばくリスクなど、PPEの限界を解決することを目的としています」と述べ「兵士への負担の少ない防護を提供する新スーツがあれば、脅威の有無にかかわらず、ミッション達成までの時間を短縮し、作戦の柔軟性を高め、任務に就ける期間を延長し、厳しい環境でも作戦を実行可能にする、非常に貴重な戦力になるでしょう」としました。

またPPB技術は、その開発に成功すれば軍用途だけでなく、公衆衛生の分野でも予測不可能な環境下での活動をしやすくする可能性があります。既知の感染症だけでなく新たな感染症に対する予防や、治療手段をその場に提供できるようになるかもしれません。

(Source:DARPA、Via:New AtlasEngadget日本版より転載)

関連記事
米DARPA、負傷戦士のためにスマート包帯を研究中

カテゴリー:パブリック / ダイバーシティ
タグ:公衆衛生(用語)DARPA / 米国防高等研究計画局(組織)

グーグルが元受刑者のキャリアとデジタルトレーニングに関する取り組みを発表

Google(グーグル)は米国時間4月29日、Grow with Google Career Readiness for Reentryの開始を発表した。この取り組みは非営利団体のThe Last Mile、Center for Employment Opportunities(CEO)、Defy Ventures、Fortune Society、The Ladies of Hope Ministriesとの連携により、元受刑者に就職準備とデジタルスキルのトレーニングを提供することを目的としている。

グーグルが本日公開したブログ記事によると、出所後の失業率は全米平均の5倍にも上り、黒人の出所者は差別的な扱いを受けているためさらに高い失業率となっている。全体では、毎年約60万人の米国人が出所後に就職への移行を試みている。

このプロジェクトでは2021年から1万人を対象に、プロジェクトベースとビデオ学習を組み合わせたカリキュラムを実施する。グーグルによると、学習内容は5つのポイントで構成されている。

  1. 基礎から始める
  2. 仕事探し
  3. 仕事への準備
  4. オンラインの安全性
  5. 「次のステップ」の仕事への備え

YouTube(ユーチューブ)の人権担当グローバルヘッドであるMalika Saada Saar(マリカ・サーダ・サール)氏はこのニュースに関連した声明の中で「デジタルスキルトレーニングやジョブコーチングへのアクセスがないことは、受刑者が再就職して経済的可能性を高めようとする際に、非常に不利な状況をもたらします。私たちは出所の影響を受けた男性と女性、母親と父親にデジタルスキルトレーニングを提供し、再就職を成功させるために真の専門知識とリーダーシップを発揮しているプログラムパートナーと協力できることに興奮しています」と述べている。

グーグルによるとこのプログラムは、刑事司法改革の非営利団体に4000万ドル(約44億円)、コンピューターサイエンスの学習に6000万ドル(約65億円)を投資するという、より大きな取り組みの一環だ。

関連記事
グーグルのMVNO通信サービス「Google Fi」が6周年を迎え月額約6480円の新無制限プランを発表
グーグルがAndroid 12の開発者プレビュー最新版を公開、触覚フィードバックなど拡張

カテゴリー:パブリック / ダイバーシティ
タグ:Googleアメリカ

画像クレジット:AaronP/Bauer-Griffin / Getty Images

原文へ

(文:Brian Heater、翻訳:塚本直樹 / Twitter

EUがプロバイダーによるテロ関連コンテンツの1時間以内の削除を法制化

欧州議会は現地時間4月28日、テロリストのコンテンツ取り締まりに関する新しい法律を承認した。1時間以内のコンテンツ削除が欧州の法定基準となる。

「テロリストコンテンツのオンラインでの拡散に対処する」規則は欧州連合(EU)の官報掲載後すぐに発効し、12カ月後に適用が始まる。

規則の導入で、欧州でユーザーにサービスを提供しているプロバイダーは加盟国当局からの通知を受けて1時間以内にテロリストコンテンツの削除を行うか、あるいはなぜ削除できないのかを説明しなければならない。

教育、研究、文化、報道のコンテンツは例外とし、ソーシャルメディアサイトのようなオンラインプラットフォームで拡散しているテロリズム宣伝を標的とすることを目的としている。

この規則で当局が迅速に削除したいコンテンツの種類は、テロ犯罪を扇動、勧誘したりテロ犯罪に貢献するようなもの、犯罪のインストラクションを提供するもの、あるいはテロリストグループに参加するよう人々をそそのかすものだ。

爆発物や銃器、テロ目的の他の武器の作り方や使い方を案内するコンテンツも対象となる。

しかしながら、オンラインの表現の自由への影響について懸念が示されてきた。ここには、削除対応に必要なタイトな時間のためにプラットフォームがリスクを低減しようとコンテンツフィルターを使うのではないか、というものが含まれる。

この法律はプラットフォームにコンテンツを監視したり、フィルターにかけたりすることを義務付けていないが、テロの宣伝を防ぐための方策をとらなければならないとして、禁止されたコンテンツの拡散を防止するようプロバイダーに求めている。

どのように対応するかはプロバイダー次第だ。自動化ツール使用の法的義務はない一方で、大手プロバイダーがおそらく活用することになるのは、不当に言論を黙らせるリスクをともなうフィルターとなりそうだ。

もう1つの懸念は、法律のもとでテロリストのコンテンツがどれくらい正確に特定されるかだ。市民権グループは欧州の権威主義的な政府が欧州のあちこちを拠点とする批判的な人々を追跡するのにこの法律の使用を考えるかもしれない、と警告している

法律は透明性の義務を含む。つまり、プロバイダーはコンテンツ特定と取り締まりについての情報を毎年公開しなければならない。

罰則に関しては、加盟国が違反に規則を適用するが、繰り返し順守しなかった場合に科す罰金の上限はグローバル年間売上高の最大4%と規則に盛り込まれている。

EU議員はこの法律を、オンラインでのISISコンテンツ拡散に関して懸念が高まっていた2018年に提案した。

同年3月にプラットフォームは非公式の1時間内削除ルールに従うよう迫られた。しかしそれから数カ月して欧州委員会が「オンラインでのテロリストコンテンツの拡散を防ぐ」ことを目的とする、より広範な提案を行った。

提案をめぐっては、調整のための交渉が欧州議会議員と加盟国の間で繰り広げられた。たとえば欧州議会議員は、所管官庁に削除命令を1度も受け取ったことのない企業に対し、コンテンツを削除する初の命令を発行する少し前に手順と締切についての情報を提供するために連絡をとることを求める提案を推進した。これは企業が完全に法律を適用されることがないようにという意図だ。

ただ、小規模のコンテンツプロバイダーへの影響は批判的な人にとって引き続き懸念となっている。

欧州理事会は3月に最終提案を採用した。4月18日の欧州議会による承認には共同立法プロセスも含まれる。

声明の中で欧州議会議員で報告担当官のPatryk JAKI(パトリック・ジャキ)氏は次のように述べた。「テロリストはインターネットでリクルートし、プロパガンダを共有し、攻撃のための調整を行います。今日我々は、加盟国がEU中で1時間以内にテロリストコンテンツを削除できるようにする効果的なメカニズムを確立しました。セキュリティとインターネット上の言論と表現の自由のバランスを取り、合法のコンテンツとEU全市民のための情報へのアクセスを守る一方で、加盟国間の協力と信頼を通じてテロリズムと戦うものとなっていて、良い成果をあげたと強く確信しています」。

カテゴリー:パブリック / ダイバーシティ
タグ:EUテロ

画像クレジット:picture alliance / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

【コラム】バイデン政権はインクルーシブであるためにAI開発の取り組みにもっと力を入れる必要がある

本稿の著者Miriam Vogel(ミリアム・フォーゲル)氏は、人工知能に存在する無意識の偏見を減らすことを目的とした非営利団体EqualAIの代表兼CEO。

ーーー

人工知能国家安全保障委員会(NSCAI)は2021年3月、不安なメッセージを公的に伝える報告書を発表した。「米国は、AI時代に防衛したり競争したりする準備ができていない」というものだ。この報告書は、直ちに回答が求められる2つの重要な質問につながる。つまり、米国がAIの開発と導入に遅れをとった場合、米国は世界の超大国であり続けるのか?そして、この軌道を変えるために私たちは何ができるのか?

一見、中立的に見える人工知能(AI)ツールを放置すると、不平等が拡大し、事実上、差別が自動化されてしまう。テクノロジーが可能にする弊害は、すでに信用判断、医療サービス広告などで表面化している。

このような事態の再発と規模の拡大を防ぐために、Joe Biden(ジョー・バイデン)政権は、AIと機械学習モデルに関する現行の法律を明確にする必要がある。これは、民間企業による利用をどのように評価するかという点と、政府システム内でのAI利用をどのように管理するかという点の両方においてだ。

一見、中立的に見える人工知能(AI)ツールを放置すると、不平等が拡大し、事実上、差別が自動化されてしまう。

政権は、ハイテク分野に重要な地位の人事を置いたり、就任初日にEquitable Data Working Group(公平なデータのためのワーキンググループ)を設立する大統領令を発布するなど、好印象を与えている。これにより、米国のAI開発とデジタル空間における公平性の確保を懸念する懐疑的な人たちをも安心させた。

しかし、AIへの資金提供を現実のものとし、その開発と利用を保護するために必要なリーダーと体制を確立するという強い決意を政権が示さなければ、その安心も束の間のことだろう。

優先順位の明確化が必要

連邦政府レベルでは、AI政策や技術分野における平等性へのコミットメントが大きく変化してきている。OSTPの副局長であるAlondra Nelson(アロンドラ・ネルソン)、NECのTim Wu(ティム・ウー)、NSCのKurt Campbell(カート・キャンベル)など、バイデン政権内の注目を集める人事を見ると、内部の専門家による包括的なAI開発に大きな焦点が置かれていることが分かる。

NSCAIの最終報告書には、包括的なAI開発のためのより良い基盤を実現するために重要となる提言が含まれている。例えば、現在および将来の従業員を訓練するためのU.S. Digital Service Academy(米デジタルサービスアカデミー)を通じて新たな人材パイプラインを構築することなどが挙げられている。

また、報告書では、副大統領が率いる新しいTechnology Competitiveness Council(技術競争力協議会)の設立を推奨している。これは、AIのリーダーシップに対する国の取り組みを最高レベルの優先事項として維持するために不可欠なものとなるだろう。ハリス副大統領が大統領との戦略的パートナーシップを持っており、技術政策に精通していること、公民権に力を入れていることなどを考慮すると、AIに関する政権のリーダーシップをハリス副大統領が陣頭指揮することは理に適っていると思われる。

米国は模範となるべきだ

AIは、何千通もの履歴書に目を通し、適している可能性のある候補者を特定するなど、効率化を実現する上で強力であることはわかっている。しかし、男性の候補者を優先的に採用するAmazonの採用ツールや、人種に基づく信用の「デジタル・レッドライニング」など、差別を拡大することもできてしまう。

バイデン政権は、AIが政府の業務を改善する方法についてのアイデアを募る大統領令を各省庁に出すべきだ。また、この大統領令では、米国政府が使用するAIが意図せずに差別を含む結果を広めていないかどうかを確認することも義務付けるべきである。

例えば、AIシステムに組み込まれた有害なバイアスが、差別的な提案や、民主的で包括的な価値観に反する提案につながっていないかどうかを評価する。そして、AIが常に反復して新しいパターンを学習していることを考慮すると、定期的に再評価を行うスケジュールを設定するべきだ。

責任あるAIガバナンスシステムの導入は、特定の利益を拒否する際にデュープロセスの保障が求められる米国政府においては特に重要だ。例えば、AIがメディケイドの給付金の配分を決定するために使用され、そのような給付金がアルゴリズムに基づいて修正または拒否された場合、政府はその結果を説明できなければならず、これはまさに技術的デュー・プロセスと呼ばれている

説明可能性、ガイドライン、人間の監督なしに決定が自動システムに委ねられると、この基本的な憲法上の権利が否定されるという、どうしようもない状況に陥ってしまう。

同様に、主要企業によるAIの安全対策を確実なものにするにあたり、政権はその調達力を通じて絶大な力を持っている。2020年度の連邦政府の契約費は、新型コロナ対策費を含める前でも、6000億ドル(約64兆9542億円)を超えると予想されている。米国政府は、AIシステムを連邦政府が調達する際のチェックリストを発行すれば、非常に大きな効果を上げることができる。これにより、関連する市民権に配慮しつつ、政府のプロセスが厳格かつ普遍的に適用されるようになるだろう。

AIシステムに起因する差別からの保護

政府は、AIの弊害から私たちを守るためのもう1つの強力な鍵を握っている。調査および検察の権限だ。判断がAI搭載システムに依存している場合、現行の法令(ADA、フェアハウジング法、フェアレンディング法、公民権法など)の適用可能性を明確にするよう各機関に指示する大統領令が出れば、世界的な大混乱に陥る可能性がある。米国で事業を行っている企業は、自社のAIシステムが保護対象クラス(Protected Class)に対する危害を加えていないかどうかをチェックするきっかけができることだろう。

低所得者は、AIの多くの悪影響に対して不相応に弱い立場にある。特にクレジットやローンの作成に関しては、従来の金融商品へのアクセスや、従来のフレームワークに基づいて高いスコアを得ることができない可能性が高いため、その傾向が顕著だ。そしてこれが、そのような判断を自動化するAIシステムを作るためのデータとなる。

消費者金融保護局(CFPB)は、差別的なAIシステムに依存した結果の差別的な融資プロセスについて、金融機関に責任を負わせる上で極めて重要な役割を果たす可能性がある。大統領令の義務化は、AI対応システムをどのように評価するかを表明するための強制機能となり、企業に注意を促し、AI利用に関する明確な予測で国民をよりよく保護することができる。

個人が差別的な行為をした場合には責任を問われ、説明もなく恣意的に公共の利益が否定された場合にはデュー・プロセス違反となることが明確になっている。理論的には、AIシステムが関与している場合、これらの責任と権利は容易に移行すると思われるが、政府機関の行動や判例(というよりもむしろ、その欠如)を見る限り、そうではないようだ。

差別的なAIに対する法的な異議申し立てを基本的に不可能にするようなHUD(都市住宅開発省)規則案を撤回するなど、政権は良いスタートを切っている。次のステップとして、調査や訴追の権限を持つ連邦政府機関は、どのようなAI行為が審査の対象となり、現行の法律が適用されるのかを明確にする必要がある。例えば、HUDは違法な住宅差別について、CFPBは信用貸しに使用されるAIについて、労働省は雇用、評価、解雇の際に行われる判断に使用されるAIについてといった具合だ。

このような行動は、苦情に関する原告の行動に有益な先例を作るという利点もある。

バイデン政権は、差別のない包括的なAIの実現に向けて、心強い第一歩を踏み出した。しかし、連邦政府は、AIの開発、取得、使用(社内および取引先)が、プライバシー、公民権、市民的自由、米国の価値観を保護するような方法で行われることを連邦政府機関に要求することで、自らの問題を解決しなければならないだろう。

カテゴリー:パブリック / ダイバーシティ
タグ:ジョー・バイデンコラム人工知能アメリカ差別医療広告インクルーシブ

画像クレジット:Andy Emel / Getty Images

原文へ

(文:Miriam Vogel、翻訳:Dragonfly)

EUがAIのリスクベース規則の罰金を全世界年間売上高の最大4%で計画、草案流出で判明

人工知能の利用をめぐる規則草案を作成中の欧州連合の議員らが、違反したユースケースについて全世界の年間売上高の最大4%(もしくは2000万ユーロ[約26億円]のどちらか高額な方)を罰金として検討していることがわかった。公式の発表が見込まれるAI規則の草案が流出し、Politico(ポリティコ)が報じたことで判明した。

AI規制をめぐる計画はしばらく前から予想されていた。2020年2月には欧州委員会がホワイトペーパーを公開し「高リスク」とされる人工知能の利用を規制する計画の概略を発表した。

当時、EUの議員は分野ベースでの検討を進めていた。エネルギーや人材採用といった特定の分野をリスク領域と想定していたのだ。しかし、流出した草案を見るとこのアプローチは見直されたようで、今回、AIリスクに関する議論は特定の業界や分野には限定されていない。

焦点は代わりに、分野に関係なく高リスクのAI利用に関するコンプライアンス要件に向けられている(武器や軍事的な利用は明確に除外されているが、それはこの領域がEU条約の対象から外れているため)。とはいえ「高リスク」の定義については、この草案だけではまだ不明瞭だ。

ここでの欧州委員会の最大の目標は、AIの社会的信用を高めることにある。そのために「EUバリュー」に染まったシステムによってコンプライアンスチェックと均衡化を図り、いわゆる「信用できる」 「人間主体」のAI開発を促進するという。そこで「高リスク」と見なされていないAI応用のメーカーも、本委員会の言葉を借りると「高リスクのAIシステムに適用される必須条件の自発的な適用を促進するため」に行動規範を導入することが推奨されている。

本規則のもう1つの焦点は、連合内のAI開発を支える方策の制定だ。加盟国に規制のサンドボックス制度を定めるよう迫ることで、スタートアップや中小企業が市場展開前の段階で優先的にAIシステムの開発とテストの支援を受けられるようにする。

草案では、所轄官庁が「当局の監督と是正に全面的に従いながらも、サンドボックスに加わる事業体の人工知能プロジェクトについて自由裁量権と均整化の権限を与えられる」としている。

高リスクのAIとは?

計画中の規則では、人工知能の利用を予定する事業体が、特定のユースケースが「高リスク」かどうかを見極め、それゆえ市場展開前に義務付けられているコンプライアンス評価を実施すべきかを判断しなければならないとされている。

草案の備考によると「AIシステムのリスク分類は、その利用目的にもとづいて決定される。該当のAIシステムの利用目的を具体的な状況や利用条件を含めて検討し、その利用が何らかの危険を及ぼすかどうか、またその場合、潜在的な危険の重大度と発生可能性がどのくらいか、この2つを考慮することで決定される」。

草案は「本規則に従って高リスクと分類されたAIシステムは、必ずしも各分野の法律において『高リスク』とされるシステムまたは商品とは限らない」とも言及している。

高リスクのAIシステムに関連する「危険」の例を草案のリストから挙げると「人の負傷または死、所有物への損害、社会への大規模な悪影響、重要な経済的および社会的活動の通常運用に不可欠なサービスを大きく混乱すること、経済、教育、または就業の機会への悪影響、公共サービスおよび何らかの公的支援の利用に対する悪影響、(欧州市民の)基本的権利への悪影響」などが含まれている。

高リスクの利用についても、いくつかの例が取り上げられている。例えば人材採用システム、教育機関または職業訓練機関へのアクセスを提供するシステム、緊急のサービス派遣システム、信用度評価、税金で賄われる社会福祉の配分決定に関係するシステム、犯罪の防止・発見・起訴に関連して適用される意思決定システム、そして裁判官のサポート目的で使用される意思決定システムなどだ。

つまり、リスク管理システムを制定し、品質管理システムを含めた市場展開前の調査を実施するなどコンプライアンス要件が満たされている限り、規制計画によってこうしたシステムがEU市場で禁じられることはないだろう。

その他の要件はセキュリティ分野の他、AIのパフォーマンスの一貫性確保に関するものだ。「重大なインシデントや、義務違反を含むAIシステムの誤作動」については、どのようなものであれ発覚後15日以内に監督機関に報告することが規定されている。

草案によると「高リスクのAIシステムも、必須条件への準拠を条件として連合市場に出す、あるいは運用することができる」。

「連合市場に出されている、あるいは運用されている高リスクのAIシステムを必須条件に準拠させる際は、AIシステムの利用目的を考慮し、提供元が定めるリスク管理システムに従って行うべきである」。

「これらに加え、提供元が定めるリスク制御管理策は、すべての必須条件を適用した場合の効果および起こり得る相互作用を鑑み、また関連する整合規格や共通仕様書など一般的に認められている最高の技術水準を考慮して定めるべきである」

禁止されるプラクティスと生体認証

流出した草案によると、計画中の法令の第4項では一部のAI「プラクティス」が禁止条項に挙げられている。例えば、大規模な監視システム、さらには差別につながりかねない一般の社会的なスコアリングシステムへの(商業目的での)適用などだ。

人間の行動、意思決定、または意見を有害な方向へ操るために設計されたAIシステム(ダークパターン設計のUIなど)も、第4項で禁止されている。個人データを使用し、人や集団の弱さをターゲットとして有害な予測をするシステムも同様だ。

一般の読者の方は、本規則が人のトラッキングをベースとする行動ターゲティング広告、つまりFacebook(フェイスブック)やGoogle(グーグル)といった企業のビジネスモデルで用いられるプラクティスを一挙に禁止しようとしているのではないかと推測されるかもしれない。しかし、そのためには広告テクノロジーの巨大企業らに、自社のツールをユーザーに有害な影響を及ぼすツールだと認めてもらわなければならない。

対して、彼らの規制回避戦略は真逆の主張にもとづいている。フェイスブックが行動ターゲティング広告を「関連」広告と呼んでいるのもそのためだ。この草案は、EU法を定着させようとする側と、自社に都合のいい解釈をしようとする巨大テクノロジー企業らとの(今よりも)長きにわたる法廷での戦いを招くものとなるかもしれない。

禁止プラクティスの根拠は、草案の前文にまとめられている。「人工知能が特別に有害な新たな操作的、中毒的、社会統制的、および無差別な監視プラクティスを生みかねないことは、一般に認知されるべきことである。これらのプラクティスは人間の尊厳、自由、民主主義、法の支配、そして人権の尊重を重視する連合の基準と矛盾しており、禁止されるべきである」。

本委員会が公共の場での顔認証の利用禁止を回避したことは、注目に値するだろう。2020年の初めに流出した草案ではこの点が考慮されていたが、2020年のホワイトペーパー公開前には禁止とは別の方向へかじを切ったようだ。

流出した草案では、公共の場での「遠隔生体認証」が「公認機関の関与を通じてより厳格な適合性評価手順を踏む」対象に挙げられている。つまり、その他ほとんどの高リスクのAI利用とは異なり(これらはセルフアセスメントによる要件順守が認められている)、データ保護の影響評価を含む「テクノロジーの利用によって生じる特定のリスクに対応するための承認手続き」が必要だということだ。

「また、評価の過程で、承認機関は定められた目的でシステムを利用する際の誤差によって生じる危険(とりわけ年齢、民族、性別、または障害に関するもの)の頻度とその重大度を考慮しなければならない」と草案は述べている。「その他、特に民主的プロセスへの参加や市民参加、さらには参照データベース内の人々のインクルージョンに関する手段、必要性、および比例について、その社会的影響を考慮しなければならない」。

「主として個人の安全に悪影響を与えかねない」AIシステムもまた、コンプライアンスの手順の一環として高水準の規制関与を受ける必要がある。

すべての高リスクAIの適合性評価に用いるシステムについては引き続き検討が続いており、草案では「本規則への準拠に影響しかねない変更がAIシステムに生じた場合、あるいはAIシステムの利用目的に変更が生じた場合には、新たに適合性評価を実施することが適切である」としている。

「市場に出された、あるいは運用を開始した後にも「学習」を続ける(機能の実行方法を自動的に適応する)AIシステムについては、アルゴリズムおよびパフォーマンスに生じた変化が適合性評価の時点で事前に特定および評価されていない場合、新たにAIシステムの適合性評価を実施する」とのことだ。

規則に準拠する企業へ与えられる報酬は「CE」マークの取得だ。このマークによってユーザーの信頼を獲得し、連合の単一市場全体で摩擦のないサービスを提供できる。

「高リスクのAIシステムを連合内で自由に利用するには、CEマークを取得して本規則との適合を示す必要がある」と草案は続ける。「加盟国は本規則で定められた要件に準拠するAIシステムの市場展開または運用を妨げる障害を生んではならない」。

ボットとディープフェイクの透明性確保

提供元は、商品の市場展開前に(ほぼセルフでの)評価を実施し、コンプライアンス義務(モデルのトレーニングに使用するデータセットの品質確保、記録の保持・文書化、人間による監視、透明性の確保、正確性の確保など)を果たし、市場展開後も継続的に監視を続けることが要求されている。このように「高リスク」のAIシステムを安全に市場に出すべく、いくつかのプラクティスを法的に禁止し、EU全体での規則適用に用いるシステムの確立を模索すると同時に、草案では人をだます目的で使用されているAIのリスクを縮小しようとする動きがある。

具体的には、自然人とやり取りをする目的で使用されるAIシステム(ボイスAI、チャットボットなど)、さらには画像、オーディオ、または動画コンテンツを生成または操作する目的で使用されるAIシステム(ディープフェイク)について「透明性確保のための調和的な規定」を提案しているのだ。

「自然人とやり取りをする、またはコンテンツを生成する目的で使用されるAIシステムは、高リスクに該当するか否かに関わらず、なりすましや詐欺といった特定のリスクを含む可能性がある。状況によっては、これらのシステムの利用は高リスクのAIシステム向けの要件および義務とは別に、透明性に関する特定の義務の対象となるべきである」と草案は述べている。

「とりわけ、自然人はAIシステムとやり取りする場合、それが状況や文脈から明確に分かる場合を除き、その旨は通知されるべきである。さらに、実在の人物、場所、出来事との明確な共通点がある画像、オーディオ、または動画コンテンツを生成あるいは操作する目的でAIシステムを使用し、そのコンテンツが一般人によって本物と誤解されるものである場合は、ユーザーは人工知能の生産物にそれぞれ表示を付け、人工物の作成元を開示することで、該当コンテンツが人工的に作成されたあるいは操作されたことを開示しなければならない」。

「表示に関するこの義務は、該当コンテンツが治安の維持や正当な個人の権利または自由(例えば風刺、パロディー、芸術と研究の自由の行使、さらにはサードパーティーの適切な権利および自由を保護するための題材)の行使のために必要な場合には適用されない」。

実施の詳細は?

このAI規則案はまだ委員会によって正式に発表されてはいないため、詳細が変更される可能性はあるが、2018年に施行されたEUのデータ保護規則の実施がいまだに不十分なことを踏まえると、(複雑な場合が多い)人工知能の具体的な利用を規制するまったく新しいコンプライアンス層の導入がどこまで効果的に監視し、違反を取り締まれるのかは疑問だ。

高リスクのAIシステムを市場に出す際の責任(かつ、高リスクのAIシステムを委員会が維持予定のEUデータベースに登録することなど、さまざまな規定への準拠責任)はそのシステムの提供元にある一方で、規則案では規制の実施を加盟国に一任している。つまり、各国にある1つまたは複数の所轄官庁に監視規則の適用を管理するよう任命する責任は、それぞれの加盟国にあるということだ。

その実態は、EU一般データ保護規則(GDPR)の先例からすでに見えているだろう。委員会自体も、連合全体でGDPRの実施が一貫したかたちで、あるいは精力的に行われていないことを認めている。疑問点は、駆け出しのAI規則が同じ フォーラムショッピングの運命をたどらないようにできるのかという点だ。

「加盟国は、本規則の条項が確実に実践されるよう必要な手段をすべて取らなければならない。これには、違反に対して効果的かつバランスのとれた、行動抑止効果のある罰則を規定することが含まれる。具体的な違反については、加盟国は本規則で定められた余地と基準を考慮に入れるべきである」と草案は述べている。

委員会は、加盟国の実施が見られない場合の介入について補足説明をしている。とはいえ、実施方法について短期的な見通しがまったくないことを考えると、先例と同じ落とし穴があることは否めないだろう。

将来の実施失敗を阻止するため、委員会は次のように最終手段を定めている。「本規則の目標は連合内での人工知能の市場展開、運用開始、および利用に関する信頼のエコシステムを構築するための環境を整えることである。それゆえ、加盟国がこれを十分に達成することができず、措置の規模または効果を鑑みた結果連合レベルでの実施の方がよりよい成果を達成できると考えられる場合、連合は欧州連合基本条約第5項に定められた権限移譲の原則に従う範囲で、措置を講じることができる」。

AIの監視計画には、GDPRの欧州データ保護委員会と類似のEuropean Artificial Intelligence Board(欧州人工知能委員会)を設立することが含まれている。この委員会はEUの議員に向けて、禁止されているAIプラクティスや高リスクのシステムのリストなどに関して重要な推奨事項や意見を述べ、欧州データ保護委員会と同じように規則の適用を支援していくこととなる。

カテゴリー:パブリック / ダイバーシティ
タグ:人工知能EU顔認証生体認証

画像クレジット:piranka / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

テック業界に対するリナ・カーン氏の時宜を得た懐疑論はFTCの承認公聴会を新鮮かつ友好的な方向に導くものだ

近ごろの承認公聴会がどう進むかは誰にもわからない。現状と大企業に挑みながらも重要な地位に指名された若い部外者にとっては特にそうだ。FTC委員のポジションに就く予定のLina Khan(リナ・カーン)氏はまさにそのような人物だが、米国時間4月22日に行われた上院商業委員会の承認公聴会で、意外なほど快適な時間を過ごした。おそらく、反トラストに対する彼女の因習打破的なアプローチが昨今の政策を良い方向に導いているからであろう。

コロンビア大法科大学院の准教授であるカーン氏は「Amazon’s Antitrust Paradox(アマゾンの反トラスト・パラドックス)」という鋭敏な論文を通じてテクノロジー業界で一躍有名になった。(同氏は最近、テクノロジー政策に関する下院の報告書にも寄稿している。)

2018年に同論文が発表されたとき、Amazonが自社の立場を乱用し始めたという印象は、一部の業界では常識化していたが、連邦議会ではあまり認識されていなかった。しかし、自由放任主義や不十分な規制がAmazon、Google、Facebookに(手始めに)モンスターを生み出しているという意識の高まりは、これらの新進企業を元の場所に戻す何らかの方法を見つける必要があるという、超党派の稀有な合意につながった。

それが今度は、目的を共有しているという感覚と、承認公聴会での仲間意識をもたらした。この公聴会はトリプルヘッダーで行われ、カーン氏はNASAの責任者に指名されたBill Nelson(ビル・ネルソン)氏、商務省の法律顧問に就任予定のLeslie Kiernan(レスリー・キーナン)氏とともに、実に有意義な、3時間ほどの短い会話を交わした。

カーン氏はバイデン政権の中で、ビッグテックなど手に負えなくなったビジネスに立ち向かうための新たなアプローチを提示している人物の1人だ。両陣営の上院議員から誠実な印象の質問が寄せられ、自信に満ちたカーン氏から真摯な申し分のない回答が提示された。

セクション230や、不正な委員会、上院議員に関するものを含め巧妙にカーン氏を導くいくつかの動きを避けながら、その回答は主に、こうした秘密主義の強力な企業に対する規制のアプローチにおいて、FTCは十分な情報を得てより先制的な行動を取るべきだという同氏の専門家としての意見を再確認するものとなった。

以下に、いくつかの主要な問題に対する同氏の見解を示す質疑応答を抜粋して紹介する(回答はわかりやすくするために若干編集されている)。

FTCがGoogle、Facebook、ニュースプロバイダーの争いに介入したことについて。

「すべてが議論の対象になる必要があります。明らかにローカルジャーナリズムは危機に瀕しており、新型コロナウイルス感染症を巡る現下の情勢は、信頼できるローカルニュースの情報源がない場合に引き起こされる、民主主義の深刻な緊急事態を浮き彫りにしていると思います」。

同氏はまた、広告市場の集中化や、業界全体に広範な影響を及ぼす可能性があるアルゴリズム変更などの恣意的な性質についても言及した。

画像クレジット:Graeme Jennings/Washington Examiner/Bloomberg / Getty Images

ソーシャルメディア企業は「一般通信事業者」と見なされるべきだというClarence Thomas(クラレンス・トーマス)氏の困惑する提案について。

「それは多くの興味深い議論を引き起こしたと思います」と彼女は極めて慎重に語った。「Amazonの論文の中で、私はこれらの支配的なデジタルプラットフォームについて考える際の2つの潜在的な道筋を特定しました。その1つは、競合法を施行し、これらの市場が競争的であることを確実にすることです」(独占禁止法の使用など)。

「もう1つは、規模の経済やネットワークの外部性があるために、これらの市場が少数の企業によって支配され続ける可能性があることを認識した場合、別のルールを適用する必要があるということです。私たちには、集中度が高い場合にどのような種類の規制を適用できるかについて考えてきた長い法的伝統があり、一般通信事業として捉えることはそうしたツールの1つです」。

「これらの企業の一部は現在、非常に多くの市場に統合されているため、どの特定市場を対象としているかによって、異なるツールのセットに対応する可能性があることを明確にしておく必要があります」。

(これは、一般通信事業や既存の独占禁止規則がこの問題の対処にまったく適さないということを表す非常に丁寧な言い方だ)。

FTCが承認した過去の企業合併を再検討する可能性について。

「同委員会のリソースは、経済の規模の拡大や、同委員会が検討している案件の規模と複雑度の増大に追いついていませんでした」。

「デジタル市場は特に急速に動いているため、市場への潜在的な集中を気にする必要はないという前提がありました。なぜなら、どんな力の行使も参入や新たな競争によって規律づけられるからです。もちろん今では、市場には実際に大きなネットワーク外部性があり、それによって市場をより厄介なものにしていることが理解されています。後から振り返ってみると、これらの合併レビューは機会を逸したものだったという感覚が高まっているのです」。

(ここでは、Blackburn[ブラックバーン]上院議員[共和党・テネシー州選出]がスペクトラムプラン ― 不正な委員会、上院議員について尋ねる前にカーン氏の「ポジション就任における経験の欠如」を指摘するという、数少ないネガティブな瞬間の1つが見られた)。

Facebookに対する指令のようなものを強制することの難しさについて。

「課題の1つは、これらの企業と執行機関や規制機関との間に存在する情報の非対称性です。いくつかのケースでは、当局が根底にあるビジネスの現実や、これらの市場がどのように機能しているかという経験的な現実に追いつくのに少し時間がかかっていることは明らかです。ですから、少なくとも、当局がペースを保つためにできることを確実に行っていくことが重要になります」。

関連記事:FacebookはFTCの反トラスト法違反訴訟にビッグテックの荒削りな戦略で反論

「ソーシャルメディアにはブラックボックスアルゴリズムという独自のアルゴリズムがあり、実際に何が起こっているのか把握するのを困難にすることがあります。FTCは情報収集能力を活用して、こうしたギャップの一部を緩和する必要があります」。

子どもをはじめとする脆弱なグループに対する保護をオンラインで強化することについて。

新型コロナウイルスのパンデミックにより、家族や子どもたちがこうした[教育に関わりのある]テクノロジーに特に依存するようになっていることを考えると、その危険性は高まっています。そのため、ここでは特に注意を払う必要があります。従来のルールは、離れたところではなく、近いところに置くべきです。

全般的に見て、党派を超えた議論はほとんど見られず、双方において、カーン氏はその職務での実務経験がないとしても(FTC委員のような要職では珍しいことではない)、誰もが求めるような能力を備えた候補者だとの認識が多勢を占めていた。さらに独占禁止法や競合の問題について彼女が高く評価され、かなり断定的な立場をとっていることは、すでに規制の独走状態にあるAmazonとGoogleを一旦は守勢に立たせるのに役立つかもしれない。

カテゴリー:パブリック / ダイバーシティ
タグ:FTCアメリカ反トラスト法AmazonGoogleFacebookセクション230

画像クレジット:Saul Loeb-Pool/Getty Images / Getty Images

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)

コード・フォー・ジャパンが日本初のシビックテック領域アクセラレータープログラム開始、Oktaが資金提供

コード・フォー・ジャパンが日本初のシビックテック領域アクセラレータープログラム開始、Oktaが資金提供コード・フォー・ジャパン(Code for Japan)は4月26日、日本初となるシビックテックの社会実装を支援する「Civictech Accelerator Program」(CAP。シビックテックアクセラレータープログラム)の開始を発表した。

また、同プログラム1社目のパートナー企業として、アイデンティティ管理サービスを手がけるOktaから3年間で24万ドル(約2600万円)の寄付が行われることが決定した。Oktaが米国時間4月8日、年次カンファレンス「Oktane21」においてアジア初のパートナーとして発表しており、地域社会への活動の一環とする非営利組織支援の取り組み「Okta for Good」から資金提供が行われる。

CAP第1期の応募は5月末まで行う。また、約6カ月を1タームとして定期的なメンタリングを中心とし、開発やサービスデザインに対するフィードバック、法務・財務などを含めた専門家とのミーティングセットなどで参加チームの社会実装・事業展開をバックアップする。

Code for Japanは、シビックテック(市民が主体となって自分たちの街の課題を技術で解決する)コミュニティ作り支援や、自治体への民間人材派遣などの事業に取り組む非営利団体。より良い未来に向けて、立場を超えてさまざまな人たちと「ともに考え、ともにつくる」ための活動を行っている。

Code for Japanは、今後も国内外の企業や公益財団などをパートナーとして迎え、シビックテック・アプローチで社会課題に取り組んでいるチームを支援し、より多様な社会課題に幅広い世代の仲間とともにより一層シビックテックコミュニティを拡げ、活動を続ける。また、CAPやシビックテックにおける各種取り組みについてパートナーシップを検討している企業・財団からの問い合わせを受け付けているという。

シビックテックアクセラレータープログラム(Civictech Accelerator Program)

Code for Japanによると、シビックテック領域の取り組みにおいて、これまで以下の活動を行いインキュベート機能(設立して間もないチームに技術・人材などを提供し、育成すること)をになってきたという。

コード・フォー・ジャパンが日本初のシビックテック領域アクセラレータープログラム開始、Oktaが資金提供

  • プロトタイプ開発を進めていく毎月開催の継続型ハッカソン「Social Hackday」(ソーシャルハックデー)
  • 技術系人材をコーディネートすることで非営利団体の取り組みにおいてIT活用を進める「Social Technology Officer」(ソーシャルテクノロジーオフィサー)
  • 学生のチーム開発支援プログラム「Civictech Challenge Cup U-22」(CCC U-22。シビックテックチャレンジカップ U-22)

ただ、これらで育ったプロトタイプやプロジェクトのアクセラレート機能(社会実装、持続可能なビジネスモデルの構築などの支援)がなかったため、サービスとして成立する開発や継続可能なプロジェクトが限られていたそうだ。そこで、アクセラレート部分が必要であると判断し、CAPを新たに設置した。

CAPでは、シビックテック活動やオープンソース・オープンデータの関連コミュニティから出てきたプロトタイプやプロジェクトの中で、以下3点に該当するチームに着目しているという。

  • 継続開発、プロダクトをブラッシュアップしていく意志がある
  • アクセラレーションプログラムに一定期間継続して参加できる
  • 社会実装や持続可能な開発、経済市場でのサービス展開を軌道に載せていくことを目指す

さらにこの中から、以下に該当する開発を行っているチームを選出し、専門知識・資金・人材のバックアップを行うとしている。

  • 時事問題を取り上げているもの
  • 地域間連携の可能性があるもの、他の地域にも展開することで利益享受者が増えるもの
  • 多言語対応などで他国のシビックテックコミュニティと協働できたり、他国に対しても利益を享受してもらえるよう展開可能なもの

Oktaと「Okta for Good」

Oktaは、あらゆる人のアイデンティティとアクセスを安全に管理するベンダーニュートラルなサービスプロバイダー。Oktaが提供するプラットフォーム「Okta Identity Cloud」により、クラウド、オンプレミスを問わず、適切な人に適切なテクノロジーを適切なタイミングで安全に利用できるようにするという。7000以上のアプリケーションとの事前連携が完了している「Okta Integration Network」を活用して、あらゆる人や組織にシンプルかつ安全なアクセスを提供し、顧客の潜在能力を発揮できるように支援するとしている。現在1万以上の顧客がOktaを活用しており、職場や顧客のアイデンティティを保護している。

Okta for Goodは、Oktaが製品・時間・資本の1%をソーシャルインパクトのために使うとした2016年から続く取り組み。より良いエコシステムを生み出すためのテクノロジーを開発し、従業員がチェンジメーカーとなっていくための支援、重要な課題に答える非営利組織の支援などに取り組んでいるという。今回、Okta for Goodが非営利組織を資金的に支援する取り組み「Nonprofit Technology Initiative」において、Code for Japanの取り組みがそのひとつとして採択された。

関連記事
アイデンティティ管理のOktaに特権アクセス管理とアイデンティティガバナンスのレポート機能が追加
アイデンティティ管理のOktaが新しい無料開発者プランを公開
クラウドアイデンティティ管理のOktaが同業のスタートアップAuth0を約7000億円で買収
コード・フォー・ジャパンが飲食店情報をオープン化する「OPEN EATS JAPAN」プロジェクトを開始
「東京都 新型コロナウイルス感染症 支援情報ナビ」のソースコードが公開

カテゴリー:パブリック / ダイバーシティ
タグ:アクセラレータープログラム(用語)Okta(企業)オープンソース / Open Source(用語)Code for Japan(組織)オープンデータ(用語)シビックテック / Civic Tech(用語)日本(国・地域)

欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める

40名の議員からなる欧州議会の超党派グループは、人工知能(AI)に関する立法案を強化し、公共の場所における顔認証やその他の生体認証による監視を完全に禁止することを委員会に求めている。

また、このグループは、個人を特定できる特徴(性別、性的区別、人種・民族、健康状態、障害など)を自動認証することも禁止するよう議会に要求し、このようなAIの利用は大きな人権リスクをともない、差別を助長する恐れがあると警告している。

欧州委員会は、AIの「高リスク」アプリケーションを規制するフレームワークのプロポーザルを発表するとされているが、中央ヨーロッパ夏時間4月13日、Politico(ポリティコ)がその草案をリークした。先にレポートしたように、リークされた草案は、この問題に対する国民の関心の強さを認めているにもかかわらず、公共の場での顔認証やその他の生体認証を行う遠隔識別テクノロジーの使用を禁止する事項は含んでいない。

議員グループは欧州委員会に宛てた書簡で「一般にアクセスできる公共空間における生体認証の大量監視テクノロジーは、多数の無実の市民を不当にレポートし、過小評価グループ(ある地域において、全世界における人口比よりも小さな割合しかもたないグループ)を組織的に差別し、自由で多様性のある社会を委縮させると広く批判されています。だからこそ、禁止が必要なのです」と述べ、その内容も公開されている。

議員グループは、予測的ポリシングアプリケーションや、生体特徴を利用した無差別な監視・追跡など、個人を特定できる特徴を自動的に推定することによる差別のリスクについても警告している。

「これはプライバシーやデータ保護の権利を侵害し、言論の自由を抑圧し、(権力側の)腐敗を暴くことを困難にするなどの弊害をもたらし、すべての人の自律性、尊厳、自己表現を脅かします。特に、LGBTQI+コミュニティ、有色人種、その他の差別されているグループに深刻な損害を与える可能性があります」と議員グループと記し、EU市民の権利と、差別のリスク(そして、AIで強化された差別的なツールによるリスク)からコミュニティの権利を守るために、AIプロポーザルを修正して、こういった行為を違法化するよう欧州委員会に求めている。

「AIプロポーザルは性別、性的区別、人種・民族、障害、その他の個人を識別できる保護すべき特徴の自動識別を禁止するチャンスです」と議員たちは続ける。

リークされた欧州委員会プロポーザルの草案では、無差別大量監視という課題に取り組んでおり、こういった行為の禁止や、汎用の社会的信用スコアリングシステムを非合法化することも提案されている。

しかし、議員グループはさらに踏み込んだ議論を求め、リークされた草案の文言の弱点を警告し、プロポーザルの禁止案を「システムに暴露される人の多寡にかかわらず、ターゲットのない無差別な大量監視をすべて禁止する」ように変更することを提案している。

また、公共機関(または公共機関のために活動する商業団体)に対しては大量監視を禁止しないという提案にも警鐘を鳴らし、現行のEU法や、EU最高裁の解釈を逸脱する危険性を指摘している。

書簡には「私たちは、第4条第2項の案に強く抗議します。この案では、公的機関はもちろんのこと、公的機関に代わって活動する民間の行為者であっても、『公共の安全を守るため』に(大量監視の禁止の)対象とならないとされます」と書かれている。「公共の安全とは、まさに大量の監視を正当化するためのものであり、実務的に有用性があり、裁判所が個人データの無差別大量処理に関する法律(例、データ保持指令)を一貫して無効にしてきた場でもあります。禁止の対象とならない可能性は排除する必要があります」。

「第2項は、これまで司法裁判所が大量監視を禁止していると判断してきた他の二次的な法律を逸脱すると解釈される可能性もあります」と続ける。「提案されているAI規制は、データ保護の法体系に起因する規制と一体となって適用されるものであり、それに代わるものではないことを明確にする必要があります。リークされた草案には、そのような明確さがありません」。

議員グループは欧州委員会のコメントを求めているが、今後予定されているAI規制案の正式発表を前に、欧州委員会がコメントを出すことはなさそうだ。

今後、AIプロポーザルに大幅な修正が加えられるかどうかは不明だ。しかし、この議会グループは、基本的人権が共同立法の議論の重要な要素であること、そして、非倫理的なテクノロジーに正面から取り組まないルールであれば「信頼性の高い」AIを確実するためのフレームワークという議会の主張は信用できないと、いち早く警告している。

カテゴリー:パブリック / ダイバーシティ
タグ:EU生体認証顔認証人工知能・AI

画像クレジット:Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

EUデータ保護当局のトップ監督官が公共の場での顔認識の禁止を強く要請

欧州連合(EU)のデータ保護監督官は、次期AI関連法案の下で、公共の場での遠隔バイオメトリックサーベイランスを全面的に禁止するよう求めた。

欧州データ保護監察機関(EDPS)の介入は、欧州議会の議員らが中央ヨーロッパ時間4月21日に発表した、AI(人工知能)の適用先を規制するためのリスクベースアプローチに関する提案を受けたものだ。

欧州委員会の立法案には、法執行機関による公共の場での遠隔バイオメトリックサーベイランス技術(顔認識など)の使用を一部禁止することが含まれている。しかし、この文書には広範な例外規定が含まれており、デジタル権および人権団体は、EU市民の基本的権利の大幅な侵害につながると彼らが主張する抜け穴について、早くも警告を発している。そして先週、欧州議会の党派を超えたグループは、欧州委員会に対し、勇気を奮い起こしてこうした権利を侵害する技術を違法とするよう求めた。

欧州委員会のために勧告やガイダンスを発行する役割を担うEDPSは、これに同意する傾向にある。4月23日に発表されたプレスリリースでは、現在、EDPSの席を保持するWojciech Wiewiórowski(ヴォイチェフ・ヴィヴィオロフスキ)氏が再考を促している。

「EDPSは、顔認識を含む遠隔生体識別システムが公に利用可能なスペースで使用されることの一時停止を求める我々の以前の呼びかけが、欧州委員会によって対処されていないことを遺憾に思います」と同氏は書いている。

「EDPSは、商業や行政、あるいは法執行目的で使用されるかどうかにかかわらず、公共の場における人間の特徴(顔だけでなく歩行、指紋、DNA、声、キーストローク、その他の生体・行動信号)の自動認識について、より厳格なアプローチを提唱し続けていきます」。

「遠隔生体識別に関してはAIが前例のない発展をもたらす可能性がありますが、個人の私生活に深く非民主的に侵入するリスクが極めて高いことを考えると、より厳格なアプローチが必要です」とも。

ヴィヴィオロフスキ氏は、欧州委員会が提示した水平的アプローチと広範な範囲を歓迎すると述べ、この立法案に対してエールを送った。またAIの適用先を規制する際に、リスクベースアプローチをとることにも賛成している。

しかしEDPSは、EU議会が引いたレッドラインが、彼が期待していたよりもはるかにピンク色であることを明確にした。そして、欧州委員会が「信頼できる」「人間中心の」AIを確保するためのフレームワークを作成したという大々的な主張に応えていないという批判に、権威ある声を加えることになった。

今後、規制の最終的な形をめぐる議論では、欧州でのAIの一線をどこに引くべきかについて、多くの議論が交わされることになるだろう。最終的な文書の合意は、早くても来年になる見込みだ。

「EDPSは、個人および社会全体の保護を強化するためにEUの共同立法機関を支援するため、欧州委員会の提案を綿密かつ包括的に分析していきます。この観点から、EDPSは特に、データ保護やプライバシーに関する基本的権利にリスクをもたらす可能性のあるツールやシステムに的確な境界線を設定することに注力します」と、ヴィヴィオロフスキ氏は付け加えた。

関連記事:スウェーデンのデータ監視機関が警察によるClearview AI使用は違法と判断

カテゴリー:パブリック / ダイバーシティ
タグ:EU顔認証欧州データ保護監察機関(EDPS)プライバシー個人情報

画像クレジット:Stegerphoto / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Aya Nakazato)