【コラム】ダイバーシティに関するデータが透明性を欠いている理由

テクノロジー業界では、ダイバーシティが大きな話題となっている。FacebookやGoogleなどの企業が企業文化の向上を目指し、ダイバーシティ、エクイティ、インクルージョンへの取り組みを行っている。しかし分析によると、DEIを推進しているとされるこれらの企業では、こうした取り組みにもかかわらず、過去10年間でダイバーシティに大きな変化は見られなかった。

2010年代に入り、多くのハイテク企業が透明性を示すために年次のダイバーシティに関する報告書を公開したが、データを見てみると問題が浮かび上がってくる。報告書は、ダイバーシティの数値の増減を記載していることが多いが、企業が具体的な変化を起こすのに役立つデータを分析できていないことが多いのだ。

データを活用し、ダイバーシティに影響を与えるシステムを深く掘り下げる

これらの報告書に記載されているデータは、結果を示すものだ。企業がダイバーシティにおける測定分野(人口統計学的コミュニティが一般的だ)において成長したのか、衰退したのかがわかる。しかし、なぜそのような結果になったのか、システムのどの段階で失敗しているのかはわからない。

したがってこれらの報告書は、改善されたプロセスやシステムを測定するという、説明責任の強力な効果を逃しているのだ。

一例として、ある企業のマーケティングデータを見てみよう。

大企業がマーケティングファネルを最適化しようとするとき、マーケティングプロセスのあらゆるレベルのデータを見ることがある。例えば、外部のマーケティング活動から得られるインプレッション数を推定したり、広告からウェブサイトへのコンバージョン数を数値化したり、ウェブサイトの訪問者のうち何人が顧客に転換したかを計算したりする。これらの情報は、パフォーマンスを最適化し、売上を増加させるために定期的に使用される。そしてこれらの情報は、企業が成功するためには収益の創出が不可欠であることをリーダーたちは知っているため、優先的に使用される。

リーダーは採用システムのすべての段階でデータを記録し、分析すれば、採用段階で質の高い分析を行うことができる。データセットには、すべての交流ポイントにおける以下の(しかしこれに限定されない)人口統計学的情報が含まれるだろう。

  • 求人広告のインプレッション数
  • ソーシングチャネルを通じて特定された候補者
  • 面接に来た候補者
  • 面接官による評価結果
  • 内定および承諾された内定

それからリーダーは、プロセスの各段階で、就職可能な人材と少なくとも同等の人口構成のコミュニティを確保することができる。そして結果の改善のために(毎年ではなく)、このデータを利用して、優先的に定期的にシステムに変更を加える必要があるだろう。

採用活動はその一例に過ぎず、他にもさらに有益なダイバーシティデータを活用できるビジネス分野はある。

情報の実用化

リーダーは、説明責任を果たすための情報やより高い公平性と包括性を実現する情報を公開することで、データを実用的なものにするという選択ができる。

以下の各項目の共有を検討してみて欲しい。

  • 人口構成別の給与の透明性と給与の公平性
  • エンゲージメントとインクルージョンのデータ(人口構成別)
  • 人口構成別の昇進率
  • 人口構成別の定着率

このような提言をすると、ジェネラルカウンシルは不安になるかもしれない。しかし、人材、文化、エクイティの分野でイノベーションを起こしている企業は、こうした透明性と説明責任の領域に踏み込んでいる。

さらに、これらのデータを公開することで誠実さを全面的に打ち出している組織は、ダイバーシティを中心とした帰属意識の高い文化の構築に向けて大きく前進している。

データの透明性とデータの説明責任は別物である

私たちはよく、何かを測定できるなら、それを変えることができると信じている。しかし、測定だけでは変化はやって来ない。測定可能な変化に対してステークホルダーに責任を持たせながら、適切なデータ要素を測定することが極めて重要だ。

これが営業ではどうなるのかを考えてみて欲しい。

営業チームは、収益目標の達成に貢献したかどうかで個人の業績を評価する。結果を出さなければ仕事を失うリスクがある。なぜなら失敗すればビジネスに悪影響を及ぼすからだ。

DEIでも同じように、業績評価の目標の一部として、四半期ごと、あるいは毎年、具体的な結果を出すことに責任を持つリーダーが出てくるだろう。だが残念ながら、何が起こったかを報告するだけでは、リーダーたちが結果に有意義な影響をもたらすプロセスを変えるためにさらに行動するようにはならない。

低い数値を基準にしても変化は起こらない

ダイバーシティの報告書では、自社の過去の指標、業界全体、同規模の企業、または地域全体(米国など)に対し、毎年のデータを基準とすることがよくある。このような方法で進捗を測定すると、少しずつの進歩が実際の成果よりも大きく見える。リーダーはこのデータを見て、自分たちは業界標準を満たしているということはできるが、業界の進歩率がごくわずかであれば、それはただ結果を改善する責任がなくなるだけだ。何十年もの間、企業はダイバーシティを正しく理解していなかったのに、なぜその標準以下の実績を基準にするのだろうか?

簡潔にいうと、低い実績を基準にするのはお粗末な行為だ。

基準を設けるなら、少なくとも、ダイバーシティとそのコミュニティに関して上位4分の1に入る成績を収めている企業を基準とすることで、真の意味での改善を目指すことだ。しかしこれによってまたハードルが上がり、リーダーにはより戦略的になることが求められる。

さらに重要なことは、企業は利用可能なタレントプールを(米国の労働統計局のデータや、人口構成や専攻分野別の卒業率を利用しながら)基準として、地理的、業界的、職種的に人材の数が少ない箇所を特定することだ。

例えば、コンピュータサイエンスを専攻した女性の卒業率は、ほとんどの企業における新入社員レベルのソフトウェアエンジニアリング職に就いている女性の割合を大幅に上回っている。

しかし、米国の労働統計局のデータでさえ、誰が雇用対象なのかに関する前提条件に依存しており、真に雇用可能な人々の全体像を除外してしまうという欠陥がある。このことから、これらの基準と地域の人口データを組み合わせれば、効果を示す別のデータセットとして利用することもできる。

もしハイテク企業が、組織内で現在起こっていることについてのデータだけでなく、システミックな偏見が、組織にアクセスできない多様な人材に対してどのような影響を与えているかを示すデータを公開すれば、そのような報告書が行動変革の動機となり、自分たちの組織の成果を向上させたいと考えている他の業界の読者にとって価値のあるものになるかもしれない。

編集部注:本稿の執筆者Fran Benjamin(フラン・ベンジャミン)氏はGood Works Consultingのマネージング・パートナー。Monique Cadle(モニーク・キャドル)氏は、Good Works Consultingの創立パートナーであり、Delfi Diagnosticsの人材担当VP。

画像クレジット:A-Digit / Getty Images

原文へ

(文:Fran Benjamin、Monique Cadle、翻訳:Dragonfly)

Twitterが「業界初」機械学習アルゴリズムの「バイアス」を対象とする報奨金コンテスト実施

Twitterが「業界初」機械学習アルゴリズムの「バイアス」を対象とする報奨金コンテスト実施、ハッカーと企業をつなぐHackerOne協力

Andrew Kelly / Reuters

Twitterが、システムが自動的に画像をクロップする際の”偏り”を発見した人に謝礼を支払う報奨金コンテストをHackerOneを通じ開始しました。報奨金と言えば、セキュリティ上の問題や処理上の不具合を発見した人に対して賞金を支払うバグバウンティ・プログラムが一般的におこなわれていますが、今回Twitterが始めたのは、ユーザーが投稿した写真をサムネイル化するため、ちょうど良い具合にクロップ(切り抜き)するアルゴリズムにどこか偏りがないかを探そうというコンテスト形式のプログラムです。

Twiiterの自動画像クロップは2018年から使われ始めましたが、一部ユーザーからはこのアルゴリズムが肌の白い人を中心にするようなバイアスがかった処理を行う傾向があると批判の声が上がっていました。

「われわれは5月に画像切り出しアルゴリズムの提供をいったん止め、認識の偏りを識別するアプローチを共有し、人々がわれわれの作業を再現できるようにするためコードを公開しました」とTwitterはブログで述べ「この作業をさらに進めて、潜在的な問題を特定するため、コミュニティに協力を仰ぎ、奨励したいと考えています」としました。

Twitterいわく、この報奨金コンテストは「業界初」のアルゴリズムのバイアスを対象とした報奨金プログラムとのこと。賞金額は最高3500ドル(約38万円)と控えめではあるものの、Twitterで機械学習倫理および透明性・説明責任チームのディレクターを務めるRumman Chowdhury氏は「機械学習モデルの偏りを見つけるのは難しく、意図しない倫理的な問題が一般に発見されて初めて企業が気づくこともあります。われわれは、それを変えたいと考えています」としています。

そしてこのプログラムを行うのは「これらの問題を特定した人々が報われるべきだと信じているからであり、我々だけではこれらの課題を解決することはできないからだ」と述べています。このコンテストは、2021年7月30日から2021年8月6日までエントリーを受け付けるとのこと。受賞者は、8月8日に開催されるTwitter主催のDEF CON AI Villageのワークショップで発表されます。

(Source:TwitterEngadget日本版より転載)

関連記事
フェイスブックがバグ懸賞プログラムに「支払い遅延ボーナス」を追加
アリババは自社クラウド部門のウイグル人を顔認識する民族検知アルゴリズムにがく然
Twitterは投稿時の画像プレビューのトリミング方法をユーザーに委ねる方針へ
Kubernetesのバグ褒賞金制度は多数のセキュリティ研究者の参加を期待
ハッカーと企業をつなぐHackerOneが39億円調達、調達総額は117億円に
テック企業大手のサービスのアルゴリズムによる偏向を防ぐ法案を民主党が提出

カテゴリー:パブリック / ダイバーシティ
タグ:機械学習 / ML(用語)差別(用語)説明責任(用語)Twitter / ツイッター(企業)DEF CONハッカー / ハッキング(用語)HackerOne(企業・サービス)バイアス(用語)バグバウンティ / バグ報奨金制度(用語)倫理(用語)