イーロン・マスク氏、米証券取引委員会が「嫌がらせキャンペーン」を行ったと告発

Elon Musk(イーロン・マスク)氏がSEC(米証券取引委員会)から頻繁に注意を受けることに腹を立てていると思ったなら……それは正しい推測だ。マスク氏とTesla(テスラ)は、ニューヨーク州南部地区連邦裁判所に、SECが「ハラスメントキャンペーン」を行っていると非難する訴状を出した。SECは、Teslaの非公開化に関するマスク氏のツイートをめぐり、2018年のマスク氏との和解の一環としてTeslaの株主に4000万ドル(約46億円)を支払うという約束を破り、代わりにマスク氏とTeslaに対する「果てしない、根拠のない調査」にリソースを割いた、と主張している。

マスク氏とTeslaは、SECが「一方的に」召喚状を送っており、和解による同意協定をマスク氏が遵守しているかをSECだけでなく裁判所が監視するものだとしている。SECは、マスク氏が「政府に対する率直な批判者」であることを理由に報復しており、法律を公正に執行するよりも、憲法修正第1条の言論の自由を阻害することに関心がある、と主張した。訴状によると、不正行為の発見はない。

マスク氏とTeslaは、SECの不払い疑惑だけでなく、度重なる調査についても話し合う会議を含む「軌道修正」を裁判所に求めた。SECに株主への支払いを強制する一方で、マスク氏らが主張するハラスメントを裁判所が「終わらせる」ことを望んでいる。

我々はSECにコメントを求めた。SECは和解後の数年間、マスク氏のツイートについて何度も問い合わせを行い、2019年と2020年には、懸念される投稿をめぐってTeslaに書簡を送った。SECがそれらのツイートについてマスク氏に落ち度があるとは判断していないのは事実だが、それでもマスク氏が2018年の合意で義務付けられている事前承認なしに主要な財務トピック(生産水準や株式評価など)について議論していた、と主張している。Teslaはこれらのツイートは和解条件の対象外だと主張したが、状況は完全に明確ではない。

編集部注:本稿の初出はEngadget。執筆者のJon FingasはEngadgetの寄稿者。

原文へ

(文:Jon Fingas、翻訳:Nariko Mizoguchi

マイクロソフト、ハラスメント対策のためAltspaceVRのソーシャルハブをシャットダウン

Microsoft(マイクロソフト)は、AltspaceVRアプリ内でのハラスメント対策としていくつかの変更を加えると発表した。同社は米国時間2月16日付けで「Campfire」「News」「Entertainment Commons」のソーシャルスペースを削除した。これらのスペースは、AltspaceVRのユーザーが自由に集まり、互いに語り合うことができるハブだった。しかし、その自由度の高さゆえに、ハラスメントの問題が絶えなかった。

AltspaceVRのSafety Bubble(セーフティーバブル)機能は、デフォルトですべてのユーザーにとってオンになっている。これは、自分のアバターのパーソナルスペースに他の人が入ってこないようにバリアを作るものだ。また大事な点として、Microsoftによると、同アプリではこれから、新しい参加者が初めてイベントに参加したときに自動的にミュートになるとのこと。また、これらの変更を補完するために、モデレーションを強化し、イベントコンテンツの評価を改善することを同社は約束している。

今後数週間のうちに、Microsoftは、AltspaceVRにアクセスするために、Microsoftアカウントの使用を義務付けるという。その結果、保護者は同社のファミリーセーフティ機能を利用して、子どもがアプリ内で過ごせる時間を制限できるようになる。

MicrosoftのMR部門責任者であるAlex Kipman(アレックス・キップマン)氏は、次のように述べている。「AltspaceVRのようなプラットフォームが進化していく中で、既存の体験に目を向け、それが現在および将来のお客様のニーズに適切に応えているかどうかを評価することが重要です。これには、人々が共通の関心事を持つ人々とよりよくつながることを支援すると同時に、彼らがアクセスする空間が不適切な行動やハラスメントから安全であることを保証することも含まれます」。

今回の変更は、他のVRプラットフォームがそれぞれのハラスメント問題に取り組んでいる中で行われた。2月初め、Meta(メタ)はHorizon WorldsPersonal Boundary(パーソナルバウンダリー、境界線)という機能を導入した。これは、AltspaceVRのSafety Bubbleのように、自分のパーソナルスペースに人が入ってくるのを防ぐためのものだ。より広く解釈すれば、今回の変更は、Microsoftが何らかの形でメタバースの開発に取り組んでいることを示しているようにも見える。最近の報道では、同社のMR部門は、Metaのような競合他社にかなりの数の従業員を奪われたといわれている。

編集部注:本稿の初出はEngadget。著者Igor Bonifacic(イゴール・ボニファシッチ)氏は、Engadgetの寄稿ライター。

画像クレジット:Microsoft

[原文へ]

(文:Igor Bonifacic、翻訳:Aya Nakazato)

マイクロソフト、ハラスメント対策のためAltspaceVRのソーシャルハブをシャットダウン

Microsoft(マイクロソフト)は、AltspaceVRアプリ内でのハラスメント対策としていくつかの変更を加えると発表した。同社は米国時間2月16日付けで「Campfire」「News」「Entertainment Commons」のソーシャルスペースを削除した。これらのスペースは、AltspaceVRのユーザーが自由に集まり、互いに語り合うことができるハブだった。しかし、その自由度の高さゆえに、ハラスメントの問題が絶えなかった。

AltspaceVRのSafety Bubble(セーフティーバブル)機能は、デフォルトですべてのユーザーにとってオンになっている。これは、自分のアバターのパーソナルスペースに他の人が入ってこないようにバリアを作るものだ。また大事な点として、Microsoftによると、同アプリではこれから、新しい参加者が初めてイベントに参加したときに自動的にミュートになるとのこと。また、これらの変更を補完するために、モデレーションを強化し、イベントコンテンツの評価を改善することを同社は約束している。

今後数週間のうちに、Microsoftは、AltspaceVRにアクセスするために、Microsoftアカウントの使用を義務付けるという。その結果、保護者は同社のファミリーセーフティ機能を利用して、子どもがアプリ内で過ごせる時間を制限できるようになる。

MicrosoftのMR部門責任者であるAlex Kipman(アレックス・キップマン)氏は、次のように述べている。「AltspaceVRのようなプラットフォームが進化していく中で、既存の体験に目を向け、それが現在および将来のお客様のニーズに適切に応えているかどうかを評価することが重要です。これには、人々が共通の関心事を持つ人々とよりよくつながることを支援すると同時に、彼らがアクセスする空間が不適切な行動やハラスメントから安全であることを保証することも含まれます」。

今回の変更は、他のVRプラットフォームがそれぞれのハラスメント問題に取り組んでいる中で行われた。2月初め、Meta(メタ)はHorizon WorldsPersonal Boundary(パーソナルバウンダリー、境界線)という機能を導入した。これは、AltspaceVRのSafety Bubbleのように、自分のパーソナルスペースに人が入ってくるのを防ぐためのものだ。より広く解釈すれば、今回の変更は、Microsoftが何らかの形でメタバースの開発に取り組んでいることを示しているようにも見える。最近の報道では、同社のMR部門は、Metaのような競合他社にかなりの数の従業員を奪われたといわれている。

編集部注:本稿の初出はEngadget。著者Igor Bonifacic(イゴール・ボニファシッチ)氏は、Engadgetの寄稿ライター。

画像クレジット:Microsoft

[原文へ]

(文:Igor Bonifacic、翻訳:Aya Nakazato)

ツイッター、悪質行為防止ツール「セーフティモード」のベータテストを開始

Twitter(ツイッター)はSafety Mode(セーフティモード)という機能へのアクセスを拡大する。この機能は、Twitterのプラットフォーム上でまだかなり頻繁に問題となっている悪質行為や乱用からユーザーが自身を守るための一連のツールを提供するものだ。2021年9月に少数のテスターグループに導入されたセーフティモードは米国時間2月15日、米国、英国、カナダ、オーストラリア、アイルランド、ニュージーランドなど英語圏マーケットでより多くのユーザーを対象にベータ版が提供される。

Twitterは、今回のアクセス拡大により、セーフティモードの機能に関してより多くの知見を収集し、どのような改善がまだ必要なのかを学ぶことができるとしている。また、セーフティモードの展開と並行して、ユーザーがセーフティモードを有効にする必要がある場合には、有効にするよう促す予定だとTwitterは説明する。

公共のソーシャルプラットフォームとして、Twitterは会話の健全性の維持にずっと苦労している。長年にわたって、この問題に対処しようと多くの調整とアップデートを展開してきた。ここには、不快で侮辱的な返信を自動的に隠す機能が含まれ、またユーザーが自分のツイートに返信できる人を制限したり、ユーザーが検索から身を隠したりすることもできる。常軌を逸し始めている会話についてユーザーに警告する機能もある。

しかし、セーフティモードは、積極的に正しい方向に会話を誘導するためのものというよりは、防御的なツールだ。

ひどい言葉で元の投稿者に返信したり、侮辱や憎悪に満ちた発言や言及など、迷惑な返信を繰り返しているアカウントを7日間自動的にブロックする。セーフティモードが有効な間は、ブロックされたアカウントは、元の投稿者のTwitterアカウントをフォローしたり、そのツイートや返信を見たり、ダイレクトメッセージを送ることができなくなる。

画像クレジット:Twitter

Twitterのアルゴリズムは、返信に使用されている言葉を精査し、ツイートする人と返信者の関係を調べることで、一時的にブロックするアカウントを決定している。例えば、ツイート投稿者が返信者をフォローしていたり、返信者と頻繁にやりとりしていたりすると、そのアカウントはブロックされない。

嫌がらせをしてくるアカウントをいちいち手動でブロックするのは、ツイートが拡散し、投稿者がかなりの攻撃対象になった場合は不可能だ。そうではなく、セーフティモードは、攻撃を受けているユーザーが、すばやく防御体制を整えることができるようにするものだ。このような状況は「キャンセル」が話題になるセレブや有名人だけでなく、女性ジャーナリストや社会的に疎外されたコミュニティに属する人、さらには一般人にも時として起こることだ。

また、これはTwitterだけの問題ではない。Instagram(インスタグラム)は2021年、EURO 2020決勝戦で敗れたイングランドチームのサッカー選手数人が怒ったファンから悪質な嫌がらせを受けた後、似たような悪質行為防止の機能を導入した。

Twitterは、初期のテスターからのフィードバックで、攻撃が進行している可能性があるときを識別するのにさらなるサポートを人々が求めていることを把握した。その結果、有害かもしれない返信や迷惑な返信をシステムが検出した場合、この機能を有効にするようユーザーに促すことにした、と同社は2月15日説明した。こうした促しは、ユーザーのホームタイムラインに表示されるか、ユーザーがTwitterを利用していないときは通知としてデバイスに表示される。これにより、ユーザーはTwitterの設定からこの機能を探し出す手間が省ける。

画像クレジット:Twitter

これまでセーフティモードは、初期トライアルで750人のユーザーに試用された。今後は、対象となるマーケットの約50%のユーザー(無作為抽出)にベータ版を展開する予定だ。これらのユーザーがアプリ内でTwitterに直接フィードバックする方法を検討しているという。

同社は、セーフティモードを世界中のユーザーにいつ公開するのかは明らかにしていない。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Sarah Perez、翻訳:Nariko Mizoguchi

カリフォルニア州当局がテスラを人種差別とハラスメントの疑いで提訴

カリフォルニア州公正雇用住宅局(DFEH)は米国時間2月9日、人種差別とハラスメントの疑いでTesla(テスラ)を提訴した。州裁判所に提出された訴状では、カリフォルニア州フリーモントにあるTeslaの製造工場での問題が指摘されている。

同当局は「労働者からの数百件の苦情」を受け、フリーモント工場が「黒人労働者が人種差別的な中傷にさらされ、仕事の割り当て、懲罰、給与、昇進で差別され、敵対的な職場環境を作り出している分離された職場」である証拠を確認したと、同当局の長官Kevin Kish(ケビン・キッシュ)氏が声明で述べた、とウォールストリートジャーナルは報じている

Teslaがハラスメントや差別の訴訟に直面するのは、今回が初めてではない。2017年には元工場労働者のMarcus Vaughn(マーカス・ヴォーン)氏が、フリーモント工場でヴォーン氏がマネージャーや同僚から繰り返し「Nワード」を浴びせられたという苦情をTeslaが調査しなかったとして、同社を相手取って集団訴訟を起こした

数カ月前にはTeslaは、同じ工場での差別と人種的虐待を見て見ぬふりをしたと訴えた黒人の元契約社員に、1億3700万ドル(約125億円)の損害賠償を支払うよう命じられたばかりだ。この訴訟で労働者のOwen Diaz(オーウェン・ディアス)氏は、人種差別的な中傷を受け、Teslaの従業員が人種差別的な落書きやかぎ十字、不快な漫画などの絵を同氏に残し、監督者はそれを止めるのを怠ったと主張した。

2021年末には複数の女性が、まさに同じ工場でTeslaがセクハラ文化を醸成していると告発した。女性たちは仕事中に差別、冷やかし、好ましくない言い寄り、身体的接触を受けたという。

関連記事:さらに6人の女性がテスラを職場のセクハラで訴える

Teslaは訴訟が起こされる前に公開したブログ投稿で、差別やハラスメントに強く反対していることを強調し、同社が苦情に対応し、多様性や公平性、包括性に取り組むために取ったとする対策を誇示して自社を擁護した。

「Teslaはこれまで、人種差別やハラスメントを行う従業員を含め、不正行為を行った従業員を懲戒解雇してきました」と投稿には書かれている。

「Teslaはまた、カリフォルニア州に残る最後の自動車メーカーです」と、同社が以前から指摘している点に言及した。「しかし、製造業の雇用がカリフォルニアから失われつつある今、公正雇用住宅局は建設的に協力するのではなく、当社を訴えることにしました。これは不公平であり、特に数年前の出来事に焦点を当てた申し立てであるため、逆効果です」。

Teslaは2021年に、CEOのElon Musk(イーロン・マスク)氏が「今後のTeslaの扱い」次第ではカリフォルニアでの製造活動を一切停止する可能性があると脅した後、本社をカリフォルニアからテキサス州オースティンに移した。同社は2020年5月、新型コロナウイルス感染症の拡散を阻止するためにフリーモントにある同社の製造施設を閉鎖した件でアラメダ郡を提訴していたが、この訴訟は後に取り下げられた。

DFEHはWSJに対し、黒人労働者はTeslaの監督者やマネージャーが人種差別的な言葉を使うのをしばしば聞いたり、工場内で人種差別的な落書きを見たりした他、肉体的により過酷な職務を割り当てられ、より厳しい処分を受け、職業上の機会も除外されたと述べている。

Teslaは2020年12月に初の多様性報告書を発表し、米国内の労働力の10%が黒人・アフリカ系米国人であることを明らかにした。取締役レベルでは黒人の割合は4%にすぎない。ヒスパニック・ラテン系の従業員は全従業員の22%で、ディレクタークラス以上では4%にとどまる。アジア系従業員は全従業員の21%で、このグループはディレクターレベルの従業員の4分の1を占めている。

WSJによると、DFEHは2月10日朝に訴状をオンラインで閲覧できるようにするという。

画像クレジット:David Paul Morris / Getty Images

原文へ

(文:Rebecca Bellan、翻訳:Nariko Mizoguchi

Meta、ハラスメント対策としてVR空間Horizon Worldsなどに「境界線」機能を追加

Metaは、バーチャルリアリティ空間「Horizon Worlds」と「Horizon Venues」でのハラスメント対策として「パーソナルバウンダリー(境界線)」という機能を展開する。各アバターには半径2フィート(約61cm)のバブルがあり、互いに4フィート(約122cm)前後まで近づくことができなくなる。

画像クレジット:Meta

もし誰かがあなたのパーソナルスペースに入ろうとしたら、近づきすぎた時点でその人の前進は止まる。しかし、MetaはThe Vergeに対して、アバターが互いの間を行き来することは可能であり、ユーザーが隅や出入り口に閉じ込められることはないだろうと語っっている。

このパーソナルバウンダリー機能は、ユーザーが無効にすることはできないもので、Metaがハラスメント対策として以前追加した、他の人のパーソナルペースに入るとアバターの手が消えるという機能をベースにしている。Metaが12月にHorizon Worldsを米国とカナダの18歳以上の全員に公開する直前、ベータテスターが自分のアバターが見知らぬ人に体を触られたと述べていた

いずれは、パーソナルバウンダリーの半径を変更できるようになるかもしれない。ユーザーは他のアバターとハイタッチや拳を突き合わせることはできますが、そのためには腕を伸ばす必要がある。

編集部注:本稿の初出はEngadget。執筆者のKris HoltはEngadgetの寄稿ライター。

画像クレジット:Meta

原文へ

(文:Kris Holt、翻訳:Katsuyuki Yasui)

Twitchの最新モデレーションツールはチャンネルBANを回避しようとするアカウントを検知

Twitchは米国時間11月30日、ストリーマーがチャンネルレベルのBANを逃れようとするアカウントと戦うための新しい方法を導入した。この自動化されたツールは「Suspicious User Detection(不審なユーザーの検出)」と呼ばれ、BANを逃れようとするユーザーを検出することができるものだ。これにより、Twitchのチャンネルをモデレートする人たちは、破壊的な行為が始まる前に対処する手段を得ることができる。Twitchは8月に、この新しいBAN回避検出ツールが登場することを発表していた。

同社によると、このツールは、BANされた後に新しいアカウントで現れたユーザーを処理するための、より強固なモデレーションオプションを求めるコミュニティからの声に直接応えて開発されたものだ。これにより、あるアカウントが「BAN回避の可能性がある」または「BAN回避の可能性が高い」と判定された場合に、チャンネルのモデレーターはそのアカウントに対して手動でアクションを起こすことができる。

画像クレジット:Twitch

違反の可能性が高いとフラグが立てられたアカウントから送信されたメッセージは、モデレーターによるレビューを待って、自動的にチャットからスクリーニングされることとなる。より積極的にモデレーションを行いたいチャンネルでは、BAN回避の可能性があるとフラグが立てられたアカウントに対しても、同様の設定を行うことができる。また、モデレーターは、ユーザーを手動で「疑わしいアカウント」リストに追加して、より詳細に監視することもできる。

Twitchは、一般的な自動化されたモデレーションツールと同様に、誤検知の可能性があることも指摘しているが、機械学習システムによるプロアクティブな検知と人間による介入のバランスを取りたいと考えている。同社はブログで「自分のコミュニティに関して、あなたが専門家であり、誰が参加できるかを最終的に判断すべきです」と述べ、システムは人間のモデレーターからのフィードバックを学習することで、時間をかけて改善されていくとも語っている。

Twitchは、この新しいBAN回避検知システムを、モデレーターがチャット中の有害な可能性のあるメッセージを確認する方法を提供する「AutoMod」機能や、2021年10月に追加した、ユーザーがチャットをする前に自分のアカウントを確認することを義務づけるオプション「電話認証済みチェット」機能と並ぶモジュール式のソリューションだと考えている。Twitchのユーザーは、1つの電話番号で5つのアカウントに登録することができるのだが、今ではチャンネルのBANは、その電話番号にリンクされたすべてのアカウントに影響するため、プラットフォームのポリシーを回避しようとする人にとって最も簡単な回避策の1つを封じている。

Twitchのストリーマーたちは、クリエーター、特にオンラインハラスメントの被害に遭いやすいクリエーターを保護するための対策を講じるよう、長い間同社に働きかけてきた。2021年に入ってからは「#ADayOffTwitch」や「#TwitchDoBetter」などのキャンペーンによって、Twitch上で広範なハラスメント行為に直面している社会的に疎外されてきたクリエイターたちの存在が明らかになり、同社はこれに対応するよう求められた。

「ボット化、ヘイトレイド、その他のハラスメントなど、社会から疎外されてきたクリエイターを標的にした行為について多くの話題が寄せられています。みなさんは私たちに、もっとしっかり対策を講じるよう求めています。そして、私たちもこのような問題に対処するためには、もっと多くのことを行う必要があると理解しています」と同社は当時ツイートしていた。

Twitchでは、長年にわたってディスカバリーツールが不足していたため、社会的弱者のクリエイターがプラットフォームで成功することは困難だったが、ターゲットを絞ったハラスメントキャンペーンによって、問題はさらに悪化した。10月に漏洩してしまったTwitchの支払いデータの数々は、トップクリエイターがほぼ全員白人男性であるという、ストリーミング成功の上層部における多様性の厳しい状況を示していた。

関連記事:クリエイターの報酬データが大量流出、Twitchのストリーマーの反応は

5月、Twitchは350以上のタグを追加し、ユーザーが性別、セクシュアリティ、人種、能力などの識別子でストリーマーを見つけられるようにした。このアップデートは、ストリーマーの発見を促進し、プラットフォーム上でより多様なクリエイターを発掘するための遅きに失した措置だったが、適切なモデレーションツールがないため、多くのユーザーは、このシステムが彼らのコミュニティを標的とした嫌がらせを助長しているのではないかと懸念していた。9月には、Twitchは、大量のハラスメント行為を行う何千ものボットに関連する2人のユーザーを提訴するという異例の措置をとっていた。

画像クレジット:MARTIN BUREAU / Contributor / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Akihito Mizukoshi)

Blue Originの安全性に関わる重大な懸念とセクハラ文化を現役ならびに元社員が提起

Jeff Bezos(ジェフ・ベゾス)氏は、労働問題から逃れることができない。悩める億万長者のベゾス氏は、かつて率いていたAmazon(アマゾン)では、過剰労働環境をめぐり度重なる根強い批判にさらされていたが、今度は自身が経営する宇宙開発企業Blue Origin(ブルーオリジン)での敵対的な労働環境への申し立てに直面している。

関連記事:アマゾンの倉庫労働者が組合結成へ向け郵便投票を開始

明らかになった21人の現役ならびに元社員が共同で綴ったエッセイには、Blue Originの職場環境でセクハラが横行していることや、専門家としての意見の相違が封じられ、環境問題が放置され、人間の安全よりも素早い実行が優先されるものであることが、鮮明に描かれている。

このエッセイで唯一名前を明かしている著者は、Alexandra Abrams(アレクサンドラ・エイブラムス)氏で、彼女のLinkedIn(リンクトイン)のプロフィールによると、Blue Originでは2年6カ月の間働いていたという。エイブラムス氏は、同社在職中に従業員コミュニケーションの責任者となった。彼女は米国時間9月30日のCBSモーニングのインタビューで「私がジェフに言いたいのは、本当に願っていたのは、彼が私たちが思っていたような人物であればよかった、そしてBlue Originが私たちが思っていたような会社になればよかったということなのです」と語った。

Blue Originの元従業員コミュニケーション責任者だったアレクサンドラ・エイブラムス氏が、@LaurieSegallに会社に対する苦言を呈している。

「安全の文化と恐怖の文化を同時に生み出すことはできません。それらは相容れないものです」

Blue Originの広報担当者は、TechCrunchへの声明の中で、エイブラムス氏は「連邦輸出管理規制に関わる問題で繰り返し警告を受け、2年前にそれが理由で解雇された」と述べている。

さらに広報担当者は「Blue Originは、いかなる種類の差別やハラスメントも容認しない」と付け加えている。「当社は、24時間365日の匿名ホットラインを含む多くのチャネルを従業員に提供しており、新たな不正行為の申し立てがあった場合には、速やかに調査を行う」。

連邦輸出管理規制により、特定の商品や技術の米国外への輸出が制限されているが、Blue Originは本稿執筆時点で、エイブラムス氏の退社に関する詳細を明らかにしていない。

現在Blue Originは、NASAがSpaceX(スペースエックス)に月着陸船を単独で発注したことをめぐって、NASAとの間の訴訟に巻き込まれているため、今回のエッセイはBlue Originにとって最悪のタイミングで公表されたものといえるだろう。自身も入札を行っていたBlue Originは、入札以降、ソーシャルメディア上で契約について異議を唱え、米国会計検査院(GAO)に対して強い抗議を行ってきたが、会計検査院はBlue Originの訴えを退けている

関連記事:連邦政府はSpaceXがNASAの月着陸船建造を受注したことに対するBlue OriginとDyneticsの異議を退ける

このエッセイは、この夏にVirgin Galactic(ヴァージン・ギャラクティック)のRichard Branson(リチャード・ブランソン)氏とベゾス氏自身が軌道に乗ったことで注目を集めた、いわゆる「億万長者宇宙競争」のために、安全性が後回しにされたと主張している。さらにこのエッセイでは、会社の幹部たちがBO(Blue Origin)のNew Shepard(ニュー・シェパード)宇宙船を年間40回以上打ち上げるという目標を表明していたが、それは危険極まりないペースであり、利用可能なスタッフやリソースがまったく足りていなかったと述べている。

「このエッセイに参加してくれたあるエンジニアは『Blue Originがこれまで何も起こさなかったことは幸運だった』という意見です」とエッセイの中には書かれている。「このエッセイの著者の多くが、Blue Originの宇宙船には乗らないと言っています」。

また、このエッセイに記載されている一連の告発の中には、多くの上級管理職の間に性差別の文化があったことも主張されている。その中には、Bob Smith(ボブ・スミス)CEOの「忠実な側近」と呼ばれる人物も含まれていて、この人物はセクシャル・ハラスメントで何度も人事部に報告されたことが書かれている。

このエッセイによると、女性社員の交際相手を詮索したり、女性社員を「sweetheart(スイートハート)」とか「baby girl(ベイビーガール)」などの表現で呼ぶといった、また別の上級管理職の不適切な行動について、会社の女性たちが新入社員の女性に警告していたという。

「彼はベゾス氏との親密な個人的関係によって守られているように見えましたが、女性の部下の体を実際に触ったことで、ようやく追放されたのです」とエッセイには書かれている。

このエッセイがBlue Originの業績に影響を与えないとは考えられない。8月にベゾス氏ら3人が、11分間のフライトで宇宙に行ったNew Shepardの打ち上げを成功させた後、同社はより多くの有料乗客を迎えることを計画している。

関連記事:Blue Origin初の有人飛行成功、ベゾス氏ら4人が宇宙を体験

エッセイの書き手の大半が匿名を選んだのは、2019年に従業員が署名を求められた「非誹謗中傷条項」を含む息苦しい新しい契約書によって、少なくとも部分的には説明できるとこのエッセイには書かれている。

この手紙は米連邦航空局(FAA)の目に留まったようで、同局はTechCrunchに対して「FAAはすべての安全性に関する申し立てを真剣に受け止めており、同局は情報を検討しています」と述べている。

TechCrunchは、手紙に書かれた他の疑惑についてBlue Originに問い合わせを行っており、回答があれば記事を更新する。

画像クレジット:MANDEL NGAN / AFP / Getty Images

原文へ

(文:Aria Alamalhodaei、翻訳:sako)

Twitchが電話認証付きチャット機能の追加とメール認証設定を拡大、ハラスメント抑制のため

Twitch(トゥイッチ)は米国時間9月29日、プラットフォーム上でのハラスメント行為を抑制するため、チャンネルレベルのセキュリティ機能を新たに追加することを発表した。これにより、クリエイターやモデレーターは、メッセージを送信する前に、チャッターに電話や電子メールの認証を求める「認証済みチャット」機能を有効にすることができる。これらの設定は、すべてのアカウント、初めてのチャッター、一定のアカウント年歴以下のチャッター、もしくは特定の期間ストリーマーをフォローしていないチャッターに対して認証済みチャットを適応するように切り替えることができる。これらの設定は、チャンネル自らが選択するまで、デフォルトではオフになっている。また、VIP、登録者、モデレーターが検証を回避できるような設定もある。二段階認証とは異なり、ユーザーは一度だけ電話や電子メールを認証するだけで、すべてのチャンネルで認証されたとみなされる。

Twitchのユーザーは、同じ電話番号に最大5つのアカウントを結びつけることができるが、1つでもチャンネルからBANされると、その電話番号または電子メールアドレスで認証されたすべてのアカウントもBANされることとなる。これは、1つの電話番号や電子メールで複数のヘイト用アカウントを作成することを防ぎ、ストリーマーが5回ではなく1回だけ誰かをブロックすればよいようにするためのものだ。サイト全体では、電話認証されたアカウントが停止されると、リンクされたアカウントも停止される。Google Voiceアカウントのように別の電話番号を使うこともできるが、悪質なユーザーにとっては追加の手間となるだろう。

Twitchコミュニティでは、特に黒人やLGTBQ+などの代表的なクリエイターが、Twitchのレイドシステムを通じた標的型の嫌がらせに直面しており、緊張感が高まっている。あるストリーマーがオフラインになると、他のストリーマーを驚かせるために、彼らのファンを「レイド」と称して別のチャンネルへ誘導することがある。この機能は、既存のストリーマーが新進気鋭のストリーマーをサポートするためのものだ。しかし、過去数カ月の間に、悪質なユーザーがレイド機能を利用してボットを送り込み、ストリーミング中のクリエイターを標的とした嫌がらせを吹き込むという事件が発生した。しかし、TwitchはTechCrunchに対し、このような大規模な標的型攻撃のほとんどは、実際にはレイドツールによって促進されたものではなく、プラットフォームはこの表現を口語的な誤称とみなしていると述べた。

Twitchは5月、性別、性的指向、人種、能力に関する350のチャンネルタグを新たに導入した。これは、より自分たちを代表するクリエイターを発掘したいというユーザーの要望によるものだ。しかし、タグを武器にして社会的に疎外されているストリーマーをターゲットにする人もおり、Twitchはこのハラスメントを抑制するための包括的なツールを十分に備えていなかった。一部のクリエイターは、一連のチャットコマンドを起動する「パニックボタン」など、独自の安全ツールを開発していたほどだ。これらのストリーマーは「#TwitchDoBetter」というハッシュタグでTwitchに対策を求めた。そして今月初め、LuciaEverblackShineyPenRekItRaven(このタグを始めた人)などのストリーマーが、1日かけてTwitchをボイコットする「#ADayOffTwitch」を開始した。

この#ADayOffTwitchアクションにはいくつかの要求が含まれていた。

参加したストリーマーたちは、入ってくるレイドをコントロールする機能を求め、Twitchに対して、年齢制限、Eメールの登録制限、包括的なハラスメント防止ツールの導入時期の共有などを求めた。その直後、Twitchは、ヘイトレイドに使用された何千ものボットアカウントに関連する2人のユーザーに対して法的措置を取った

今日の発表は、これらの要求の1つに応えるものだが、TechCrunchへのメールでTwitchは、ヘイトレイドがこれほど頻繁に起こるようになるずっと前から、電話を用いて検証されたチャットを開発、テスト、改良してきたと述べている。しかし、UserVoiceやAmbassadors Discordからのコミュニティのフィードバックも、今回の追加のきっかけとなった。Twitchはブログ記事の中で、他のチャンネルレベルのBAN回避ツールを近日中に展開すると語っている。また、ストリーマーには、友人やチームメイト、フォローしているチャンネルからのレイドのみを受け入れるオプションがすでに備わっているとも触れている。安全機能の導入時期は公表されていない。これは、Twitchが何を計画しているのか、どうすればそれを回避できるのかという情報を、悪質なユーザーに与えてしまう可能性があるためだ。

クリエイターは、「ダッシュボード」→「設定」→「モデレーション」と進み、これらの新しい設定にアクセスできる。モデレーターは、チャットの「モデレーション設定の管理」からアクセスできる。

画像クレジット:Kiyoshi Ota/ Getty Images

原文へ

(文:Amanda Silberling、翻訳:Akihito Mizukoshi)

Twitchがボットを使ったハラスメントでユーザー2人を提訴

Twitch(ツイッチ)は米国時間9月6日の週に、同社のプラットフォーム上で自動化されたヘイト・ハラスメントキャンペーンを展開していたとして、2人の人物を提訴した。

往々にして黒人とLGBTQのストリーマーをターゲットにしているハラスメントはTwitchでは「ヘイトレイド」という独特の現象として現れる。Twitchではクリエイターは自身のストリームでオーディエンスを楽しませた後に他のフレンドリーなアカウントへとオーディエンスをよく誘導する。これは「レイド」として知られている慣行だ。ヘイトレイドはこの図式が逆向きになっているもので、嫌がらせの流入を阻止するために自由に使える十分なツールを持っているストリーマーを悩ませるためにボットを送り込む。

ヘイトレイドはTwitchの新しいタグ付けシステムを活用している。このシステムは簡単にコミュニティを構築したり、共感を呼ぶコンテンツを発見できるよう、多くのトランスジェンダーが要望してきたものだ。5月にTwitchは視聴者がストリームを「ジェンダー、性的指向、人種、国籍、能力、メタルヘルスなど」で区分けできるよう、350以上の新しいタグを加えた。嫌がらせを拡散しているアカウントは現在、人種的・性的差別、トランスジェンダーや同性愛に対する差別をストリーマーに送るためにそれらのタグを使っていて、明らかにクリエイターを支援するためのツールの不幸な誤った使用例だ。

訴状でTwitchはヘイトレイドを行う人のことを、プラットフォームの利用規約を回避する新しい方法を行き当たりばったりで試す「かなり強く動機付けられている」悪意ある個人、と表現した。同社は訴状でユーザー2人の名前「CruzzControl」と「CreatineOverdose」を挙げたが、本名を入手することはできなかった。このユーザー2人はオランダとオーストリアを拠点としていて、8月から行為は始まった。CruzzControlだけでヘイトレイドに関わっている3000ものボットアカウントにつながっていた、とTwitchは主張する。

Twitchが最近のハラスメントキャンペーンを影で操る個人の身元を特定することはできないかもしれない一方で、訴訟はTwitchで嫌がらせを送りつけている他のアカウントに対する抑止力となるかもしれない。

「我々はここ数週間で何千というアカウントを特定して禁止措置にしてきましたが、こうした悪意ある人たちは引き続き、当社の改善を回避するためのクリエイティブな方法に懸命に取り組んでいて、やめる気配はみられません」と訴状にはある。「この提訴がこうした攻撃と、他のユーザーを食い物にするツールの背後にいる個人の身元を明るみ出し、当社のコミュニティのメンバーに対する卑劣な攻撃に終止符を打つことにつながることを望みます」。

「この提訴は標的型攻撃を解決するために取られる唯一のアクションでは決してなく、また今回が最後になるわけでもありません」とTwitchの広報担当はTechCrunchに語った。「先回りした感知システムをアップデートしつつ出てくる新しい動きを解決し、また開発に何カ月も費やしてきた先回りの新しいチャンネルレベルの安全ツールを仕上げるために、当社のチームは休むことなく懸命に取り組んできました」。

Twitchの提訴に先立ち、一部のTwitchクリエイターはヘイトレイドの標的となったユーザーのためにソリューションを示さなかったと同社に抗議するために#ADayOffTwitchを組織した。この抗議に参加している人々は、ヘイトレイドからのストリーマー保護のために、クリエイターが流入してくるレイドを拒否したり、新しく作られたアカウントでのチャット参加者をスクリーンから追いしたりできるようにするなど、Twitchに決定的な措置を取ることを要求していた。抗議参加者はまた、1つの電子メールアドレスにリンクできるアカウントの数に制限を設けていないTwitchの規則にも注目した。これは抜け穴となっていて、簡単にボットアカウント軍団をつくって展開できる。

関連記事:動画配信サービスTwitchがプラットフォーム外でのユーザーの悪質な行為にルール適用へ

画像クレジット:Gabby Jones/Bloomberg via Getty Images / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Nariko Mizoguchi

ツイッターが悪口や嫌がらせを自動的に除外する「セーフティーモード」のテストを開始

Twitter(ツイッター)が行う最新のテストは、このプラットフォーム上で嫌がらせに悩まされている人々にとって、待望の救済策となるかもしれない。

同社はこの新たなテストで「Safety Mode(セーフティーモード)」と呼ばれる機能を導入する。これはアカウントと、Twitterで悪名高い押し寄せる罵詈雑言リプライとの間に、一時的な防衛線を張るものだ。このモードは設定メニューから有効にすることができ、アルゴリズムによる選別を行って悪意の可能性を排除する。これは7日間継続する。

Twitterのプロダクトリーダーを務めるJarrod Doherty(ジャロッド・ドハーティ)氏は「私たちの目標は、有害な発言の蔓延と可視性を減らすことで、ツイートを受け取る側の個人を、これまで以上に守ることです」と、述べている。

画像クレジット:Twitter

とはいえ、セーフティーモードはまだ広範に展開されるわけではない。この新機能はまず、Twitterが「小規模なフィードバックグループ」と呼ぶ、約1000人ほどの英語ユーザーに提供される。

Twitterのアルゴリズムは、ツイートの内容(憎悪に満ちた言葉、同じことの繰り返し、一方的な言及など)と、アカウント同士の関係性を評価して、除外する発言を選定する。そのユーザーがフォローしているアカウントや、定期的にツイートをやり取りしているアカウントは、セーフティーモードのブロック機能の対象にはならない。

テストグループのユーザーは「プライバシーとセーフティー」の設定から、セーフティーモードをオンにすることができる。一度有効にすると、アカウントは7日間、このモードに留まることになる。7日の期間が終了した後は、再び有効にすることができる。

この新機能を開発するにあたり、Twitterはメンタルヘルス、オンラインの安全性、人権などの専門家に相談したという。Twitterが相談したパートナーは、この機能から恩恵を受ける可能性が高いアカウントを推薦することで、最初のテストグループに貢献することができた。Twitterはこの新機能のテストにおいて、女性ジャーナリストや社会から疎外されたコミュニティに焦点を当てたいと考えている。Twitterは、テストグループの基準を満たすアカウント、すなわちTwitterで最悪の衝動の受け皿となることが多いアカウントに連絡を取り始めるという。

Twitterは数カ月前、新たな悪口防止機能の開発に取り組んでいることを発表した。この機能には、ユーザーがタグ付けされたスレッドから自分を「unmention(アンメンション)」できるオプションや、連続的な嫌がらせを受けているユーザーが自分をメンションできないようにする方法などが含まれる。同社は当時、悪口が拡散している状況に対処するためのセーフティーモードのような機能の開発も示唆していた。

「Twitterで嫌がらせを受ける」というのは、残念ながらそれほど珍しいことではない。憎悪や罵倒がひどくなると、人々はTwitterから離れてしまい、長期間放置したり、完全にやめてしまう傾向がある。Twitterにとっても、それは好ましいことではない。嫌がらせに対する真の解決策を提供するには至っていないものの、同社は明らかに問題を認識しており、いくつかの実行可能な解決策に取り組んでいる。

関連記事
ツイッターが@mentionをユーザーが管理できる新しい攻撃防止ツールを検討
ツイッターのポリシー違反対応措置が2019年下半期に増加、新設されたTwitter Transparency Centerがレポート
画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Taylor Hatmaker、翻訳:Hirokazu Kusakabe)

Instagramがハラスメントに対処する新しいツール「Limits」のテストをしていることを認める

Instagram責任者のAdam Mosseri(アダム・モセリ)氏は、同社が「Limits」という新機能をテスト中であることを認めた。これはユーザーが大量のハラスメントの標的となってしまったときに一時的に自分のアカウントをロックダウンできる機能だ。この新機能は米国時間7月22日に公開されたモセリ氏のビデオの中で発表された。このビデオの中で同氏は、ユーロ2020決勝戦の後にInstagramプラットフォーム上で発生した人種差別を非難し、同社はこの問題を解決するために社内ツールとユーザー用ツールの両方の改善に取り組んでいると述べた。

2021年7月11日のユーロ2020決勝でイングランドチームが負けた後、怒ったファンが人種差別的なコメントで同チームのBukayo Saka(ブカヨ・サカ)、Marcus Rashford(マーカス・ラッシュフォード)、Jadon Sancho(ジェイドン・サンチョ)の3選手にひどいハラスメントをした問題で、Instagramは人種差別の侮辱についてコメントし、非難していた。そのときにモセリ氏は、同社はテクノロジーを使ってユーザーからの報告に優先順位をつける試みをしており、その際に報告の一部が人間のモデレーターに振り分けられず、誤って悪意のないコメントとして扱われてしまったと説明した。判定が難しい理由の1つとして考えられるのは、ハラスメントをしているコメントの多くに絵文字が使われており、Instagramのシステムは絵文字の意味が文脈によって変わることを理解できなかったためと見られる。

米国時間7月22日にモセリ氏はInstagramの誤りをあらためて認め、この問題を修正したと述べた。同氏によれば、Instagramは3選手に対するコメントをどんどん削除していたが、ユーザーからの報告の動きは予測できなかったという。

さらに同氏は、Instagramには1日に何百万件もの報告が寄せられ、そのうちの1%が誤って放置されれば問題のある数万件の投稿がプラットフォーム上に残ってしまうと語った。

モセリ氏は、ユーザーが自分のアカウントに対するハラスメントに直接対処し侮辱を避けるのに役立つツールに言及した。これには「ブロック」や「制限」などのツールがある。「制限」は誰かのコメントを他の人たちの目に触れる前に承認したり、誰かからのメッセージを既読をつけずに読んだりするツールだ。最近追加された「Hidden Words(隠される言葉)」というツールは、コメントとダイレクトメッセージの両方に対して特定のキーワードをブロックすることができる。

関連記事:Instagramは中傷DMをキーワードと絵文字でフィルターし犯人の新設アカウントもブロックできるツールを公開

同氏は「Limits」は簡単な設定で見たくないコメントやリアクションを制限できる機能であるため、この機能があればサッカー選手たちの助けになっただろうと述べた。

ソーシャルメディアコンサルタントのMatt Navarra(マット・ナバラ)氏が7月上旬にこの機能を見つけ、動作を示すスクリーンショットを共有していたが、Instagramはこれまで正式に発表していなかった。

共有された画像を見ると、この機能を使えるようになっているユーザーにはInstagramのプライバシー設定に「Limits」という新しいセクションが表示され、特定のフォロワーのグループに対してコメントとメッセージを一時的に制限できると説明されている。

ユーザーはグループに対して制限をオン / オフできる。最近フォローされ自分はフォローしていないアカウントというグループがあり、スパムのアカウントやハラスメントをするためだけに最近作られたアカウントがこれに含まれる可能性がある。大量の侮辱が寄せられたとき、それが長年のフォロワーからであるケースは少なく、ハラスメントのために作られて新たにフォローされたアカウントからであることが多い。

ユーザーは制限をかける期間を日単位や週単位で設定することもできる。

Instagramの広報はこの画像のように動作することを認め「強烈なハラスメントや侮辱の事例」への対処に役立つツールになるだろうと述べた。

モセリ氏はLimitsがさまざまな場面で有効であることを次のように詳しく説明した。「高校で仲間はずれになったり、転校したばかりの人もいるでしょう。プロのサッカー選手で、大量のハラスメントを受けている人もいるかもしれません。さまざまなケースで人は一時的に苦痛にさらされることがあり、我々はそうした場合に自分を守るツールを提供したいのです」。

Instagramはこの機能がいつ一般に公開されるかを明らかにしなかったが、当面は一部の国のモバイルアプリでテストをすると述べた。

カテゴリー:ネットサービス
タグ:Instagramハラスメント誹謗中傷差別

画像クレジット:Bryce Durbin

原文へ

(文:Sarah Perez、翻訳:Kaori Koyama)

職場でのハラスメントと孤立感、不屈の精神について4人の女性エンジニアに聞く

女性エンジニアはしばしば、職場やキャリアに関して男性エンジニアは経験しない障害に直面する。なぜなら、エンジニア人口の中で女性は今でも少数派であるためだ。数え方にもよるが、全エンジニア職のうち、女性が占める割合はわずか13~25%である。この偏りが力関係の不均衡につながり、女性にとって有害な職場を作り出している。

この点で非常に有名かつ悪質な事例は、Susan Fowler(スーザン・ファウラー)氏がUber(ウーバー)で経験したものだ。ファウラー氏は2017年2月に投稿したブログ記事の中で、入社初日に上司が社内チャットでセックスに誘ってきたことを暴露した。その後、ファウラー氏はUberでの体験を詳述した回想録「Whistleblower」(邦題仮訳:「内部告発者」)を出版した。

ファウラー氏の辛い経験は、女性エンジニアが職場で対処しなければならないハラスメントにスポットライトを当てることになった。男性優位になりやすい職種であるエンジニアとして女性が直面するハラスメントは、ファウラー氏の身に起きたような露骨なものから、日常的に起きるマイクロアグレッション(明らかな差別に見えなくとも、先入観や偏見を基に相手を傷つける行為)までさまざまだ。

本稿の執筆に際して、以下の4人の女性が自分の直面した試練について語ってくれた。

  • Tammy Butow(タミー・バットウ)氏、主任ソフトウェアリライアビリティエンジニア(SRE)としてGremlin(グレムリン)に勤務
  • Rona Chong(ロナ・チョン)氏、ソフトウェアエンジニアとしてGrove Collaborative(グローブ・コラボラティブ)に勤務
  • Ana Medina(アナ・メディナ)氏、シニアカオスエンジニアとしてグレムリンに勤務
  • Yury Roa(ユーリー・ロア)氏、SREテクニカルプログラムマネージャーとしてコロンビアのボゴタにあるADL Digital Labs(ADLデジタル・ラブズ)に勤務

ファウラー氏もSREとしてUberでメディナ氏(後にUberに1000万ドル[約11億円]の支払いを求めた差別訴訟の原告団に参加した)と同じチームで働いていたことは注目に値する。女性エンジニアの世界がどんなに狭いかを例証していると思う。上記の4人が受けたハラスメントの程度はそれぞれ異なるが、彼女たちは皆、日常的に試練に直面しており、中には精神的にかなり消耗したものもあると語ってくれた。しかし、彼女たちはまた、目の前に立ちはだかるどんな障害でも乗り越えてみせる、という強い決意を示していた。

職場での孤立感

彼女たちがどの職場でも直面した最大の問題は、少数派であるがゆえの孤立感だった。そのような孤立感は、時には自信喪失や居場所のなさという克服し難い感覚につながる場合があるという。メディナ氏は、男性エンジニアたちが意図的あるいは無意識に取った態度によって、職場で迷惑がられていると感じたことが何度もあったそうだ。

メディナ氏は次のように説明する。「私にとって本当につらかったのはマイクロアグレッションが日常茶飯事だったことです。そのせいで労働意欲が低下したり、出勤したくないと思ったり、ベストを尽くしたいという気持ちが薄れたりしました。その結果、自分の自尊心が傷ついただけでなく、エンジニアとしての自分の成長でさえも自分で認められなくなってしまいました」。

ロア氏は、孤立感はインポスター症候群につながる場合があると述べる。だからこそ、エンジニア職にもっと女性を起用し、職場に女性のメンターやロールモデル、仲間を作ることが重要なのだ。

ロア氏は次のように説明する。「チームの中で女性がたった1人という状況にある私たちの前に立ちはだかる障害の1つがインポスター症候群です。職場に女性が1人あるいは数人しかいない場合、これは本当に大変な試練となります。そのような時、私たちは自信を取り戻す必要がありますが、そのためには女性のロールモデルやリーダーの存在が非常に重要なのです」。

チョン氏も、自分と同じ思いをしつつも乗り越える道を見つけた人がいることを知ることは重要だという意見に同意する。

チョン氏は次のように語る。「他の人が自分の職場での仕事や試練、それを乗り越えた方法について真実を話してくれたのを聞いて、私もテック業界で働き続けようという励みを得られました。テック業界を離れるべきか悩んだ時期もありましたが、個人的に話せる人や先例になってくれる人が近くにいて、先ほど話したようなサポートを得られたことが本当に助けになりました」。

バットウ氏は、エンジニアになったばかりの頃、自分がコードを書いたモバイルアプリが賞を獲得した際にとある記事の取材を受けた時のことを語ってくれた。出版されたその記事を見て、バットウ氏は愕然とした。見出しが「Not just another pretty face……(このエンジニアは顔が美しいだけではない……)」となっていたからだ。

「『え、それが見出しなの?』と思いました。記事が出たら母に見せようと楽しみにしていたのですが、見せるのをやめました。私はあのアプリのコードを書くのに膨大な時間を費やしました。どう考えても私の顔は関係ありません。こういう小さなこと、一般的には大したことではないと言われるようなことの多くが、実は小さなマイクロアグレッションなのです」。

不屈の精神で乗り越える

これらすべてのことを経験してもなお、彼女たちはみんな、自信喪失を乗り越えてエンジニアとして成功するための専門的な技術スキルが自分たちにあることを示したいという強い願いを抱いている。

バットウ氏は10代の頃から前述のような誤解と戦ってきたが、そのせいで自分の進みたい道をあきらめることはなかった。「そのような誤解については気にしないようにしました。実はスケートボードをやっていたせいで、周囲の誤った見方に直面することがよくあったんです。同じことですよね。スケートボードに乗りたくて公園に行くと『トリックの1つでもできるのか?』って言われるので、私は『見てて』って答えて、実際にトリックをやってみせていました。同じようなことが世界中のさまざまな場所で頻繁に起きていて、ただひたすらにそれを乗り越えていかなければならない。私もそうです。やりたいことは決してあきらめません」。

チョン氏は、落胆の気持ちに負けたりはしないが、そんな時は、そういうことを話せる他の女性の存在が大きな力になると語る。

チョン氏は次のように回想する。「忍耐したい、あきらめたくないと強く願うと同時に、もう投げ出したいと思ったことも実際はありました。でも、他の人の経験を知る機会を得たり、自分と同じ経験をしている人が他にもいることを知ったり、そのような人たちが自分に合う環境を見つけて試練を乗り越えていくのを見たりしたこと、そして彼女たちに『あなたなら大丈夫』と言ってもらえたことによって、踏みとどまることができました。そうでなければ、テック業界で働くことをやめていたかもしれません」。

女性同士で助け合う

チョン氏のような経験は珍しくないが、チームの多様性が高まれば、少数派のグループ出身のチームメンバーが増えて、お互いに助け合える。バットウ氏がある時点でチョン氏を採用してくれたことが、チョン氏にとっては大きなきっかけになったという。

チョン氏は次のように語る。「他の女性を同じ職場に採用することによってネットワーク効果が生まれます。そして、その効果を拡大していくことができると思います。そうすることによって、変化を作り出したり、自分たちの望む変化を感じたりでき、より居心地の良い職場環境を作ることができます」。

メディナ氏は、テック業界で働くラテンアメリカ系や黒人の人材を増やすことを目指している。特に女子学生や若い女性たちにテック業界への興味を持ってもらうために、同氏はTechnolachicas(テクノラチカス)という団体を設立し、Televisa Foundation(テレヴィサ財団)と提携して一連のコマーシャル動画を制作した。合計6本の動画のうち、3本は英語、3本はスペイン語で制作された。女子学生たちにSTEM(科学・技術・工学・数学)分野でのキャリアの道を進む方法を紹介することが目的だ。

「どの動画も、18歳未満の女子だけではなく、その子に影響を与えうる大人および親、つまり18歳未満の若者たちの成長にとって絶対に欠かせない大人たちを対象に制作されています。若者たちがSTEM分野に興味を持ち、それをキャリアとして選択するよう励ますためにそのような大人たちができることについて紹介しています」。

バットウ氏によると、重要なのは人々のやる気を引き出すことだという。同氏はこう語る。「私たちは、自分たちの経験について話すことによって、他の女性たちにインスピレーションを与えることができればと思っています。そのようなロールモデルの存在はとてつもなく重要です。共感できるロールモデルが近くにいることが実は最も重要であるということは、多くの研究で証明されています」。

彼女たちは最終的に目指していること、それは、エンジニアとして自分のベストを尽くすことに集中できる職場環境を整えるためのサポートを、本稿で紹介したような苦労をしなくても得られるようにすることだ。

関連記事
リモートワークの普及により職場ですでに疎外されていた人たちはさらに居づらくなったというレポート
Sentropyがソーシャルメディア上の攻撃から人々を守るツールをローンチ、Twitterを皮切りに展開
SNSでのオンラインハラスメントや虐待に対抗するBlock PartyがTwitterでサービス開始

カテゴリー:パブリック / ダイバーシティ
タグ:エンジニアハラスメントインタビュー女性

画像クレジット:

原文へ

(文:Ron Miller、翻訳:Dragonfly)

リモートワークの普及により職場ですでに疎外されていた人たちはさらに居づらくなったというレポート

2020年は誰にとっても簡単な年ではなかったが、Project Includeの新しいレポートによると、リモートワークへの移行は一部のグループに対し他のグループよりも悪影響を及ぼした。当然のことながら、それはすでにハラスメントや偏見に苦しんでいた人々で、特に有色人種の女性やLGBTQと認識している人々が、そうした振る舞いに大きな影響を受けた。

このレポートは、約2800人への調査と、多くの国や業界の技術者や対象分野の専門家へのインタビューに基づいている。良いニュースはあまりないが、そもそもあると期待すべきだろうか。悲しいことに、2020年に発生した前例のない複数の災いが合わさって、労働条件の点で別のより静かな災いが発生している。

在宅勤務は人々の対話の方法を変えた。その結果、特に性別および人種に基づくハラスメントが大幅に増加した。調査対象者の4分の1以上が、嫌がらせと職場での敵意が増加したと答えている。増加したと答えた人のうち、98%は女性またはノンバイナリーであり、99%は非白人だった。

トランスジェンダーの人々は、すべての黒人の回答者、特に女性とノンバイナリーの人々がそうであるように、ハラスメントと敵意をより多く経験していた。アジア系、ラテン系、およびマルチレイシャルの回答者も同様に多かった。

画像クレジット:Project Include

リモートでの生産性とコミュニケーションへの切り替えにより、ハラスメントは避けがたいものになっているようだ。チャット、電子メール、ビデオ通話による1対1のコミュニケーションへの依存度の高まりにより、ハラスメントをする人と直接働くことが避けられず、それを報告するのが難しくなっている。「回答者は、ハラスメントをする個々の人間がオンラインスペースを越えて彼らを追いかけてくると述べた」とレポートは付け加える。

メンタルヘルスに何らかの症状がある人、特にPTSD(心的外傷後ストレス障害)のある人は、そうでない人に比べてハラスメントを2倍多く経験する傾向がある。

期待とツールの変化は、不安の大幅な増加とワークライフバランスの低下を意味する。回答者のほぼ3分の2は、より長時間働くことが期待されていると回答し、半数以上は公式の労働時間外にもオンラインにとどまるようプレッシャーを感じている(または明らかに期待されている)と述べた。調査によると、10%はマネージャーが毎日チェックしていると述べ、5%が1日に2回以上チェックしていると報告した。キーストロークや画面監視などの監視ソフトウェアについて不満を述べる人もいる。

障害のある労働者は、企業がアクセシビリティ機能が不十分な生産性ツールやコラボレーションツールをよく選択することに気づいている。例えば自動キャプションなしのズームコールでは、読唇術が必要となる。

ほとんどの人が、苦情の適切な処理や公正な対応という点で人事部門や会社全体を信頼していなかったため、ハラスメントについて報告しなかったと述べた。ハラスメントを行っているのは人事部の人であるという回答もあった。こうした問題に適切に対応するという点で自社を信頼している回答したのは半数未満だった。約3分の1は、会社が適切に対応するとは思っていないと述べた。ほぼ同数が、職場には、発生する可能性のある問題に介入したり解決したりするためのツールすらないと述べた。

こうした統計がこのレポートで手に入る。このレポートでは、他の多くの問題や行動について詳しく説明し、企業がステップアップするためにできることついて多くの提案をしている。もちろん、あなたの会社が今まで行動を起こさなかったのなら、それはまさにそこにある問題だ。だが一般的には、実際に従業員に耳を傾け、リーダーシップに責任を持ち、ノーミーティングデーや寛大な休暇ポリシーなど、目に見えるインパクトを与える行動を取ることが解決になる。

何より、単純に物事が「通常に戻る」と期待しないで欲しい。Vaya ConsultingのCEOであるNicole Sanchez(ニコル・サンチェス)氏は、レポートで引用されているように、そのことについて適切に語っている。

ほとんどの企業は、選択制であっても、人々を物理的に元に戻す準備ができていません。エグゼクティブレベルの人々は、自分たちが実際に扱っているのが現在進行形の多数のトラウマであると知ってショックを受けるでしょう。以前のやり方に戻ろうとする多くの企業は「なぜ1つ1つのピースがもう合わなくなってしまったのか」と疑問に思うでしょう。私たちの意見が一致する答えは次のとおりです。そうしたピースがお互いにしっかりと合うことはもはやありません。合うのは自分自身にとってだけです。今、あなたはすべての継ぎ目と脆弱性を目にしています。したがって、会社を再構築しなければなりません。

レポートの作成者には、Project IncludeのEllen Pao(エレン・パオ)氏、Shoshin InsightsのYang Hong(ヤン・ホン)氏、およびConvocation Design + ResearchのCaroline Sinders(キャロライン・シンダーズ)氏が含まれる。

カテゴリー:パブリック / ダイバーシティ
タグ:ハラスメント新型コロナウイルスリモートワーク

画像クレジット:Getty Images

原文へ

(文:Devin Coldewey、翻訳:Nariko Mizoguchi

Sentropyがソーシャルメディア上の攻撃から人々を守るツールをローンチ、Twitterを皮切りに展開

2020年、米国大統領選挙キャンペーンが特に激しさを増していた中、人々をオンライン上の会話に集結させるソーシャルメディアや企業に向けてAIベースのプラットフォームを提供するSentropyというスタートアップが現れた。

Sentropyは自然言語処理と機械学習を利用して一連のアルゴリズムを構築し、これらのプラットフォーム上で暴言や嫌がらせなどの有害なコンテンツが出現してきたときにそれを検知し、問題になる前に対処できるように支援している。

同社が米国時間2月9日、コンシューマー向けの新製品を発表した。

Sentropy Protectは、同社のエンタープライズプラットフォーム用に開発されたものと同じ技術を使用した無料のコンシューマー向け製品だ。個人のソーシャルメディアのフィード上で有害なコンテンツを検出し、ダッシュボードを介してそうしたコンテンツとそれを生成する人々を適切に制御できるようにしてくれる。

当初はTwitterからスタートし、徐々にソーシャルフィードの数を増やしていく計画で、初期段階ではSentropyとソーシャルフィードを統合するためのAPIを提供するサービスをベースに展開する(すべてのソーシャルメディアがそういったAPIを提供しているわけではない)。

SentropyのCEOであるJohn Redgrave(ジョン・レドグレイブ)氏は、コンシューマー向け製品のローンチは方向転換ではなく同社が構築しているものの拡張であると述べている。

Sentropyは今後もエンタープライズ顧客と協働していく考えで、同分野では2つの製品を展開している。Sentropy Detectは、APIベースの悪用検知技術へのアクセスを提供する。Sentropy Defendは、モデレータのエンドツーエンドのモデレーションワークフローを可能にするブラウザベースのインターフェースだ。

しかし一方で、コンシューマー向け製品であるProtectは人々に新たな選択肢を提供する。Sentropyが特定のプラットフォームで利用されているかどうかに関わらず、制御を握り、ハラスメントのグラフを実質的にコントロールできるようにしてくれるというものだ。

「私たちはエンタープライズをスタート地点として一貫して追い求めていく強い信念を持っていましたが、Sentropyはそれ以上のものになっています」と同氏はいう。「サイバーセーフティには企業向けとコンシューマー向けの両方のコンポーネントが必要です」。

何百万もの人々に影響を与える可能性のあるサービスを構築し、かつ個人の自己決定の要素を維持しようとする姿勢のあるスタートアップの誕生は実に爽快である。

単に「サービスXを利用するかしないかはあなた次第です」ということだけではない。特に人気のサービスにおいては、プラットフォームがユーザーの最善の利益を常に考慮してくれているという期待感だけでなく、ユーザーにも自身でコントロールできるようなツールを提供すべきだという概念が重要なのだ。

これは消えつつある問題ではなく、複雑なコンテンツを処理する方法を模索し続けている現在最もホットなプラットフォームだけでなく、新興のプラットフォームにも共通する問題といえるだろう。

関連記事:TikTokがコミュニティガイドラインを拡張、「ウェルビーイング」の新機能を展開

例えば、Clubhouseの最近の人気はソーシャルプラットフォームにおける新たな領域として注目されているが、Clubhouseは会話のための「room」をベースとし、やりとりのためテキストではなく音声に依存する新しいモデルであるため、嫌がらせやハラスメントの問題にどう対処しているかという点を浮き彫りにしている。いくつかの注目すべき例は、これまでのところ、問題が大きくなる前に対処する必要があることを示している。

Protectは現在無料で利用できるが、Sentropyはその有料化の方法と可能性を検討中だとレドグレイブ氏は語っている。考えられるシナリオとしては、強化されたツールを備えた「プロ」サービスを持つ個人向けの無料限定版製品となるフリーミアムの層と、1人または複数のハイプロファイルの個人に代わってアカウントを管理する企業向けの層で提供される可能性がある。

もちろんTwitter、Reddit、Facebook、YouTubeなどのサービスはここ数年(特に最近)、より多くのルール、モデレーター、自動化されたアルゴリズムを導入し、トラック内の不正なコンテンツを特定して阻止したり、ユーザーがコンテンツを入手する前にレポートして阻止したりできるようにすることで、大きな成果を上げている。

しかし、もしあなた自身が定期的あるいは時折ターゲットにされたりするような経験を持っていれば、それだけでは十分ではないと感じるだろう。Sentropy Protectもそのような考え方に基づいて構築されているようだ。

実際、レドグレイブ氏によると、同社は当初からコンシューマー向け製品のロードマップを作成していたが、2020年6月にエンタープライズ向け製品を発表して以降その戦略は加速したという。

「私たちは『オンラインで虐待を受けています。御社のテクノロジーにアクセスするにはどうすればよいですか?』という人々からの問い合わせを受けるようになりました」。同氏はSentropyが企業のリストを精査して顧客として彼らを勝ち取り、製品の統合を成功させるだけでは解決できない問題があることに気づいたと振り返る。

「私たちは難しい決断を下しました。100%の時間を企業のために費やすのか、それともチームの一部を使って消費者のために何かを作り始めるべきなのか」。同社は後者の道を選んだ。

エンタープライズ分野では、Sentropyはソーシャルネットワークをはじめ、ゲーム体験や出会い系アプリに接続されたメッセージボードなど、人と人の交流をホストする企業との提携を続けている。現時点では顧客名を公表していないが、大手の有名プラットフォームではなく、主に小規模で急成長中の企業だとレドグレイブ氏は説明している。

Sentropyのプロダクト担当バイスプレジデントであるDev Bala(デヴ・バーラ)氏(アカデミックな経験を持ち、Facebook、Google、Microsoftで働いていた)は、より大きなレガシープラットフォームもSentropyの範疇外ではないと説明している。しかし大抵の場合、そうした企業はより大きな信頼と安全戦略に取り組み、少数のエンジニアを社内に配置して製品開発に取り組んでいることが多い。

大手ソーシャルネットワークがサービスの特定の側面にサードパーティーの技術を導入することもあるが、それらの契約が完了するまでには、たとえオンライン上での不正行為に対処しなければならないような緊急性の高い場合であっても、通常は長い時間がかかる。

「虐待や嫌がらせは急速に進化しており、Facebook、Reddit、YouTubeやその他の企業にとっては実存的な問題になっていると思います」とバーラ氏はいう。「これらの企業は、信頼と安全だけを考えている1万人の組織を持つことになり、世界はそれを実行しないことの弊害を目にしています。外部の人々にはあまり明らかにされていませんが、彼らは多数のモデレーターとあらゆるテクノロジーを持つポートフォリオアプローチを採用しています。すべてが社内で構築されているわけではありません」。

「Sentropyには大きな企業にとっても価値があると信じていますが、私たちのような製品を使っている企業の周りには多くの世論が存在していることも認識しています。ですから、対象となっている企業がFacebookではなく、あまり洗練されていないアプローチを採用していない場合、より先に進むチャンスがあると考えています」。

市場の潮流とセンチメントの変化の兆候である。虐待やコンテンツへの取り組みがビジネスコンセプトとして真剣に受け止められ始めているようだ。このビジネス機会に取り組んでいるのはSentropyだけではない。

Spectrum LabsL1ghtという2社のスタートアップも会話が行われているさまざまなプラットフォームを対象としたAIベースのツールセットを開発しており、これらのプラットフォームが有害性、ハラスメント、虐待を検知し、より適切な事例を検出できるようにしている。

関連記事:有害コンテンツと戦うAIプラットフォーム開発のSpectrum Labsが1000億円超を調達

もう1社のBlock Partyは、さまざまなソーシャルプラットフォームでユーザー自身が有害性への接触をコントロールできるようにしたいと考えているが、Sentropy同様、まずTwitterにフォーカスしている。

関連記事:SNSでのオンラインハラスメントや虐待に対抗するBlock PartyがTwitterでサービス開始

Protectを使用すると、コンテンツが検出されてフラグが設定された後、ユーザーは特定のユーザー(Protectを使用してミュートすることも可能)またはテーマに対してより広範で恒久的なブロックを設定したり、フィルタリングされた単語を管理したり、悪用の可能性があることを示すフラグが自動的に設定されたコンテンツを監視したりできる。これらのフラグを無効化して「信頼できる」ユーザーを作成することも可能だ。身体的な暴力の脅威、性的な攻撃、アイデンティティ攻撃などのように、Sentropyによって捕捉されたツイートにはラベルが付けられる。

機械学習プラットフォームをベースにしているため、Sentropyはフラグの付いたツイートを含むすべてのシグナルを収集し、Protectにそれらを使って将来のコンテンツを識別させている。このプラットフォームは他のプラットフォームでのチャットも常時監視しており、それが検索結果やモデレートに反映される。

Twitter自体の不正利用防止策を知っている人なら、Twitterが提供するコントロールよりもこれがさらに一歩進んでいることが分かるだろう。

ただし、これはまだ初期バージョンに過ぎない。今のところ、Protectではタイムライン全体を見ることはできず、実質的にはProtectとTwitterクライアントを切り替えることになる。面倒だと思う人もいるかもしれないが、一方でバーラ氏は、Sentropyの成功の兆候はバックグラウンドで動作させて人が常にチェックする必要性を感じなくなることだという。

レドグレイブ氏はまた、ダイレクトメッセージをフィルタリングする機能など、他の機能を追加する方法についてもまだ検討中だと語っている。

カテゴリー:パブリック / ダイバーシティ
タグ:Sentropyハラスメント機械学習SNSソーシャルメディア

画像クレジット:Towfiqu Photography / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Dragonfly)

SNSでのオンラインハラスメントや虐待に対抗するBlock PartyがTwitterでサービス開始

米国時間1月15日、PinterestのエンジニアだったTracy Chou(トレイシー・チョウ)氏は、ソーシャルメディア上で人々がより安全に感じられるようにすることを目的としたアンチハラスメントのスタートアップBlock Partyを設立した。同社のサービスは現在、Twitter(ツイッター)でのみ利用可能で、人々が自分が見たくないコンテンツをフィルタリングして、Block Partyが「ロックアウトフォルダ(Lockout Folder)」と呼ぶものに保存するというものだ。それは、ユーザーが後でそれを確認したい場合にフィルタリングされたコンテンツのすべてを見つけられる場所となる。

「(そうしたくなくても)これらの人々が存在することを認めるのは重要だと考えています」とチョウ氏はTechCrunchに語った。

存在しないふりをしていると、有益な情報や本物の人脈を逃してしまうかもしれない。

「そこには、失われてしまうかもしれない良いものがたくさんあり得ます」と彼女はいう。「私たちが、Twitterのような公共のプラットフォームを使うのには理由があります」。

よりネガティブな側面があるとすれば、と彼女は説明を続けた。それでもあなたは、あなたの物理的な安全を脅かす誰かがいるかどうかを確認するために定期的にチェックする必要があるかもしれない、と。

「ヘルパー」は、Block Partyのユーザーエクスペリエンスの中で大きな役割を果たしている。ユーザーは信頼できるヘルパーにロックアウトフォルダへのアクセスを許可して、彼らはそこに何か役に立つ情報があるかどうかを知らせたり、単にトロールをブロックしたりすることができる。

「誰か他の人が処理するのを助けてくれたり、懸念される情報にフラグを立ててくれたりすることで、とても気が楽になります。その負担を共有できるのは良いことです。ほとんどのプラットフォームの現在の設計では、虐待を受けている人だけに対処の負担を強いることになっていますから」と彼女は語った。

ロックアウトフォルダは、会社や弁護士などにハラスメントの証拠を提示する必要がある場合に記録を残すツールとしての役割も果たしている。

画像クレジット:Block Party(スクリーンショット)

「人々の生活をより楽にしようとしているのです」とチョウ氏はいう。「報告書を提出するたびに、再び虐待を見なければならないのは、とてもつらいことです」。

Block Partyは、Facebook(フェイスブック)やQuoraのようなプラットフォーム企業で働いていたチョウ氏自身の経験そして、テック業界における多様性とインクルージョンのため積極的に発言する活動家としての彼女の経験から生まれた。Quoraでは、ブロックボタンは、プラットフォーム上で嫌がらせを受けた後、彼女が最初に作ったものの1つだったとチョウ氏は筆者に話してくれた。

「内部にいて、製品やエンジニアリングチームがどのように動いているかを見てきたという視点もあります。」とチョウ氏は語る。「しかし、DEI(Diversity・Equity・Inclusion、多様性・公平・インクルージョン)の活動家としての経験から、チームがマイノリティーを欠く場合に製品の決定にどのように影響を与えるかを見てきました」。

Block Partyは今のところTwitterユーザーだけが利用できるが、目標は他のプラットフォームを追加して、複数のプラットフォームで自分をターゲットにした嫌がらせに対処できるようにするという。またBlock Partyは現在無料だが、サブスクリプションプランを導入する予定だ。それでも, チョウ氏は、無料版が常に存在することを想定していると述べた。

現在までにBlock Partyは150万ドル(約1億5000万円)弱の資金調達を行っている。プレシードラウンドは、Precursor VenturesのCharles Hudson(チャールズ・ハドソン)氏が主導した。他の投資家には、元TechCrunch共同編集長のAlexia Bonatsos(アレクシア・ボナトソス)氏、元RedditのCEOであるEllen Pao(エレン・パオ)氏、Facebookの元セキュリティ最高責任者Alex Stamos(アレックス・ステイモス)氏などがいる。

カテゴリー:パブリック / ダイバシティ
タグ:Block PartyDEI資金調達SNSハラスメント

画像クレジット:

原文へ

(翻訳:Nakazato)

SNS上でのオンラインハラスメントや虐待に対抗するBlock PartyがTwitterでサービス開始

PinterestのエンジニアだったTracy Chou(トレイシー・チョウ)氏によって設立された、ソーシャルメディア上で人々がより安全に感じられるようにすることを目的としたアンチハラスメントのスタートアップBlock Partyが米国時間1月15日にローンチされた。現在はTwitter(ツイッター)でのみ利用可能で、Block Partyは、人々が自分が見たくないコンテンツをフィルタリングして、同社が「ロックアウトフォルダ(Lockout Folder)」と呼ぶものに保存するサービスを提供する。それは、ユーザーが後でそれを確認したい場合にフィルタリングされたコンテンツのすべてを見つけられる場所となる。

「(そうしたくなくても)これらの人々が存在することを認めるのは重要だと考えています」とチョウ氏はTechCrunchに語った。

存在しないふりをしていると、有益な情報や本物の人脈を逃してしまうかもしれない。

「そこには、失われてしまうかもしれない良いものがたくさんあり得ます」と彼女は言う。「私たちが、Twitterのような公共のプラットフォームを使うのには理由があります」。

よりネガティブな側面があるとすれば、と彼女は説明を続けた。それでもあなたは、あなたの物理的な安全を脅かす誰かがいるかどうかを確認するために定期的にチェックする必要があるかもしれない、と。

「ヘルパー」は、Block Partyのユーザーエクスペリエンスの中で大きな役割を果たしている。ユーザーは信頼できるヘルパーにロックアウトフォルダへのアクセスを許可して、彼らはそこに何か役に立つ情報があるかどうかを知らせたり、単にトロールをブロックしたりすることができる。

「誰か他の人が処理するのを助けてくれたり、懸念される情報にフラグを立ててくれたりすることは、とても気が楽になります。その負担を共有できるのは良いことです。ほとんどのプラットフォームの現在の設計では、虐待を受けている人だけに対処の負担を強いることになっていますから」と彼女は語った。

ロックアウトフォルダは、会社や弁護士などにハラスメントの証拠を提示する必要がある場合に記録を残すツールとしての役割も果たしている。

Image Credits: Screenshot/Block Party

「人々の生活をより楽にしようとしているのです」とチョウ氏はいう。「報告書を提出するたびに、再び虐待を見なければならないのは、とてもつらいことです」。

Block Partyは、Facebook(フェイスブック)やQuoraのようなプラットフォーム企業で働いていたチョウ氏自身の経験そして、テック業界における多様性とインクルージョンのため積極的に発言する活動家としての彼女の経験から生まれた。Quoraでは、ブロックボタンは、プラットフォーム上で嫌がらせを受けた後、彼女が最初に作ったものの一つだったとチョウ氏は筆者に話してくれた。

「内部にいて、製品やエンジニアリングチームがどのように動いているかを見てきたという視点もあります。」とチョウ氏は語る。「しかし、DEI(Diversity・Equity・Inclusion、多様性・公平・インクルージョン)の活動家としての経験から、チームがマイノリティーを欠く場合に製品の決定にどのように影響を与えるかを見てきました」。

Block Partyは今のところTwitterユーザーだけが利用できるが、目標は他のプラットフォームを追加して、複数のプラットフォームで自分をターゲットにした嫌がらせに対処できるようにするという。Block Partyは現在無料だが、サブスクリプション層を導入する予定だ。それでも, チョウ氏は、無料版が常に存在することを想定していると述べた。

現在までにBlock Partyは150万ドル(約1億5000万円)弱の資金調達を行っている。プレシードラウンドは、Precursor VenturesのCharles Hudson(チャールズ・ハドソン)氏が主導した。他の投資家には、元TechCrunch共同編集長のAlexia Bonatsos(アレクシア・ボナトソス)氏、元RedditのCEOであるEllen Pao(エレン・パオ)氏、Facebookの元セキュリティ最高責任者Alex Stamos(アレックス・ステイモス)氏などがいる。

関連記事:

カテゴリー:パブリック / ダイバーシティ
タグ:Twitter ハラスメント

[原文へ]

(翻訳:Dragonfly)