Facebookが今日(米国時間10/24)、前四半期には新しい技術により、児童搾取の規則に違反している870万件のコンテンツを削除した、と発表した。同社が昨年来開発してきた新しいAIおよび機械学習の技術は、それらのポストの99%を、誰かがそれを報告する前に削除した、とFacebookの安全性担当のトップAntigone Davisがブログ記事で述べている。
その新しい技術は、児童のヌードなどの搾取的コンテンツをそれらがアップロードされた時点で見つけ、そして必要ならば、写真と説明文書をNational Center for Missing and Exploited Children(失踪および搾取された児童のための全国センター)に報告する。Facebookはすでに、写真マッチング技術を使って、新たにアップロードされた写真を児童搾取やリベンジポルノの既知の画像と比較していたが、新しいツールは、それまで特定されていなかったコンテンツ(既知でないコンテンツ)がFacebookのプラットホームから広まることを防げる。
その技術は完全ではなく、多くの親たちが、自分たちの子どもの無害な写真が削除された、と不平を言っている。Davisはブログ記事の中でそのことを認め、“虐待‘かもしれない’ものでも排除する方針なので、子どもがお風呂に入っているような一見無害で性的でないコンテンツも対象にしている”、と書いている。そしてこの“幅広いアプローチ”のために、前四半期には大量のコンテンツが削除された、という。
しかしFacebookのコンテンツ調整が完全には程遠くて、多くの人たちが、それは悉皆的でも正確でもないと思っている。家族のスナップ写真だけでなくFacebookは、ベトナム戦争の悲惨さの象徴となった1972年のPhan Thi Kim Phucの、“Napalm Girl”(ナパームの少女)と呼ばれている写真まで削除した。最重症のやけど第三度熱傷を負った少女は、村を南ベトナムのナパーム弾で焼かれ、裸で走って逃げていた。FacebookのCOO Sheryl Sandbergは、後日、その写真を削除したことを謝罪した。
昨年、同社のコンテンツ調整ポリシーは、イギリスの国の機関である児童虐待防止協会から批判された。その団体は、Facebookは独立の調整機関の下に置かれるべきであり、ポリシーへの違反には罰金が課せられるべきだ、と主張した。Facebook Liveのローンチもときには同社とその調整者たち(人間とソフトウェアによるモデレーター)にとって逆風となり、性的暴行や自殺、殺人などのビデオが批判された。生後11か月の赤ちゃんが父親に殺されるビデオすら、放送されてしまった。
しかしソーシャルメディアのコンテンツの調整は、AIによる自動化が人間労働者の福利に貢献しうることの顕著な好例である。先月、FacebookのコンテンツモデレーターだったSelena Scolaは、何千もの暴力的な画像を調べさせられたために心的外傷後ストレス障害(post-traumatic stress disorder, PTSD)に陥ったとして同社を告訴した。モデレーターの多くは契約社員だが、その多くが、彼らの仕事の精神的重荷について語り、Facebookは十分な教育訓練とサポートや金銭的補償を提供しない、と言っている。