非営利Tech集団「ZIAI」がAIを活用したSNS自殺関連キーワード検知システムのβ版をリリース

非営利Tech集団「ZIAI」がAIを活用したSNS自殺関連キーワード検知システムのβ版をリリース

任意団体NPO「ZIAI」は1月13日、SNS上に投稿された自殺関連キーワードを自動で収集し、アカウント名や投稿内容を整理して一覧化、ワンクリックで該当者へのアプローチを可能にする自殺検知システムのβ版をリリースしたと発表した。

令和元年の自殺者総数から逆算すると、日本では毎日55人が自殺しており、自殺死亡率(人口10万人あたりの自殺者数)もG7中で最下位という。特に10代後半から20代の男女では、死亡原因の第1位が自殺という状況が続き、自殺による経済損失は年間数千億円にのぼるとされる。

その対策として、現在の日本では、自殺に関連するキーワードを主要インターネットメディアに記載・検索・投稿すると、厚生労働省や関係NGO、各地域の相談窓口が自動的に表示されるものの、これらはいわゆる「プル型」の仕組みとなっている。

政府としてもSNSを活用したオンライン相談の取り組みを強化しているものの、年間53万人とされる自殺未遂者の推計に対し、年間のSNS相談件数は約2万件、つまり全体の4%に過ぎないという。

ZIAIは、SOSを受け身で待つのではなく、社会からその声を拾い上げる「プッシュ型」の仕組みが必要不可欠としている。

AI自殺検知システムは、インターネット上の自殺関連投稿データをリアルタイムで自動収集し、ハイリスク者に対して連絡を行う。アカウント名や投稿内容を整理して一覧化し、AIアルゴリズムとプロのカウンセラーの視点を掛け合わせ、ハイリスク者と判定された方のみにワンクリックでメッセージを送ることが可能。

今後はオンライン相談を実施する関連NGOや教育・医療機関と連携し、返信者に対するオンライン・オフライン双方での介入を進めることで、社会からSOSの声を拾い上げる世界の実現を目指す。

非営利Tech集団「ZIAI」がAIを活用したSNS自殺関連キーワード検知システムのβ版をリリース

ZIAIは、自分を殺すのではなく、自分を愛せる社会を創ることをミッションとした非営利Tech集団。ハイリスク者の感性分析によるアルゴリズム開発やSNS自殺検知システム開発など、テクノロジーを軸にした自殺予防の仕組み作りを行っている。

メンバーは社会起業家やスタートアップのCTO、海外在住のデータサイエンティストなど、それぞれが本業を持つスペシャリストで構成されている。

自殺行為自体を未然に防ぐことは、この問題の根本的解決ではなく、それに至った背景や原因を取り除いて初めてその対象者にとって意味のある活動になるという。今後もZIAIは、テクノロジーを軸に、国や地方自治体、医療や教育機関、NGOとの有機的な連携を促進し、自殺念慮(死にたい気持ち)を予防するための解決策を模索し続けるとしている。

関連記事
2021年に最優先すべきはパンデミックから精神的に立ち直るための技術
自分だけのAIライフパートナーと対話できる「PATONA」アプリのCapexが総額1億円を調達
AIが思考と感情を分析しメンタルケア手法「ジャーナリング」を支援するmuuteアプリ
コロナ禍で急成長の瞑想アプリ「Calm」が日本上陸、日本語オリジナルコンテンツも提供開始
Facebookライブにアップされた自殺動画の拡散防止に失敗した各SNSの理由
チャット相談サービス「メンヘラせんぱい」がキャバ嬢と臨床心理士に相談できる新プランを提供
Daybreak Healthが10代向けオンラインメンタルヘルス治療を開始
メンタルヘルスをタブー視するアジアの文化に挑むIntellect
Netflixがメンタルヘルス関連の若者向けインスタライブシリーズを開始
Redditが精神的に追いつめられた人をサポートするメンタルヘルスのCrisis Text Lineと提携
瞑想の医学的有効性を証明するためHeadspaceが100億円調達

カテゴリー:パブリック / ダイバーシティ
タグ:いじめAI / 人工知能(用語)自殺自殺防止自傷行為メンタルヘルス(用語)日本(国・地域)

Googleは過去2年間で48名をセクハラで解雇

今朝The New York Timesは、性的不行跡が報じられたAndroidの作者Andy Rubinに対する、Googleからの処遇に関する爆弾記事を載せた。

その記事が出たあと、CEOのSundar Pichaiと人事担当VP Eileen Naughtonの署名入りメモがGoogleのスタッフに送られた。そのメモは、“高い地位にある者の不適切な行為に対する強硬な姿勢を、今後ますます厳しくしていく”、とし、その厳しい処分の内容を詳説している。

そのメモはGoogleのスポークスパーソンが本誌TechCrunchに提供したもので、過去2年間だけでも48名がセクシャルハラスメントにより解雇された、とある。そのリストには、上級管理職が13名含まれている。

その社員宛て書簡は曰く、“これらの個人の誰一人として解雇手当を受け取っていない”。これは明らかに、Rubinに1か月に200万ドルずつの分割で計9000万ドルが支払われた、とする報道を指している。RubinはGoogleを2014年に辞めた。書簡の全文が、本記事の末尾にある。

本誌は今、Rubinが2015年に立ち上げたハードウェア向けのインキュベーターPlaygroundにも問い合わせている。情報が得られ次第、この記事をアップデートしたい。

From: Sundar

Hi everyone,

今日のThe New York Timesの記事は、読むのがつらかったです。

私たちは、安全で差別や区別のない職場づくりに、真剣に取り組んでいます。みなさんに明言したいのは、私たちがセクシャルハラスメントや不適切な行為に関する苦情を、どれ一つとして無視することはない、ということです。必ず調べて、対応します。

近年行ったいくつかの変更により、高い地位にある人びとの不適切な行為に対する強硬な姿勢が、ますます厳しくなっています。そのため、最近の2年間で48名がセクシャルハラスメントで解雇され、内13名は上級管理職以上の地位でした。これらの個人の誰一人として、解雇手当や退職金を受け取っていません。

2015年にはRespect@事業を立ち上げ、各年の内部調査報告書により、Googleにおけるこの種の調査に関する透明性を提供してきました。ハラスメントを報告することには心痛が伴うことを理解していますので、秘密のチャネルを提供して、あなたが経験または目撃した不適切な行為を共有しています。私たちは、声を発して事を公にする人びとを、支援し尊敬します。そして、そのためのいろいろな方法を提供しています。匿名による報告もできます。

最近の方針変更により、すべてのVPおよびSVPは、報告や係争の有無にかかわらず、同僚とのいかなる関係をも、開示しなければなりません。

私たちは、Googleを安全で良い仕事のできる職場にすることに真剣にコミットしています。そのような職場では、不適切な振る舞いをする者には誰にでも、重大な結果がもたらされます。

Sundar and Eileen

画像クレジット: Bloomberg/Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

米国のティーンの大半がオンラインいじめを経験ー政治家やサイトは守ってくれないと不満

ピュー研究所の新たな調査によると、米国のティーンエイジャーの大半がオンライン上でいじめの対象となったことがある。ここで言ういじめとは6つのタイプを指している。誹謗中傷を受ける、デマの対象となる、頼んでもいない露出画像が送られてくる、自分も写っている露出写真を同意なしにシェアされる、物理的脅しを受ける、親以外の誰かにストーカーのようにいまどこにいるのか、何をしているのかを絶えず聞かれる、だ。

これらの中で、誹謗中傷とデマがティーンが受けるいじめの2トップで、42%のティーンが誹謗中傷を、32%がデマを経験したと答えている。

テキストやデジタルメッセージの普及でそうした種の相互作用が行われるようになり、親、ティーン共にその危険性を認識し、心配しているとピュー研究所は分析している。

特に親はティーンの露出写真のやりとりを懸念していて、57%が心配のタネだと答えている。そして心配していると答えた人の4分の1が“かなり”懸念しているとしている。女の子の親ではそうした姿勢はより鮮明だ(64%が懸念する)。

一方で、ティーンのほとんどー90%ーがオンラインハラスメントは問題だと認識していて、63%が“大きな”問題だと考えている。

この調査ではまた、ティーンの男女どちらも同じくらいオンラインハラスメントを受けていることも明らかになった。女子の60%、男子の59%がオンラインいじめを受けたことがあると答えている。これは、なかなか驚きのデータだ。しかしながら、ここで明確にしておきたいのは、この結果はティーンがオンラインいじめを受けたことがあるかどうかについてのものであり、いじめの頻度や程度についてではない。

驚きではないが、2タイプ以上のオンラインいじめを受けたことのある女子は男子より多い。女子の15%が少なくとも4タイプ以上のオンラインいじめを受けたことがあり、男子の場合は6%だった。

また女子は露出写真を送りつけられやすい傾向にあり、29%が経験ありと答えた。この点、男子は20%だった。

しかも女子の場合は年齢が上がるにつれ、こうした露出写真の送りつけが多くなっている。15〜17歳の女子の35%が露出写真を送りつけられた経験があり、男子の場合は5人に1人の割合となっている。

ティーンがオンラインいじめを受けるかどうかについて、人種や民族、両親の学力などは関係していないようだ、とピュー研究所はレポートに記している。しかし、家庭が裕福かどうかはいくらか関係しているようだー年間世帯収入が3万ドル以下の家庭のティーンの24%がオンライン上で脅しを受けたことがあると答えている。年間世帯収入7万5000ドル以上の家庭の子どもでは12%だ。(ピュー研究所の調査はこの点を調べることを意図したわけではない)

そうした要因はさておき、オンラインいじめを受ける受けないは、どれくらいの時間をネットに費やしているかと直接かかわっている。

ネット時間が長いほど、いじめを受けやすい。

ティーンの45%が「かなりネットにつながっている」としていて、結果としてそうした子どもたちはオンラインハラスメントを受けやすい。かなりネットにつながっている子どもの67%がオンラインいじめを受けたことがあり、インターネットを使うのは1日に数回以下という子どもでは53%だ。かなりインターネットにつながっているティーンの半分が差別的な名前で呼ばれたことがあり、インターネットをあまり使わない子どもでは3分の1(36%)だった。

AppleやGoogle、そしてFacebookを含む主要なテック企業はデバイス中毒と利用時間という問題についてソフトウェアアップデートやペアレンタルコントロールで対処し始めた。

AppleはiOS 12でスクリーンタイムコントロールを導入した。この機能ではユーザーはどれだけ頻繁に端末を使用しているか、いつどんなタイプのコンテンツをブロックするか、どのアプリを使うことができるのか、といったことについて、時間をはかり、モニターし、そして制限することができる。このソフトウェアでは、端末の使用が良い方向にいくよう誘導できるが、親はスクリーンタイムコントロールを使って子どもの端末に制限をかけることもできる。(新たなレポートによると、もちろんテックに詳しい子どもはこれを回避する方法をすでに見つけている)。

GoogleもまたAndroidの新バージョンでタイムマネジメントコントロールを導入し、ファミリーリンクソフトウェアを使って親がスクリーンタイムをコントロールできるようにしている。

それからGoogleとFacebookは、YouTubeFacebookInstagramといった中毒性のあるアプリにスクリーンタイムリマインダーやセッティングを導入した。

今回の調査ではまた、ティーンはデジタル生活への親のかかわりを尊重していることがうかがえる。

ティーンの59%がオンラインハラスメントへの親の対応を評価している。しかし、79%は政治家が法制化して子どもを守っていないと感じていて、66%がソーシャルメディアサイトはいじめ根絶に大して取り組んでいないと考えている。また58%は、教師はいじめにきちんと対応していないとも言っている。

多くのトップメディアサイトは、その大部分が若い人によってつくられていて、関わった人の大多数が男性だった。オンラインいじめに関連して言うと、サイトは単純なつくりだった。プロテクションーミューティング、フィルター、ブロック、レポートーは積極的にではなく、応じる形で次第に導入された。

たとえば、ティーンが最も使うアプリの一つであるInstagramはコメントフィルターやブロックリストコメントブロックを2016年に導入したばかりで、アカウントミュートを加えたのは4カ月前。このアプリがリリースされたのは2010年だ。

ピュー研究所の調査では、スクリーンタイムマネジメントやコントロールシステムを使って、親は子どもの端末問題に役割を果たすだろうという結果が浮かび上がっている。それは、ティーンが頻繁にいじめを受けたり攻撃されたりするのを抑止するだけでなく、ネット中毒という形ではなくウェブとどのように付き合っていけばいいのかをティーンが大人になるにつれて訓練するのを手伝ってくれるというものだ。

結局のところ、オンラインいじめ経験の増加に終わっているデバイス中毒はティーンの問題だけではない。

今回の調査は、2018年3月7日から4月10日にかけて米国に住むティーンエイジャー743人、親1058人を対象に行われた。ここでのティーンエイジャーは13〜17歳で、“ティーンエイジャーの親”というのは、その対象年齢の子どもの親か保護者を指す。調査結果はこちらにある。

イメージクレジット: Predrag Vuckovic

[原文へ]

(翻訳:Mizoguchi)

いじめ防止プラットフォーム「STOPit」“助けたい、助けてほしい。そんなとき、いつでも相談できる環境を”

例年、夏休みが明ける時期になると子どもたちの自殺が増加する。自殺総合対策推進センターが8月7日に公表した「昭和48年度から平成27年度における、通学適齢期の自殺者数に関する分析(速報版)」によると、8月下旬・9月上旬に自殺者数が多く、8月下旬に自殺者数のピークがみられるという。

自殺対策の一例として、東京都福祉保険局は「都内在住、在勤、在学のいずれかで、自殺等の悩みを抱えている」主に若い世代を対象としたLINE相談窓口「相談ほっとLINE@東京」を2018年9月10日から2019年3月31日まで実施する予定だ。メッセンジャーアプリなどを用いた同様の取り組みは様々なかたちで行われているが、TechCrunch Japanでは米国発の「STOPit」という最先端の報告・相談プラットフォームを紹介したい。同プラットフォームを提供するストップイットジャパンは2017年、文部科学省主導による「夏休み明けに向けた官民連携によるいじめ防止強化キャンペーン」に参加していた。

2017年6月、同プラットフォームは米国で6000校・266万人が利用。ストップイットジャパンが設立したのは2015年10月。現在、国内では約170校・6万人にもおよぶ生徒に使われている。

STOPitはいじめなど様々な出来事を報告・相談することができるアプリ「STOPit」、組織担当者の管理ツール「DOCUMENTit」などからなるプラットフォームだ。学生などのSTOPitアプリユーザーは匿名で簡単に担当者に問題を報告。メッセンジャーを使うことで生徒たちは匿名・チャット形式で相談できる。報告・相談には証拠となる画像や動画も添付することが可能だ。

STOPitを導入している千葉県柏市では生徒の報告先を市教育委員会のいじめ・非行担当部署と少年補導センターに設定している。報告した生徒には必ず返信をしているが「学校に連絡してよいか」と確認するなど慎重な対応を行なっている。他には外部の専門窓口や学校が生徒たちのSOSを受け取るパターンもある。

ストップイットジャパンCEOの谷山大三郎氏によると、STOPitはいたってシンプルなプラットフォームだが、生徒からの承諾を得た上で教育委員会が対象校に報告したり指導することが出来るのが強みだという。

従来のチャットによる相談受付のみの場合「心の不安はある程度解消できるかもしれないが、いじめ自体はなくならない」(谷山氏)。一方、STOPitを使えば「どの学校のどの学年から連絡がきているか」を把握できるため、いじめが発生している学校の「組織的な課題」の解決につながる。

だが、すべての学生がスマホを持っているわけではない。そのため、ストップイットジャパンは生徒たちにSTOPitを「人を助けるツール」として使ってもらえるように導入校で講演や授業を行っている。また、STOPitにはブラウザ版もあり、アプリ版と同等の機能を使うことができる。

あくまで予定だが、生徒が報告・相談する先を教育委員会だけでなく警察やカウンセラーなど複数化することで生徒たちが「より相談しやすい」プラットフォームにしていきたい、と谷山氏は話していた。

Twitterがオンラインの会話や対話の健全性を判定するための客観的な測度を探している

一部の人びとが虐待やハラスメントや意識操作のためのプロパガンダなどに多用しているTwitterが、このプラットホーム上の健全な対話を捉え、吟味し、評価するための提案を募集している。これは、“ネット上で一般公開される会話の全体的な健全性とオープン性と礼節を増すための”Twitterの真剣な取り組みの一環である、とCEOのJack Dorseyが今朝ツイートしている

そのツイートは曰く、“即席でグローバルに公開的に行われる会話が現実世界に与える結果のすべてをTwitterが予測することはできない”。そこでこれらの不健康な対話と戦うためにTwitterは、健康的な対話を奨励し促進するための枠組みを構築したい。そのために、非営利の調査研究機関Corticoの協力を求めて、会話中の健全な対話を見つけ、その健全度を測っていく。

“そのために彼らは、四つの指標を使用する: 1)注意の共有、2)現実の共有、3)意見の多様性、4)受容性”、とDorseyはツイートしている。

これらがTwitterにとって正しい測度なのか、Dorseyにも自信はないが、はっきりしているのは、Twitterが“厳格で客観性のある測度によりTwitter上で公開される会話の健全性を測る”ことがどうしても必要、と彼は言う。〔おそらく今後の機械化AI化のため〕

それを実現するためにTwitterは、外部のエキスパートと提携していく。関心のある人びとは、会話の健全性を測る測度と、それらを捉え、測り、評価し、報告するための方法を提案していただきたい。そして、選ばれた人びとや団体等がTwitterのチームと協働してTwitterが公開しているデータおよび資金にアクセスし、調査研究を遂行していく。

そのプラットホームを万人にとって安全で健康的な場所にしていくための方途を模索するTwitterの取り組みは、Facebookの“ソーシャルネットワーク健全化努力”と軌を一にするものだ。Facebookは現在、信頼性のあるパブリッシャーからのニュースを優先し、人びとの生活に関連し意味のある情報に力を入れている。

Twitterも、そういう努力を何年も続けている。10月にはヘイトシンボルや暴力的集団を取り締まる計画を発表し、先月は、自害行為や自殺を奨励するツイートに対する方針をアップデートした

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebookから不快な友達リクエスト防止ツール――いじめ、ハラスメント防止に努力中

Facebookその他のソーシャルメディアではいじめやハラスメントが常に問題となってきた。ある種のハラスメントの被害を局限するためにFacebookでは望まない友達リクエストやメッセージが表示されないようにするツールを実装する。

Facebookの Global Head of Safety、Antigone Davisは「誰かをブロックしてもすぐその相手が身元を変えて別のアカウントから嫌がらせを受けた、という話を繰り返し聞いている。こうした望ましくない出会いを防止する一助として、Facebookではフェイクないし不適切な身元を排除するテクノロジーをベースにしたツールを開発している」と書いている。

ハラスメントをしてくる相手をブロックしたとしよう。その相手はすぐに身元を変えて新しいアカウントを作り、再びつきまとってくるかもしれない。しかしFacebookの新しいツールはこうした事態を防止する。Facebookはこうした場合でも相手の身元を見抜き、友達リクエストやメッセージ送信をブロックできる。このテクノロジーはIPアドレスなど多数の「シグナル」を総合してあるアカウントが真正な身元を用いておらず、別のアカウントと同一のユーザーが開設したものだと判定する。…新たに設置されたアカウントと会話するためには、最初のユーザー側が明示的にコンタクトを行う必要がある。

Facebookはまた特定のメッセージを無視する機能を設置した。指定されたメッセージは以降、通知ボタンに表示されず、自動的にフィルターされて「フィルターされたメッセージ」のフォルダに入れられる。

「フィルターされたメッセージ」に保管されたメッセージは送信者にメッセージを開いたことを知られずに内容を読むことができる。現在この機能は1対1のメッセージで有効だがFacebookのブログによれば、近くグループメッセージにも拡張されるという。

Facebookによれば、多くの分野の専門家と協力してユーザーの安全を守るためのさまざまな機能の提供に努めているという。ブログ記事でDavisはFacebookはNational Network to End Domestic Violenceと協力しており、多くのジャーナリストからハラスメントについて詳しい情報を集めていると述べている。

今月に入ってFacebookはハラスメントやいじめに対処する部内規則を明らかにした。またこうしたハラスメントやいじめの報告を受けた場合に取られる調査や対処に関するプロセスも発表した。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ネットいじめに関するイギリスの大規模調査によると、InstagramとFacebookがいじめ最多の場所

イギリスのいじめ防止団体Ditch The Labe今年度の調査によると、2017年でネットいじめがもっとも多いサイトはInstagram、そしてFacebookが僅差で二位だ。今年の調査は12歳から20歳までの標本10020名の回答を集めたが、統計学的にはこれだけの標本数があれば、ネット上の有害な疫病の広がりの現状を、正確に反映したデータが得られたと言える。

いじめ被害の経験者の比率は、Instagramではユーザーの42%、Facebookでは37%、Snapchatでは31%だった。利用経験が92%と最大のYouTubeでは、いじめ経験は10%と比較的低い。

そのほかに、こんなデータもある:

  • 回答者の50%がいじめの被害を経験している。
  • 10%が、先週、いじめ被害を経験している。
  • いじめ被害経験者の50%は容姿についていじめられている。
  • いじめ被害経験者の24%が個人情報をネット上で共有している。
  • 27%が自分の意に反して写真やビデオを共有されている。
  • 18%が正しくないプロフィール情報を流布されている

この調査報告書には、いじめる側の心理に関する深い探究もある。調査はいじめを客観的に定義していないが、そんな主観的な回答において、回答者の12%が、誰かをいじめたことがある、と答えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

「Facebookでの安全」ページが50言語に拡大―「いじめ防止ハブ」もアップデート

2016-10-25-safety-center-page-002

Facebookは17億人のメンバーを有する世界最大のソーシャルネットワークだが、最近メディアとして強い批判を浴びる事件が起きている。Facebookではこれに対してユーザーがこのプラットフォームでの体験をさらに安全にするため、多数の新機能を追加中だ。

今日(米国時間10/24)、同社はFacebookでの安全(Safety Center)を全面的にアップデートし、世界の50言語で利用できるようにした。Facebookのユーザーはプライバシーをよりきめ細かく設定できるようになる。Facebookによれば「いじめ防止ハブ」は世界で60のNPO等と提携しており、さまざまなツールへのアクセスが容易になったという。

これらのパートナーにはChildnet InternationalConnect Safely(十代の青少年と保護者のためのオンライン・フォーラム)、Family Safety Online Instituteなどが含まれる。〔日本の場合、カタリバ、キッズドア、Re:incが提携先とされている。


このニュースが発表されたタイミングはいくつかの点で興味深い。1週間前にFacebookは投稿にあたっての禁止事項を多少緩和する ことを発表した。要するに、ニュース価値が認められる限り、一部のユーザーが不快に思うかもしれない露骨その他の内容であっても投稿可能になる。

また新しい「Facebookでの安全」ページの発表はライバルと目されていたソーシャルメディア、Twitterが1つだけでなく2つの買収候補を失った1週間後だった。大手企業がTwitter買収から手を引いた理由の一つはプラットフォーム上に蔓延するトロルとハラスメントをTwitterが効果的にコントロールできていないことだった。Twitterはこの点にもっと真剣に取り組む必要がある。

Facebookの安全センターはn 2010年4月ごろからある。「いじめ防止ハブ」も2013年に立ち上げられており、両方とも定期的にメンテナンスされてきた。場合によっては、特定のオンライン・ハラスメントやセキュリティー問題に対する回答という形でアップデートされることもあった。

今回Facebookはこうした安全対策ツールの利用を世界のユーザーに拡大した。こうした問題が英語圏のユーザーに限られないことをFacebook自身も認めたかたちだ。

Facebookのグローバル・セキュリティーの責任者、Antigone Davisは新しい安全センターはさらにモバイル・フレンドリーになったと書いている。 多くの国や地域でモバイルがFacebookの利用のメインのプラットフォームとなってきたことを考えるとこれは理にかなっている。安全センターは50ヶ国語に拡張され、Facebookのセキュリティー設定を適切に利用するための方法を解説するビデオも追加された。

「いじめ防止ハブ」が最初に登場したのは2013年で、FacebookはYale Center for Emotional Intelligenceと共同でこのプロジェクトを開発した。新バージョンは新らたな機能満載というわけではないが、Facebookは提携団体を60に増やし、このページの存在を広く知らせると同時に関係者にとってさらに使いやすいものにする努力を払っている。

Facebookでは近況の投稿の表示先を特定のグループに制限できるし、その方法もわかりやすく解説されている。これはツイートの公開先を制限できないというTwitterの重大な欠点を浮き彫りにするものだ。Twitterがこの点を改良するのは、まだ間に合うか手遅れか、という際どいところに来ていると思う。

Facebookは安全センターのアップデートを機に、5つの分野の分野に関してユーザーの注意を再度呼びかけている。

  1. Facebookは2段階認証機能を用意しているのでメンバーはできる限り利用すべきであること。新しいデバイスからFacebookをログインしようとすると予め登録した携帯電話経由で身元認証が行われる。
  2. 投稿が不快、ハラスメントなどの内容を含んでいる場合、「報告」機能(ほとんどすべての記事にリンクが付属する)を利用することを推奨(ただし報告の結果、Facebookがどのような措置を取ったかなどの報告はなされない)。
  3. Facebookでは利用体験を改善するために投稿が表示される相手を選ぶことを推奨している。公開範囲は「友達」、「親しい友達」など細かく設定できる。また友達、仕事、地域など適切な基準で相手を選んでカスタムリストを設定することができる。
  4. タグ付け、タイムライン表示の内容もカスタマイズできる。Facebookではこうした設定についても確認するよう勧めている。
  5. プラバシーセキュリティーのページにこうした設定方法がすべて説明されている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

新しい報告ツールで自傷行為や自殺問題に取り組むInstagram

instagram-icon-2016z

Twitterが蔓延するいじめや虐待と格闘し続けているのを横目に、Instagramはユーザーの安全を守るという仕事の階段を一段上った。Facebookが所有するこの写真共有ネットワークは、今週新しい報告ツールのロールアウトを開始した、友人の自傷行為投稿に匿名でフラグを立てる機能だ。これにより、Instagramから対象のユーザーへの問い合わせメッセージが促され、サポートの提供が行われる。そこではヘルプラインへのアクセスを含む、アプリの中からアクセス可能な手段が示される。

システム自体の利用は極めて簡単だが、多数の10代や若い成人の利用が続く、ソーシャルネットワーク上の真剣な必要性にアプローチするものだ。

友人が自傷行為や自殺に言及し苦しむ投稿を見たとき、そのことを相手との話題として持ち出すことに躊躇いを感じることもあるだろう。あるいは、掛けるべき言葉が見つからないかもしれない。また、あまり良く知っているわけではない(あるいは全く知らない)人のアカウントをフォローしている場合もあるだろう、そこでは自分が何か言う立場ではないと感じるような場合だ。

このときInstagramが代わりに別のオプションを提供してくれる。匿名でその投稿にフラグを付けることで、友人は以下のようなサポートメッセージを受け取る、「あなたの投稿の1つをみて、あなたが苦しんでいるのではないかと考えた人がいます。もしサポートが必要ならば、私たちがお手伝いしたいと思います」。

そして受信者は、クリックしてサポートオプションのリストを見ることができる。たとえば以下のようなアドバイスだ:友人の1人にメッセージをおくったり電話をしてみる、より一般的なヒントまたはサポートへのアクセスを試みる、あるいはヘルプラインへ連絡するなど ‐ これはユーザーのいる場所によって変化するが、世界中の40の組織がシステムのヘルプライン側にパートナーとして控えている。

同社はまた、新しいツールのために、National Eating Disorders Association(全国摂食障害協会)、Nancy Zucker博士(デューク大学の心理学ならびに神経科学の准教授)、そしてForefront(ワシントン大学のアカデミック研究者たちに率いられている)と協力している。そして他の組織、例えば米国のThe National Suicide Prevention Lifeline(全国自殺予防ライフライン)とSave.org、英国のSamaritans、豪州のbeyond blue and headspaceなども協力している。

更新された自己傷害フロー

Instagramのツールで興味深いのは、トリガーするのは匿名の報告だけではないということだ。Instagramアプリは、ユーザーがある種のハッシュタグを検索したとき、例えば検索禁止語である#thinspo(thinspiration : 摂食障害に関連している言葉)を検索した際にも、ユーザーをサポートメッセージへ導く。

虐待(そして自傷行為)への対処

この動きは、Instagramがそのネットワーク上での虐待行為を制限するために、最近行ったいくつかの変更の1つだ。9月には 誰でもコメント欄をカスタマイズ可能なブロックリストでフィルターすることができるようにしている ‐ すなわち、Instagramのコメント欄に露骨な言葉や、イジメのフレーズが並ぶことを禁止することができるようになったのだ。

このような手順は、コミュニティの雰囲気を確立するために重要なことだ。規制のない自由な発言は、匿名のイジメにつながっていく可能性がある – いまやTwitterの上ではそれが猛威をふるっていて、少なくともそれが買収企業を見つけるための妨げの一部になっている(伝えられるところによれば、その問題が原因でディズニーは買収をあきらめたようだ)。

自傷行為についての投稿はもちろん、いじめとは異なる問題だが、ユーザーの保護と安全という意味では大きな傘の下に収まるものである。

更新された自己傷害-ツール-1

彼らが確立しようとしているのは安心して共有ができるコミュニティだが、同時にある種の共有が潜在的な問題として取り扱われる場所でもある ‐ 誰かが他の誰かに向けて有害なコメントをしたり、誰かが自分自身に対して有害なコメントをするような場合だ。

この種のものに対する規制や方針を持っていないことは、危険な結果に繋がる可能性がある。例えば、10代のQ&Aネットワークは、かつてはイジメの巣窟として知られるようになり、連続する10代の自殺の要因の1つとみなされるようになった。

長年にわたり、主要なソーシャルメディア企業は、ユーザーを保護するためのより良い方法を提供するために、過去の悲劇から学んできた。支援機関の協力の下に、ユーザーが有害な用語を検索した際にPSA(Public Service Announcement:啓蒙広告の類)を流すメディアは多い ‐ Tumblr、Pinterest、そしてInstagramは皆そのような対処をしている 。そして今日では、ほとんどのメディアが自動化システムと人間のモデレーターそしてフラグツールの組み合わせを使って、ユーザーによるある種の用語やタグの検索(たとえば thinspoや自殺のような)から、ユーザーの投稿自身よってトリガーされる問題群までに対処している。

Screen Shot 2016-08-25 at 1.53.58 PM

Instagramの新しいフラグツールは、親会社のFacebookによって既に開発されていたものに倣ってデザインされているが、それはこの小さな会社が、Facebookが既に構築している自傷行為に関連した問題にアプローチするためのインフラによって、どのように助けられたかの例になっている。

昨年、 Facebookは、ほとんど同じツールを米国ユーザーのために立ち上げている。2016年の前半には世界中のユーザーに対しても展開された。

新しいツールの立ち上げに伴い、National Body Confidence Day(全国的に身体に信頼を寄せる日)に、Instagramは、身体イメージと自己自信に焦点を当てたキャンペーンのためにSeventeenと提携した。これは、現在ハッシュタグ#PerfectlyMeを使って運用されている。Seventeenの11月号には、身体への信頼と#PerfectlyMeを応援するための16ページの記事が掲載される。

*Instagramのこの報告機能は投稿の右上の「…」メニューから「報告する>不適切である>自傷行為」というメニューをたどればアクセスできる。

[ 原文へ ]
(翻訳:Sako)