Redditが精神的に追いつめられた人をサポートするメンタルヘルスのCrisis Text Lineと提携

意見を交わすためのウェブサイトで、何千ものコミュニティを擁するRedditは今週、メンタルヘルスサービスのCrisis Text Lineと新たに提携したことを発表した。Crisis Text Lineは自殺を考えている人や自傷する人など、精神的に追い詰められている人を年中いつでもサポートするメンタルヘルスのためのテキストラインだ。今回の提携で、Redditユーザーは誰かの投稿に悩みや危機感がにじんでいるのに気づいたら、その人にフラグを立てることができる。するとフラグが立てられたユーザーにはリソースやカウンセラーにつながるヘルプラインを紹介するプライベートメッセージが送られる。

昔のヘルプラインは電話をしなければならなかったが、Crisis Text Lineではテキストでやりとりする。スマートフォンとともに育った世代、あるいは電話に対して恐怖感を持つ人に好まれるコミュニケーション手法だ。

利用には、番号741741に「CHAT」という文言をテキストを送る。すると、必要なだけカウンセラーとテキストでやりとりできるようになる。カウンセラーはその人が気持ちや考えを落ち着かせるのを手伝ったりするほか、質問をしたり、共感を示したり、話を積極的に聞いたりする。

フラグを立てた人も、そうした行動が引き金になりえることから同じサービスを通じてサポートを受けられる。

投稿やコメントを報告するには、「誰かが自殺や深刻な自傷を考えています」というオプションを投稿から直接選択できるようになっている。また、直接相手のプロフィールにいき、「彼らを手助けし、サポートする」を選ぶこともできる(Webではこの機能は「追加のオプション」内にある)。

Redditはまた、たとえ多くの人がフラグを立てて投稿をレポートした場合でも、つらく厳しい状態に置かれて人が立て続けにメッセージを受け取ることがないようにする、ともしている。「エラーでメッセージを受信」を報告するリンクもあり、Redditはこの機能の乱用もモニターできる。

Crisis Text Lineは、これまで全ケースの30%のみが自殺についてのものだ、という。カウンセリングが状況を段階的に落ち着かせることができているため、「積極的な救助」は会話の0.82%をにすぎないとのことだ(積極的な救助では、対象者の電話番号が911に提供される)。また、そうした状況にならない限り、カウンセラーは相手の電話番号を知ることもなければ、電話をかけることもない(電話番号は暗号化されている)。

Redditは、自社のプラットフォームが頻繁にサポートに利用されていることからCrisis Text Lineとの提携を決めた。今日では、Redditユーザーが難題に直面した時に助けを求められる数多くのフォーラムを提供する。例えば喫煙や禁酒、妊娠、不安・鬱の解消などについてだ。また、 r/KindVoicer/CasualConversationなど話し相手を見つけることだけに特化したコミュニティもある、とRedditは話す。

「Redditでは、自分に関係する無数のトピックについてのコミュニティを探すことができる。匿名のプラットフォームとして、自身の最も弱い部分をさらけだすためのスペースを人々に提供する」とRedditは発表文で述べている。

もちろん、こうしたコミュニティを主催するのであれば、Redditはユーザーに対し、安全とレポート機能を確保する責務を負う。

「ユーザーが安心感や24時間いつでもコミュニティにサポートされていることを感じられるRedditとの提携をうれしく思う」とCrisis Text Lineの共同創業者でチーフデータサイエンティストのBob Filbin(ボブ・フィルビン)氏はいう。「ユーザーがいつでも信頼できるメンタルヘルスリソースにアクセスできるようにすることで、Redditはオンラインセーフティ分野で思慮深いリーダーであることを証明した」

[原文へ]

(翻訳:Mizoguchi

Facebookの自殺防止ツールが多言語化、プライバシー保護とのバランスが難しい

shutterstock_239105020

Facebookが、その自殺防止ツールをアップデートし、今それを全世界で利用できるようにしている。

友だちからの投稿が自損行為や自殺を示唆していたら、このツールを使って警告/警報できる。前は英語のみで、そのほかのユーザーは特定のフォームを使う必要があった。しかしアップデートされたツールでは、その過程が迅速になり、そして簡単になった。

Facebookが発表で言っているのは、まず、自殺防止のためのリソースが、このプラットホームがサポートしているすべての言語で利用できることだ。同社の安全性部門のグローバル担当Antigone Davisと、研究員のJennifer Guadagnoが、このツールは“精神衛生に関する諸団体との共同開発であり、また自損や自殺を過去に経験した人びとから得た情報を活用している”、と書いている。

ツールはまず昨年、一部のアメリカのユーザーが利用できるようになり、Forefront, Lifeline, Save.orgなどが支援した。Facebookによると、同社は今後も世界各国の自殺防止および精神衛生関連の団体との協力関係を維持する。

もうすぐ、世界中どこのユーザーでも、ドロップダウンメニューから、自損や自殺で悩んでいそうな友だちの投稿に警報できる。その際に付けられるオプションには、自殺防止団体の相談電話番号など関連リソースのリスト(匿名でシェアできる)や、お助けメッセージがある(Facebookが文案を提供している)。

その投稿を、Facebookのグローバルコミュニティチームがレビューすることもある。そして彼らが、“その人に連絡して助けになりそうな情報を提供する”、とそのHelp Centerが言っている。今まさに自損行為に及びそうなときには、Facebookは警察への連絡を忠告している。

Facebook-suicide-prevention

Facebookの自殺防止ツールは実際に命を救うこともありえるだろうし、あるいは少なくとも重要な問題への気づきを喚起するだろう。自殺率は世界的に増加傾向にあり、多くの国で公衆衛生上の問題になっている。アメリカではここ30年間自殺率が過去最高で、とくに、男性は全年齢層、女性は45〜64歳の層で多い。

Facebookの月間アクティブユーザー数は今や16億5000万人にもなるが、同社は自殺の防止とプライバシーへの配慮のあいだで、バランスを取らなければならない。とくに、Facebookの投稿が心理学者たちのための貴重なデータと見なされるようになってから、この問題が顕在化してきた。Facebook自身も、2014年には、ユーザーに対し心理学的な実験を行ったとして、謝罪せざるを得ない状況に追い込まれた。

2014年の秋にはイギリスのチャリティ団体Samaritansが、その自殺防止アプリをローンチからわずか1週間後に取り下げた。それは友だちのTwitterフィードを見て鬱(うつ)の兆候を感知する、というものだったが、プライバシーの問題や、‘ネットいじめ’による悪用が懸念された。

この、人助けとプライバシーの尊重との均衡について、本誌TechCrunchは今Facebookに、同社の考えを問い合わせ中だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))