非営利Tech集団「ZIAI」がAIを活用したSNS自殺関連キーワード検知システムのβ版をリリース

非営利Tech集団「ZIAI」がAIを活用したSNS自殺関連キーワード検知システムのβ版をリリース

任意団体NPO「ZIAI」は1月13日、SNS上に投稿された自殺関連キーワードを自動で収集し、アカウント名や投稿内容を整理して一覧化、ワンクリックで該当者へのアプローチを可能にする自殺検知システムのβ版をリリースしたと発表した。

令和元年の自殺者総数から逆算すると、日本では毎日55人が自殺しており、自殺死亡率(人口10万人あたりの自殺者数)もG7中で最下位という。特に10代後半から20代の男女では、死亡原因の第1位が自殺という状況が続き、自殺による経済損失は年間数千億円にのぼるとされる。

その対策として、現在の日本では、自殺に関連するキーワードを主要インターネットメディアに記載・検索・投稿すると、厚生労働省や関係NGO、各地域の相談窓口が自動的に表示されるものの、これらはいわゆる「プル型」の仕組みとなっている。

政府としてもSNSを活用したオンライン相談の取り組みを強化しているものの、年間53万人とされる自殺未遂者の推計に対し、年間のSNS相談件数は約2万件、つまり全体の4%に過ぎないという。

ZIAIは、SOSを受け身で待つのではなく、社会からその声を拾い上げる「プッシュ型」の仕組みが必要不可欠としている。

AI自殺検知システムは、インターネット上の自殺関連投稿データをリアルタイムで自動収集し、ハイリスク者に対して連絡を行う。アカウント名や投稿内容を整理して一覧化し、AIアルゴリズムとプロのカウンセラーの視点を掛け合わせ、ハイリスク者と判定された方のみにワンクリックでメッセージを送ることが可能。

今後はオンライン相談を実施する関連NGOや教育・医療機関と連携し、返信者に対するオンライン・オフライン双方での介入を進めることで、社会からSOSの声を拾い上げる世界の実現を目指す。

非営利Tech集団「ZIAI」がAIを活用したSNS自殺関連キーワード検知システムのβ版をリリース

ZIAIは、自分を殺すのではなく、自分を愛せる社会を創ることをミッションとした非営利Tech集団。ハイリスク者の感性分析によるアルゴリズム開発やSNS自殺検知システム開発など、テクノロジーを軸にした自殺予防の仕組み作りを行っている。

メンバーは社会起業家やスタートアップのCTO、海外在住のデータサイエンティストなど、それぞれが本業を持つスペシャリストで構成されている。

自殺行為自体を未然に防ぐことは、この問題の根本的解決ではなく、それに至った背景や原因を取り除いて初めてその対象者にとって意味のある活動になるという。今後もZIAIは、テクノロジーを軸に、国や地方自治体、医療や教育機関、NGOとの有機的な連携を促進し、自殺念慮(死にたい気持ち)を予防するための解決策を模索し続けるとしている。

関連記事
2021年に最優先すべきはパンデミックから精神的に立ち直るための技術
自分だけのAIライフパートナーと対話できる「PATONA」アプリのCapexが総額1億円を調達
AIが思考と感情を分析しメンタルケア手法「ジャーナリング」を支援するmuuteアプリ
コロナ禍で急成長の瞑想アプリ「Calm」が日本上陸、日本語オリジナルコンテンツも提供開始
Facebookライブにアップされた自殺動画の拡散防止に失敗した各SNSの理由
チャット相談サービス「メンヘラせんぱい」がキャバ嬢と臨床心理士に相談できる新プランを提供
Daybreak Healthが10代向けオンラインメンタルヘルス治療を開始
メンタルヘルスをタブー視するアジアの文化に挑むIntellect
Netflixがメンタルヘルス関連の若者向けインスタライブシリーズを開始
Redditが精神的に追いつめられた人をサポートするメンタルヘルスのCrisis Text Lineと提携
瞑想の医学的有効性を証明するためHeadspaceが100億円調達

カテゴリー:パブリック / ダイバーシティ
タグ:いじめAI / 人工知能(用語)自殺自殺防止自傷行為メンタルヘルス(用語)日本(国・地域)

新しい報告ツールで自傷行為や自殺問題に取り組むInstagram

instagram-icon-2016z

Twitterが蔓延するいじめや虐待と格闘し続けているのを横目に、Instagramはユーザーの安全を守るという仕事の階段を一段上った。Facebookが所有するこの写真共有ネットワークは、今週新しい報告ツールのロールアウトを開始した、友人の自傷行為投稿に匿名でフラグを立てる機能だ。これにより、Instagramから対象のユーザーへの問い合わせメッセージが促され、サポートの提供が行われる。そこではヘルプラインへのアクセスを含む、アプリの中からアクセス可能な手段が示される。

システム自体の利用は極めて簡単だが、多数の10代や若い成人の利用が続く、ソーシャルネットワーク上の真剣な必要性にアプローチするものだ。

友人が自傷行為や自殺に言及し苦しむ投稿を見たとき、そのことを相手との話題として持ち出すことに躊躇いを感じることもあるだろう。あるいは、掛けるべき言葉が見つからないかもしれない。また、あまり良く知っているわけではない(あるいは全く知らない)人のアカウントをフォローしている場合もあるだろう、そこでは自分が何か言う立場ではないと感じるような場合だ。

このときInstagramが代わりに別のオプションを提供してくれる。匿名でその投稿にフラグを付けることで、友人は以下のようなサポートメッセージを受け取る、「あなたの投稿の1つをみて、あなたが苦しんでいるのではないかと考えた人がいます。もしサポートが必要ならば、私たちがお手伝いしたいと思います」。

そして受信者は、クリックしてサポートオプションのリストを見ることができる。たとえば以下のようなアドバイスだ:友人の1人にメッセージをおくったり電話をしてみる、より一般的なヒントまたはサポートへのアクセスを試みる、あるいはヘルプラインへ連絡するなど ‐ これはユーザーのいる場所によって変化するが、世界中の40の組織がシステムのヘルプライン側にパートナーとして控えている。

同社はまた、新しいツールのために、National Eating Disorders Association(全国摂食障害協会)、Nancy Zucker博士(デューク大学の心理学ならびに神経科学の准教授)、そしてForefront(ワシントン大学のアカデミック研究者たちに率いられている)と協力している。そして他の組織、例えば米国のThe National Suicide Prevention Lifeline(全国自殺予防ライフライン)とSave.org、英国のSamaritans、豪州のbeyond blue and headspaceなども協力している。

更新された自己傷害フロー

Instagramのツールで興味深いのは、トリガーするのは匿名の報告だけではないということだ。Instagramアプリは、ユーザーがある種のハッシュタグを検索したとき、例えば検索禁止語である#thinspo(thinspiration : 摂食障害に関連している言葉)を検索した際にも、ユーザーをサポートメッセージへ導く。

虐待(そして自傷行為)への対処

この動きは、Instagramがそのネットワーク上での虐待行為を制限するために、最近行ったいくつかの変更の1つだ。9月には 誰でもコメント欄をカスタマイズ可能なブロックリストでフィルターすることができるようにしている ‐ すなわち、Instagramのコメント欄に露骨な言葉や、イジメのフレーズが並ぶことを禁止することができるようになったのだ。

このような手順は、コミュニティの雰囲気を確立するために重要なことだ。規制のない自由な発言は、匿名のイジメにつながっていく可能性がある – いまやTwitterの上ではそれが猛威をふるっていて、少なくともそれが買収企業を見つけるための妨げの一部になっている(伝えられるところによれば、その問題が原因でディズニーは買収をあきらめたようだ)。

自傷行為についての投稿はもちろん、いじめとは異なる問題だが、ユーザーの保護と安全という意味では大きな傘の下に収まるものである。

更新された自己傷害-ツール-1

彼らが確立しようとしているのは安心して共有ができるコミュニティだが、同時にある種の共有が潜在的な問題として取り扱われる場所でもある ‐ 誰かが他の誰かに向けて有害なコメントをしたり、誰かが自分自身に対して有害なコメントをするような場合だ。

この種のものに対する規制や方針を持っていないことは、危険な結果に繋がる可能性がある。例えば、10代のQ&Aネットワークは、かつてはイジメの巣窟として知られるようになり、連続する10代の自殺の要因の1つとみなされるようになった。

長年にわたり、主要なソーシャルメディア企業は、ユーザーを保護するためのより良い方法を提供するために、過去の悲劇から学んできた。支援機関の協力の下に、ユーザーが有害な用語を検索した際にPSA(Public Service Announcement:啓蒙広告の類)を流すメディアは多い ‐ Tumblr、Pinterest、そしてInstagramは皆そのような対処をしている 。そして今日では、ほとんどのメディアが自動化システムと人間のモデレーターそしてフラグツールの組み合わせを使って、ユーザーによるある種の用語やタグの検索(たとえば thinspoや自殺のような)から、ユーザーの投稿自身よってトリガーされる問題群までに対処している。

Screen Shot 2016-08-25 at 1.53.58 PM

Instagramの新しいフラグツールは、親会社のFacebookによって既に開発されていたものに倣ってデザインされているが、それはこの小さな会社が、Facebookが既に構築している自傷行為に関連した問題にアプローチするためのインフラによって、どのように助けられたかの例になっている。

昨年、 Facebookは、ほとんど同じツールを米国ユーザーのために立ち上げている。2016年の前半には世界中のユーザーに対しても展開された。

新しいツールの立ち上げに伴い、National Body Confidence Day(全国的に身体に信頼を寄せる日)に、Instagramは、身体イメージと自己自信に焦点を当てたキャンペーンのためにSeventeenと提携した。これは、現在ハッシュタグ#PerfectlyMeを使って運用されている。Seventeenの11月号には、身体への信頼と#PerfectlyMeを応援するための16ページの記事が掲載される。

*Instagramのこの報告機能は投稿の右上の「…」メニューから「報告する>不適切である>自傷行為」というメニューをたどればアクセスできる。

[ 原文へ ]
(翻訳:Sako)