精神衛生のクライシスにさいなまれている人への対処について
We’ve sent mixed messages over the past week about our policies and processes when a Bluesky user is in a mental health crisis, and want to clarify how we handle these situations.
Content Warning: self-harm. Expand thread to continue reading.
Our general approach is to support people in a mental health crisis to continue interacting and communicating using the app, in the hope that they can receive support and resources from peers in the network. This includes posts containing suicidal ideation.
We apply content warnings to content which would be disturbing or triggering to others, and may reach out to the user privately with additional resources.
There are limits to this approach, and our moderation team has leeway in decision making. For example, graphic images, repeated distinct crises despite attempted support, or coercive pressuring of other parties can result in temporary account suspensions or other interventions.
We aim to be consistent in our decisions, but each situation is unique and nuanced. We have handled several serious incidents to date. We review them periodically in consultation with external subject experts, and expect to refine our policies and interventions over time.
この1週間、Blueskyユーザーが精神衛生上の危機に陥った場合の当社の方針とプロセスについて、さまざまなメッセージを発信してきました。
内容に関する警告:自傷行為 続きを読むにはスレッドを展開してください。
私たちの一般的なアプローチは、メンタルヘルスに危機的な状況にある人が、ネットワーク内の仲間からサポートやリソースを受けられることを期待して、アプリを使って交流やコミュニケーションを続けることをサポートすることです。これには自殺念慮を含む投稿も含まれます。
私たちは、他の人を不安にさせたり、誘発したりするようなコンテンツにはコンテンツ警告を適用し、追加リソースをユーザーに個人的に連絡することがあります。
このアプローチには限界があり、私たちのモデレーション・チームには判断の余地があります。例えば、生々しい画像や、サポートを試みたにもかかわらず明確な危機を繰り返したり、他の当事者に強制的な圧力をかけたりした場合は、一時的なアカウント停止やその他の介入を行うことがあります。
私たちは一貫した判断を目指していますが、それぞれの状況はユニークで微妙です。私たちはこれまでにいくつかの深刻な事態に対処してきました。外部の専門家と相談しながら定期的に見直し、時間の経過とともに方針と介入方法を改善していく予定です。