„Facebook will Leben retten“

Anfang letzten Jahres konnte die ganze Welt den Suizid einer jungen Frau in Bangkok verfolgen. Über ein Facebook Live-Video teilte sie ihren Kummer über die Trennung von ihrem Freund mit und nahm sich kurz darauf das Leben. Jede Hilfe von alarmierten Zuschauerinnen und Zuschauern kam zu spät.

Jährlich sterben weltweit ca. 800.000 Menschen an Selbstmord oder Suizidversuchen. Insbesondere in den letzten Jahren berichten immer mehr englischsprachige Medien über suizidale Handlungen, die auf Onlineplattformen geteilt werden. Dieser schockierende Trend bescherte Instagram, Facebook und Co. natürlich einen Imageschaden, auf den Facebook mit mehreren Maßnahmen zur Suizidprävention reagierte. Zuerst wurde die Funktion für Nutzerinnen und Nutzer eingeführt, gefährdete Freunde zu melden, sodass Facebook darauf mit Hilfsangeboten reagieren konnte. Seit 2017 setzt die Plattform nun einen eigenen Algorithmus ein, der gefährdete Profile erkennen soll. Verdächtige Posts mit Kommentaren von Userinnen und Usern wie „Sag mir wo du bist?“ oder „Hat jemand von ihm bzw. ihr gehört?“ sollen dabei helfen, suizidgefährdete Personen ausfindig zu machen. Ebenfalls codiert werden Tageszeiten und Wochentage der Posts, da laut Forschungsergebnissen beispielsweise sonntagmorgens häufiger suizidale Gedanken geäußert werden.

Herbst/Winter/trübe Jahreszeit: junge Frau sitzt auf einer Fensterbank und guckt nachdenklich hinaus © pixabay.com
pixabay.com

Hat der Algorithmus Alarm geschlagen, werden die gesammelten Informationen von geschulten Prüferinnen und Prüfern empfangen. Sie versuchen dann mit der suizidgefährdeten Person Kontakt aufzunehmen und schicken Hilfsangebote von Beratungsstellen. Gegebenenfalls werden auch Psychologen, die Polizei oder der Notdienst verständigt. Laut Mark Zuckerberg wäre es mit Hilfe des Tools schon zu 3.500 Einsätzen von Ersthelfern gekommen, doch offizielle Studien dazu finden sich noch nicht.

Nach mehreren Tests des Systems wurde die Präventionsmaßnahme nun weltweit eingeführt – außer in der EU, denn hier werden immer mehr Stimmen laut, die den Algorithmus als massiven Eingriff in die Privatsphäre der Nutzerinnen und Nutzer entlarven. Ethikexpertinnen und -experten kritisierten vor allem die fehlende Einwilligung der Nutzerinnen und Nutzer. „Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar“, erklärte Christiane Woopen, die Vorsitzende der Europäischen Ethikkommission in Köln. Der Paderborner Informatiker und Philosoph Tobias Matzner bemerkte außerdem den Mangel an „öffentlich nachvollziehbaren Kriterien“.

Doch könnte es bei zu starker Transparenz auch zu einem Missbrauch des Tools durch Nutzerinnen und Nutzer kommen, die sich einen Spaß erlauben wollen. Im schlimmsten Fall werden dann Behörden an gar nicht suizidgefährdete Personen geschickt, was sich negativ auf Betroffene und Angehörige auswirken könnte. Im amerikanischen Wissenschaftsmagazin Annal of Internal Medicine betonen zwei Wissenschaftler, dass Facebook hiermit versucht, einen Beitrag zur Gesundheit zu leisten und sich daher auch rechtlich den Regeln klinischer Forschung unterwerfen muss. Dies hieße vor allem erst einmal eine öffentliche Evaluation, inwiefern das Tool überhaupt mehr Erfolge als Misserfolge erzielt.

Facebook gewinnt außerdem nicht nur positive Publicity, sondern noch mehr persönliche Daten über Nutzerinnen und Nutzer als ohnehin schon. Vorstellbar wäre laut Matthias Spielkamp von Algorithm Watch auch, dass in Zukunft gezielte Werbung für stimmungshebende Substanzen und Medikamente an die als gefährdet erkannten Userinnen und User gerichtet wird. Dies hätte verheerende Folgen und könnte zu Substanzmissbrauch oder Intoxikationen führen.

Dennoch ist die Idee an sich innovativ und könnte dazu beitragen, dass mehr junge Menschen erreicht werden, die über Selbstmord nachdenken oder diesen planen. Da Depressionen und Suizid immer noch ein „Tabuthema“ darstellen, trauen sich viele junge und auch ältere Menschen nicht, sich aktiv Hilfe zu suchen. Doch damit das Facebook-Tool auch in Deutschland eingesetzt werden darf, müssen grundlegende Anforderungen an Privatsphäre, Datenschutz und transparente Verfahren erfüllt werden.

***

Fühlen Sie sich in einer verzweifelten Situation und benötigen Unterstützung? Versuchen Sie mit anderen Menschen darüber zu sprechen. Es gibt viele Hilfsangebote, an die Sie sich auch anonym wenden können. Zum Beispiel die Telefonseelsorge, die rund um die Uhr kostenlos und absolut anonym (nicht auf der Telefonrechnung verzeichnet) unter 0 800 / 111 0 111 und 0 800 / 111 0 222 erreichbar ist. Sie bieten auch einen Hilfe-Chat und eine E-Mail-Beratung.

Über Chiara Swenson

Chiara Swenson studierte Medien- und Kommunikationswissenschaft sowie Psychologie. Vor ihrem Studium besuchte sie eine Kunstschule in Leipzig und lernte die Grundlagen des Kommunikationsdesigns, der Fotografie und Malerei. Anschließend absolvierte sie ein Praktikum im Bereich Bild- und Onlineredaktion. Ihr Interesse gilt vor allem der visuellen Kommunikation und der Medienwirkungsforschung.