Nachrichten

Kann ein Algorithmus Selbstmord verhindern?

Bei einem kürzlichen Besuch in der Veterans Affairs-Klinik in der Bronx erfuhr Barry, ein ausgezeichneter Vietnam-Veteran, dass er einem sehr exklusiven Club angehört. Nach einem neuen A. I.-unterstützten Algorithmus war er einer von mehreren hundert V. A.-Patienten im ganzen Land, von insgesamt sechs Millionen, die einem unmittelbaren Suizidrisiko ausgesetzt waren.

Die Nachricht überraschte ihn nicht völlig. Der 69-jährige Barry, der 1968 in der Tet-Offensive schwer verwundet worden war, hatte bereits zwei Versuche in seinem Leben unternommen. “Ich mag diese Idee einer Liste nicht, um die Wahrheit zu sagen – ein Computer, der mir so etwas erzählt”, sagte Barry, ein pensionierter Postangestellter, in einem Telefoninterview. Er bat darum, seinen Nachnamen aus Datenschutzgründen wegzulassen.

“Aber ich habe darüber nachgedacht”, sagte Barry. “Ich habe mich entschieden, weißt du, OK – wenn es mir mehr Unterstützung bringt, die ich brauche, dann bin ich damit einverstanden. ”

Seit mehr als einem Jahrzehnt beobachten Gesundheitsbeamte vergeblich, wie die Selbstmordraten stetig gestiegen sind – seit 2000 national um 30 Prozent – und die Raten im VA-System höher waren als in der allgemeinen Bevölkerung. Die Trends haben sich einer einfachen Erklärung widersetzt und Investitionen in die Blindanalyse getrieben: maschinelles Lernen oder von A. I. unterstützte Algorithmen, die medizinische und andere Aufzeichnungen nach Mustern durchsuchen, die historisch mit Selbstmorden oder Versuchen in großen klinischen Populationen verbunden waren.

Ärzte haben traditionell die Risiken von Patienten gemessen, indem sie frühere psychische Gesundheitsdiagnosen und Vorfälle von Drogenmissbrauch untersucht und auf Erfahrung und medizinischen Instinkt zurückgegriffen haben. Diese Bewertungen sind jedoch weit hinter den Prognosen zurückgeblieben, und die künstlich intelligenten Programme untersuchen viele weitere Faktoren wie Beschäftigung und Familienstand, körperliche Beschwerden, Verschreibungshistorie und Krankenhausbesuche. Diese Algorithmen sind Black Boxes: Sie kennzeichnen eine Person mit einem hohen Selbstmordrisiko, ohne eine Begründung zu liefern.

Aber die menschliche Intelligenz ist bei dieser Aufgabe nicht unbedingt besser. “Tatsache ist, wir können uns nicht auf ausgebildete medizinische Experten verlassen, um Menschen zu identifizieren, die wirklich einem hohen Risiko ausgesetzt sind”, sagte Dr. Marianne S. Goodman, Psychiaterin beim Veterans Integrated Service Network in der Bronx und klinische Professorin für Medizin an der Icahn School of Medicine am Berg Sinai. “Wir sind nicht gut darin. ”

Die Bereitstellung von A. I. auf diese Weise ist nicht neu. Forscher sammeln seit 1996 Daten über Selbstmorde über den National Health Service in Großbritannien. Die US-Armee, Kaiser Permanente und das Massachusetts General Hospital haben jeweils separat einen Algorithmus zur Vorhersage des Selbstmordrisikos entwickelt. Das Programm von V. A. mit dem Namen Reach Vet, bei dem Barry als gefährdet eingestuft wurde, ist jedoch das erste der neuen US-amerikanischen Systeme, das in der täglichen klinischen Praxis eingesetzt wird, und wird genau beobachtet. Wie diese Systeme funktionieren – ob sie Leben retten und zu welchen Kosten, sozial und finanziell – wird dazu beitragen, festzustellen, ob die digitale Medizin ihr Versprechen einhalten kann.

“Es ist ein kritischer Test für diese Big-Data-Systeme”, sagte Alex John London, Direktor des Zentrums für Ethik und Politik an der Carnegie Mellon University in Pittsburgh. „Wenn diese Dinge zum Beispiel eine hohe Rate an Fehlalarmen aufweisen, markiert dies viele Menschen mit hohem Risiko, die dies nicht sind – und das damit verbundene Stigma könnte tatsächlich stromabwärts schädlich sein. Wir müssen sicher sein, dass diese Risikoflaggen dazu führen, dass Menschen besser oder besser helfen und nicht irgendwie bestraft werden. ”

Der Algorithmus von V. A. wird kontinuierlich aktualisiert und generiert jeden Monat eine neue Liste von Veteranen mit hohem Risiko. Einige Namen bleiben monatelang auf der Liste, andere fallen ab. Wenn eine Person markiert ist, wird ihr Name im Computer-Dashboard des Reach Vet-Koordinators der örtlichen Klinik angezeigt, der anruft, um einen Termin zu vereinbaren. Der Arzt des Veteranen erklärt, was die Bezeichnung mit hohem Risiko bedeutet – es ist ein Warnzeichen, keine Prognose – und stellt sicher, dass die Person einen Selbstmord-Sicherheitsplan hat: Alle Waffen und Munition werden separat aufbewahrt. dass Fotos von geliebten Menschen sichtbar sind; und dass Telefonnummern von Freunden, Sozialarbeitern und Selbstmord-Hotlines zur Verfügung stehen.

Ärzte, die mit Reach Vet zusammengearbeitet haben, sagen, dass das System unerwartete Ergebnisse liefert, sowohl bei denen es markiert als auch bei wem nicht.

Für einige seiner Therapeuten sah der 36-jährige Chris, der im Irak und in Afghanistan stationiert war, jemandem sehr ähnlich, der auf dem Radar stehen sollte. Er war ein Marine-Schütze gewesen und hatte in drei seiner vier Touren Kämpfe gesehen, bei denen er in mehreren Gefechten schweres Feuer nahm und zurückgab. Im Jahr 2008 verletzte eine Bombe am Straßenrand mehrere seiner Freunde, ließ ihn jedoch unversehrt. Nach dem Angriff hatte er anhaltende Albträume und erhielt die Diagnose eines posttraumatischen Stresses. Im Jahr 2016 hatte er eine Selbstmordepisode; Er bat darum, seinen Nachnamen wegzulassen, um seine Privatsphäre zu schützen.

„Ich erinnere mich, dass ich unter die Dusche gegangen bin, herausgekommen bin und meine Waffe gepackt habe“, sagte er in einem Interview in seinem Haus in der Nähe von New York City. „Ich hatte einen Glock 9 Millimeter. Für mich liebe ich Waffen, sie sind wie eine Sicherheitsdecke. Als nächstes wache ich in kaltem Wasser auf, sitze in der Wanne, die Waffe sitzt genau dort, aus dem Holster. Ich wurde schwarz. Ich meine, ich habe keine Ahnung, was passiert ist. Es stellte sich heraus, dass die Waffe keine Kugeln enthielt. ”

Der stärkste Risikofaktor für Selbstmord ist ein früherer Versuch, insbesondere einer mit einer Waffe. Chris ‘Name ist jedoch nicht auf der von A. I. zusammengestellten Hochrisikoliste aufgetaucht, und er glaubt nicht, dass dies jemals der Fall sein wird.

“Zu der Zeit, im Jahr 2016, ging ich für einen Master zur Schule und arbeitete Vollzeit”, sagte er. „Unsere beiden Kinder waren Kleinkinder; Ich habe nicht mehr als ein paar Stunden pro Nacht geschlafen, wenn das so ist. Es war zu viel. Mir war die ganze Zeit der Schlaf entzogen. Ich war nie selbstmordgefährdet gewesen, hatte nie Selbstmordgedanken gehabt; Es war eine total impulsive Sache. ”

Der A. I. hinter Reach Vet scheint andere Risikofaktoren zu berücksichtigen, sagte Dr. Goodman: “Die Dinge, die dieses Programm aufgreift, wären nicht unbedingt die, über die ich nachgedacht habe. Die Analysen beginnen unser Verständnis darüber zu ändern, wer am stärksten gefährdet ist. ”

Der Algorithmus basiert auf einer Analyse von Tausenden früherer Selbstmorde in der VA-Datenbank aus dem Jahr 2008. Der Computer mischt und mischt zahlreiche Fakten aus den Krankenakten – Alter, Familienstand, Diagnosen, Verschreibungen – und Abrechnungen auf die Faktoren, die zusammen am stärksten mit dem Suizidrisiko verbunden sind. Das V. A.-Modell integriert insgesamt 61 Faktoren, einschließlich einiger nicht offensichtlicher Faktoren wie Arthritis und Statinkonsum, und erstellt für jede Person einen zusammengesetzten Score. Diejenigen, die ganz oben im Bereich punkten – die besten 0,1 Prozent -, werden als risikoreich eingestuft.

“Die Risikokonzentration für Personen unter den besten 0,1 Prozent in dieser Hinsicht betrug etwa das 40-fache”, sagte John McCarthy, Direktor für Daten und Überwachung, in Suicide Prevention im VA Office of Mental Health and Suicide Prevention. “Das heißt, sie starben 40 Mal häufiger an Selbstmord” als die durchschnittliche Person.

Bridget Matarazzo, die Leiterin der klinischen Dienste des Rocky Mountain Mental Illness Research Education und des Clinical Center for Veteran Suicide Prevention, sagte über Reach Vet. “Mein Eindruck ist, dass es einige Leute identifiziert, die zuvor auf dem Radar der Anbieter waren, aber auch andere, die es nicht waren.” ”

Ende 2018 präsentierte ein von Dr. McCarthy geführtes V. A.-Team die ersten Ergebnisse des Reach Vet-Systems. Während eines Zeitraums von sechs Monaten, in dem Reach Vet eingesetzt wurde, haben Hochrisikoveteranen ihre Nutzung von V. A.-Diensten mehr als verdoppelt. Im Gegensatz dazu blieb in einer Vergleichsgruppe, die sechs Monate vor der Installation von Reach Vet verfolgt wurde, die Nutzung von V. A.-Diensten in etwa gleich.

Die Reach Vet-Gruppe hatte in dieser Zeit auch eine niedrigere Sterblichkeitsrate – obwohl es sich um eine Gesamtrate handelte, einschließlich aller Todesursachen. Die Analyse ergab zumindest bis zu diesem Zeitpunkt keinen Unterschied bei den Selbstmorden. “Es ist ermutigend, aber wir müssen noch viel mehr tun, um zu sehen, ob wir die gewünschte Wirkung erzielen”, sagte Dr. McCarthy.

Ronald Kessler, Professor für Gesundheitswesen und Politik an der Harvard Medical School, sagte: “Derzeit sagen dieses und andere Modelle voraus, wer dem höchsten Risiko ausgesetzt ist. Was sie Ihnen nicht sagen, ist, wer am wahrscheinlichsten von einer Intervention profitiert. Wenn Sie das nicht wissen, wissen Sie nicht, wo Sie Ihre Ressourcen ablegen sollen. ”

Für Ärzte, die das System verwenden, hat es jedoch bereits zu einem Umdenken bei der Risikobewertung geführt. “Am Ende haben Sie viele ältere Männer, die wirklich mit medizinischen Problemen zu kämpfen haben”, sagte Dr. Goodman. “Sie sind leise unglücklich, haben Schmerzen, oft allein, mit finanziellen Problemen, und Sie sehen sie nicht, weil sie nicht hereinkommen.”

Und für diejenigen, deren Namen auf der Liste von Reach Vet aufgetaucht sind, ist die Erfahrung, identifiziert und kontaktiert zu werden, nicht leicht zu vergessen.

Barry, der Vietnam-Veteran, sagte, er sei vorerst an einem relativ guten Ort. Er steht seinen beiden erwachsenen Kindern nahe und wird regelmäßig in der Bronx V. A. betreut, einschließlich Einzel- und Gruppentherapie sowie Medikamenten gegen wiederkehrende psychotische Episoden. Er ist sich aber auch bewusst, wie schnell es dunkel werden kann.

“Schau, ich weiß, ich rede manchmal nachts mit mir selbst und ich höre Stimmen”, sagte er. “Die Medikamente funktionieren gut, aber hin und wieder tun sie es nicht, und das ärgert sie, die Stimmen. Und das ist nicht gut für mich. ”

[ Wie die Science Times-Seite auf Facebook. | Melden Sie sich für die Newsletter der Science Times.]

İlgili Makaleler

Bir cevap yazın

Başa dön tuşu