Anonim

Künstliche Intelligenz (KI) gewinnt in der Medizin zunehmend an Aufmerksamkeit und Popularität, und die Psychiatrie ist keine Ausnahme. Es bleibt jedoch abzuwarten, ob die KI ihr Versprechen einhält und die Diagnose und Behandlung von psychischen Erkrankungen verbessert.

KI ist das allgemeine Konzept zur Schaffung von Expertensystemen zur Ausführung verschiedener Arten von Aufgaben, und maschinelles Lernen (ML) ist eine Teilmenge der KI mit statistischen Systemen, die Merkmale der Daten lernen, die eine interessierende Variable vorhersagen, erklärte Peter Foltz, PhD, Forschungsprofessor am Institut für Kognitionswissenschaft der Universität von Colorado in Boulder.

Ein Grund für das wachsende Interesse an KI ist die "enorme Bandbreite" potenzieller Anwendungen, die es bietet, sagte Dr. John Krystal, Professor und Vorsitzender der Abteilung für Psychiatrie an der medizinischen Fakultät der Yale University in New Haven, Connecticut.

"KI kann uns helfen, Gehirnscans in der Forschung besser zu analysieren, die Struktur genomischer Informationen besser zu verstehen, Menschen zu identifizieren, bei denen ein Risiko für schlechte Ergebnisse wie Selbstmord besteht, die Art und Weise zu verbessern, wie wir Ressourcen zuweisen, vorherzusagen, wer von angereichertem Psychosozialem profitieren wird und wer nicht." Unterstützung, Anleitung bei der Auswahl von Medikamenten und Fernüberwachung von Risikopatienten ", sagte Krystal gegenüber Medscape Medical News.

Während einige Ärzte befürchten, dass KI und ML sie letztendlich ersetzen könnten, stellte Foltz fest, dass KI nicht dazu gedacht ist, Ärzte zu ersetzen, sondern die klinische Praxis zu verbessern.

Eine kürzlich durchgeführte Umfrage unter 791 Psychiatern aus 22 Ländern ergab, dass 50% der Befragten voraussagten, dass ihre Arbeit durch AI / ML "erheblich verändert" würde - insbesondere, wenn es darum geht, medizinische Aufzeichnungen zu dokumentieren und zu aktualisieren und Informationen zu synthetisieren.

"Wir müssen diese Art von Technologien als Werkzeuge betrachten, die den Klinikern aktuellere und sensiblere Informationen vermitteln und die Kliniker auf Patienten aufmerksam machen, die möglicherweise zusätzliche Nachsorge benötigen", sagte Krystal.

"Ein gutes Beispiel für Dinge, die ML oder AI besser als Menschen tun können, ist die Vorhersage einer Reaktion auf Medikament A gegenüber Medikament B, da ein Computer weitaus mehr Variablen berücksichtigen kann als eine Person und dies äußerst effizient tun kann, wenn er validiert verwendet Algorithmen ", bemerkte er.

Durch routinemäßiges Depressionsscreening gesammelte Daten, "angereichert mit Informationen, die der Patient einem Kliniker zur Verfügung stellen könnte, würden in ein standardisiertes Format gebracht, so dass alle Patienten dieselben Daten bereitstellen können, die in einem Algorithmus verwendet werden können."

Krystal und Kollegen entwickelten einen solchen Algorithmus, um vorherzusagen, welche Patienten mit Depressionen nach einer 12-wöchigen Escitalopram-Behandlung eine symptomatische Remission erreichen könnten.

In der 2016 in Lancet Psychiatry veröffentlichten Studie wurden Daten aus der STAR * D-Studie (Sequenced Treatment Alternatives to Relief Depression) verwendet, um einen Algorithmus zu entwickeln, der aus 25 Vorhersagevariablen besteht, einschließlich bestimmter soziodemografischer Merkmale, Bewertungen der Checklisten für den Schweregrad der Depression und der Anzahl der frühere Episoden einer Major Depression.

Diese 25 Variablen wurden verwendet, um ein ML-Modell zu trainieren, um die klinische Remission vorherzusagen. Die Forscher validierten das Modell dann, indem sie es auf eine Escitalopram-Behandlungsgruppe aus einer unabhängigen klinischen Studie anwendeten, die als CO-MED-Studie (Combining Medications to Enhance Depression Outcomes) bekannt ist.

Das Modell, das sie entwickelten, prognostizierte Ergebnisse in der STAR * D-Kohorte "mit einer Genauigkeit, die signifikant über dem Zufall liegt" (64, 6% [SD 3, 2]; P <0, 0001) und wurde in der CO-MED-Escitalopram-Behandlungsgruppe extern validiert.

Diese Ergebnisse wurden in einer nachfolgenden Studie wiederholt, in der die Forscher ML verwendeten, um die Fähigkeit von 20 depressiven Symptomen zu analysieren, das Ansprechen auf Antidepressiva vorherzusagen, wobei Daten aus neun klinischen Studien mit Antidepressiva und mehr als 7000 Patienten verwendet wurden.

Die Forscher fanden heraus, dass drei Symptomcluster - Schlaf / Schlaflosigkeit, emotionale Kernsymptome und atypische Symptome - mit dem Ansprechen auf bestimmte Medikamente verbunden waren.

Dies ist ein "Beispiel dafür, wie KI das Potenzial hat, einen guten Kliniker noch besser zu machen", sagte Krystal.

Foltz und Kollegen haben eine App-basierte Technologie entwickelt, mit der subtile Änderungen der Sprachmuster von Patienten mit Schizophrenie fernüberwacht und verfolgt werden können.

Das Verfolgen dieser subtilen Sprachänderungen kann Ärzten dabei helfen, "objektive Echtzeitbewertungen" der Schwankungen der Sprache und der psychischen Gesundheit von Patienten zu erhalten, die möglicherweise auf Stimmungsschwankungen oder Denkprozesse hindeuten, sagte Brita Elvevåg, PhD, eine kognitive Neurowissenschaftlerin an der Universität von Tromsø, Norwegen, die mit Foltz an der Forschung zusammengearbeitet hat.

Foltz, Elvevåg und Kollegen haben eine Reihe von Studien durchgeführt, die diese Methodik unterstützen.

In einer Studie wurden gesunde Teilnehmer mit denen mit stabiler psychischer Erkrankung verglichen (n = 120 bzw. n = 105). Beide Gruppen verwendeten eine mobile App, um Geschichten einen Tag nach dem Hören in einem Labor erneut zu erzählen, wobei die Nacherzählung außerhalb der Laborumgebung stattfand.

Automatische Spracherkennungstools, mit denen sprachlich in Längsrichtung extrahierte sprachbasierte Funktionen verfolgt werden.

Die Ergebnisse des AI-Modells wurden dann mit den Bewertungen der Ärzte verglichen.

Das AI-Modell war genauso genau wie die klinische Bewertung bei der Identifizierung von Patienten mit Schizophrenie, bei denen möglicherweise besorgniserregende Symptome auftreten, und bei der Unterscheidung von psychiatrischen Patienten von gesunden Personen.

Foltz bemerkte, dass die Diagnose in der Psychiatrie stark davon abhängt, mit Patienten von Angesicht zu Angesicht zu sprechen. Dieser Prozess sei "sehr zeitaufwändig" und kostspielig, und der Zugang zu persönlicher psychiatrischer Beratung könne für viele Patienten, insbesondere in ländlichen Gebieten, schwierig sein.

Solche Tools hätten das Potenzial, Daten aus der Ferne zu erfassen, die Informationen schnell an Ärzte zu übermitteln und Hinweise zu geben, anhand derer festgestellt werden kann, welche Patienten möglicherweise eine persönliche Beurteilung benötigen.

Trotz ihres Versprechens sind KI-Technologien noch nicht für die Hauptsendezeit bereit und müssen genauer evaluiert werden, bevor sie auf Bevölkerungsebene angewendet werden können.

Solche Technologien "müssen sorgfältiger evaluiert werden, bevor sie in großem kommerziellen Maßstab angewendet werden können", sagte Foltz.

Zu diesem Zweck schlägt ein kürzlich von seiner Gruppe veröffentlichtes Papier einen Rahmen für die Bewertung von KI - insbesondere ML - in der Psychiatrie vor.

Chelsea Chandler, Hauptautor der Studie und Doktorand an der CU Boulder, sagte, ihr Ziel sei es, "die aktuellen Mängel bei der Entwicklung von KI-Ansätzen in der Hoffnung darzulegen, dass sie in Zukunft verallgemeinerbar, transparent und vertrauenswürdig sein werden".

Elvevåg, der das Papier mitverfasst hat, hat es ausgearbeitet.

"Damit KI im klinischen Umfeld eingesetzt werden kann, sollten praktizierende Kliniker in ihre Entwicklung einbezogen werden", sagte sie und merkte an, dass einige Ansätze ihrer Gruppe durch eine Umfrage unter in den USA ansässigen Klinikern, die sich auf die Risikobewertung schwer psychisch kranker Patienten spezialisiert haben, untermauert wurden .

Diese Tools sollten die klinische Arbeit erleichtern und nicht erschweren.

"Niemand wird daran interessiert sein oder ein Tool verwenden, das dem bereits vollen Zeitplan eines Klinikers mehr Arbeit hinzufügt", sagte Elvevåg.

Laut Foltz müssen Kliniker vor dem Einsatz von KI-Techniken "ein ausreichendes Maß an Vertrauen in die Genauigkeit von KI / ML-Vorhersagen haben".

Um vertrauenswürdig zu sein, muss ein ML-Modell "erklärbar" sein, sagte Foltz. Das heißt: "Es muss möglich sein, eine Beschreibung des Grundes zu erhalten, aus dem ein Modell zu einer Entscheidung gelangt ist, und es muss transparent sein."

"Der Kliniker, der [das Tool] verwendet, sollte verstehen, dass die Ergebnisse, die es liefert, mit den Informationen übereinstimmen, um die sich der Kliniker kümmern sollte. Daher muss er auch die Details des Systems verstehen und wissen, wann das System angemessen verwendet werden kann und wann nicht nicht verwendet werden ", bemerkte Foltz.

Die dritte Komponente der "Vertrauenswürdigkeit" ist die "Generalisierbarkeit".

"KI mag sich wie eine 'schöne neue Welt' anhören, aber bevor die Menschen über ihre Rolle bei der Transformation der Psychiatrie zu aufgeregt werden, ist es wichtig zu wissen, ob ein bestimmtes Modell verallgemeinert werden kann, also müssen wir über das Training nachdenken, auf dem die Modell wurde trainiert ", sagte Elvevåg.

Sie bemerkte: "Ein Großteil der Verhaltensforschung basiert auf Populationen in unseren Datenbanken, die normalerweise auf Menschen in der westlichen Welt basieren, die gebildet, industrialisiert und demokratisch sind, wodurch Vorurteile in das Trainingsset eingeführt werden. Wir müssen also sicher sein, dass Jedes Modell ist auch auf andere Bevölkerungsgruppen anwendbar. "

Krystal stimmte zu. "Wenn Menschen Modelle entwickeln, diese aber nicht ausreichend validieren, wissen wir nicht, wie stabil oder zuverlässig die Modelle sind und wie sie in anderen Datensätzen verallgemeinert werden oder nicht."

"Das falsche oder schlechte Modell zu haben und danach zu handeln, kann manchmal zu drastisch schlechten Entscheidungen führen, im Gegensatz zu einer Verbesserung der medizinischen Entscheidungsfindung", sagte er.

Elvevåg beschrieb die potenziellen rechtlichen Probleme im Zusammenhang mit KI in der Psychiatrie als "Minenfeld".

"Was würde passieren, wenn eines dieser Systeme für das Verpassen eines Selbstmordes verantwortlich wäre oder umgekehrt, wenn der Kliniker oder das Krankenhaus zu oft alarmiert wird und der Patient zu oft [zum Kliniker oder Krankenhaus] geschickt wird? Dies erhöht die Belastung für den Arzt Patient, Familie, Arzt und Gesundheitssystem ", sagte sie.

Einige Patienten, z. B. Patienten mit Schizophrenie oder kognitiven Beeinträchtigungen, haben möglicherweise auch Schwierigkeiten, Apps und Geräte zu verwenden.

Darüber hinaus können neue Technologien schwerwiegende Datenverletzungen und Verletzungen der Privatsphäre von Patienten verursachen.

Die Daten "könnten irgendwo in der Stratosphäre schweben, daher müssen wir über den richtigen Rahmen für alle verschiedenen Phasen der Datenerfassung debattieren und darüber, wie sie für Forschung, klinische Praxis und die Erstellung von ML-Modellen verwendet werden", sagte sie.

"Anwälte und Ethiker haben in diesen Fragen andere Blickwinkel als Kliniker oder Forscher, daher sollten alle, einschließlich Informatiker, die Auswirkungen dieser Technologien abwägen", sagte sie.

Krystal stimmte zu. "Je mehr Arten von Daten wir verwenden, um zunehmend informative Vorhersagen zu generieren, die wirklich aussagekräftigere Methoden zur Steuerung der Behandlung darstellen, desto mehr müssen wir Fragen stellen, wem die Daten gehören, wie die Daten verwendet werden und wie die Ergebnisse erzielt werden." von Modellen werden verwendet, und wer wird sie verwenden. "

Zu diesem Zweck veranstalteten die National Institutes of Health (NIH) im Juli 2019 eine multidisziplinäre Konferenz, auf der Experten aus den Bereichen Recht, Ethik und Forschung ihre Perspektiven einbrachten - eine Veranstaltung, die Elvevåg als "brillant" bezeichnete, um die notwendigen Diskussionen voranzutreiben Platz um diese Themen.

Elvevåg ist "enorm optimistisch", dass die von der KI gewonnenen Informationen "möglicherweise in komplizierten Fällen helfen und dringend benötigte empirische Daten zum Verständnis der Natur [psychiatrischer] Zustände liefern können". Trotzdem "müssen wir mit Vorsicht vorgehen", sagte sie.

Trotz der Risiken auf der technischen Seite, verbunden mit "heiklen Fragen der Privatsphäre und der ethischen Seite", glauben alle, dass es ein enormes Potenzial gibt ", fügte Krystal hinzu.

Diese Bedenken "negieren jedoch nicht die Versprechen, die bei der Anwendung neuartiger Ansätze auf vorhandene Datentypen bestehen, die wir bereits haben, und neue Datentypen, von denen wir wissen, dass sie da draußen sind, aber noch nicht gut integriert wurden."

Die "technischen und ethischen Seiten von KI-basierten Ansätzen müssen gleichzeitig voranschreiten. Wenn also KI-Ansätze eingeführt werden, müssen wir sicherstellen, dass die ethische Seite direkt mit ihnen umgesetzt wird", sagte Krystal.

Chandler, Foltz und Elvevåg haben keine relevanten finanziellen Beziehungen offengelegt. Krystal ist Herausgeber der Biologischen Psychiatrie. Er berät AbbVie Inc., AMGEN, Astellas Pharma Global Development Inc., AstraZeneca Pharmaceuticals, Biomedisyn Corporation, Bristol-Myers Squibb, Eli Lilly und Co., Euthymics Bioscience Inc., Neurovance Inc. (eine Tochtergesellschaft von Euthymics Bioscience), Forum Pharmaceuticals, Janssen Research & Entwicklung, Lundbeck Research USA, Novartis Pharma AG, Otsuka America Pharmaceutical Inc., Sage Therapeutics Inc., Sunovion Pharmaceuticals Inc. und Takeda Industries. Seine anderen Angaben sind auf dem Originalpapier aufgeführt.

Vorträge des sechsten Workshops zu Computerlinguistik und klinischer Psychologie. 2019; Juni: 137-147. Voller Text

Schizophr Bull. Online veröffentlicht am 1. November 2019. Zusammenfassung

Lancet Psychiatrie. 2016; 3: 243–50. Abstrakt

JAMA Psychiatrie. 2017; 74 (4): 370 & ndash; 378. Voller Text

Weitere Neuigkeiten zu Medscape Psychiatry finden Sie auf Facebook und Twitter.