Springe zum Inhalt

KI in der Medizin: Übertrifft ChatGPT die menschlichen Ärzte bei Diagnosefragen?

Der Artikel KI in der Medizin: Wie Patienten auf künstliche Intelligenz als Diagnosehilfe reagieren beschäftigte sich damit, was Menschen von KI-generierten medizinischen Ratschlägen halten. Ein Teil von ihnen zweifelte in der betreffenden Studie die medizinische Kompetenz einer KI an. Solche Untersuchungen liefern Anhaltspunkte dazu, ob ein Patient den medizinischen Ratschlägen folgen oder nur „Ja, ja“ sagt und dann zu Hause nichts oder etwas anderes machen würde.

Bereits im Jahr 2023 hatte die University of California eine Studie durchgeführt und die Antworten von Ärzten und Chatbots auf Patientenanfragen in sozialen Medien verglichen. Wieso haben sie das eigentlich mit Bezug zu Social Media gemacht? Der Hintergrund sind sich verändernde Kommunikationswege zwischen Patient und Arzt im Zuge der Digitalisierung. Ärzte – wenn sie denn passende Kommunikationswege anbieten – erhalten viel mehr digitale Nachrichten als früher.

Die Arbeitsbelastung steigt

Die Bearbeitung dieser Anfragen zusätzlich zum „konventionellen Geschäft“ kann Mediziner leicht überfordern. Es dreht sich hierbei um die Dauerbelastung durch die Bearbeitung der Nachrichtenflut. Also liegt es nahe, zur Beantwortung bzw. zur Vorbereitung einer Antwort einen Chatbot als Assistenz zu benutzen, der Antworten vorformuliert. Damit das eine Hilfe ist, müssen die Entwürfe allerdings qualitativ hochwertig sein, sonst müssten Mediziner alles wieder umformulieren.

Für die Studie wurde eine Stichprobe von 195 Patientenfragen aus dem öffentlichen Reddit AskDocs Forum gewählt. Diese Anfragen wurden sowohl von Ärzten als auch von ChatGPT beantwortet. Anschließend wurden die Antworten von anderen Ärzten auf ihre Qualität und Empathie hin bewertet. Es wurden also nicht die Patienten befragt, sondern der digitale Assistent bewertet.

Erstaunliche Ergebnisse

In 78,6 % der Fälle wurden die Antworten des Chatbots gegenüber den Antworten der Ärzte bevorzugt. Die Chatbot-Antworten waren mit durchschnittlich 211 Wörtern deutlich ausführlicher als die der Ärzte. Das ist auch nicht verwunderlich, denn ChatGPT ist eine ziemliche Plaudertasche. Während nur 22,1 % der Arztantworten als gut oder sehr gut eingestuft wurden, waren es beim Chatbot erstaunliche 78,5 %. Noch verrückter: Bei der Empathie wurde der Chatbot von den Ärzten mit 45,1 % als deutlich empathischer beurteilt als die Antworten der Ärzte (4,6 %).

Die Reviewer bewerteten die Antworten der KI also als fast 4-mal qualitativ hochwertiger und fast 10-mal einfühlsam im Vergleich zu Arzt-Antworten. Die Ergebnisse legten nahe, dass die Qualität und Empathie von Chatbot-Antworten die der Ärzte sogar übertreffen könnten. Und das, obwohl Menschen normalerweise KI als wenig empathisch betrachtet.

Weiter lesen:


👉 Auf Mastodon kommentieren