Springe zum Inhalt

XAI: Erklärbare KI schafft Vertrauen bei der Hautkrebsdiagnose

Künstliche Intelligenz kann in der Medizin sehr wertvolle Hilfe bei der Analyse riesiger Datenbestände leisten und etwa bei der Diagnoseerstellung helfen. Seit vielen Jahren wird das beispielsweise bei der Bewertung von Röntgenaufnahmen gemacht. Aber auch andere bildgebende Verfahren liefern digitale Bilddateien, die als Trainingsdaten geeignet sind. Ein unterschwelliges Problem dabei ist, dass die KI zwar Muster erkennt und Signale ausgibt, für den Menschen jedoch nicht immer klar ist, warum. Das führt zu einer gewissen Intransparenz, weil ein Mediziner die Entscheidung der KI dann nicht nachvollziehen kann.

Was fehlt, ist eine KI, die ihr Ergebnis erläutert, so wie ein Mensch seine Entscheidungen auch erklären könnte. Ein Wissenschaftlerteam am Deutschen Krebsforschungszentrum in Heidelberg hat deshalb ein besonderes KI-basiertes Unterstützungssystem für die Hautkrebsdiagnostik entwickelt. Hautkrebs, insbesondere das Melanom, ist eine ernsthafte Bedrohung und verursacht weltweit die meisten hautkrebsbedingten Todesfälle. Doch Melanome sind im Frühstadium oft schwer von anderen Hauttumoren zu unterscheiden. Bei Hautkrebsuntersuchungen können jedoch leicht tausende Bilder angefertigt und eine KI damit trainiert werden.

Das Besondere am KI-System aus Heidelberg ist, dass es seine Entscheidungen erklären kann. Diese erklärbare künstliche Intelligenz wird auch XAI, aus dem Englischen für „explainable artificial intelligence“, genannt. Die KI nutzt bekannte Diagnose-Merkmale und bezieht sich auf bestimmte Bereiche verdächtiger Hautstellen, um ihre Ergebnisse verständlich darzulegen. Medizinisches Personal kann dadurch die Aussage der KI nachvollziehen.

Das neue KI-System wurde bereits in einer dreiphasigen Studie mit über hundert Dermatologen aus 33 Ländern untersucht. Betrachtet wurde, wie sich XAI auf die diagnostische Genauigkeit, Sicherheit und das Vertrauen der Ärzte auswirkt. Erfreulicherweise stieg das Vertrauen der Ärzte in ihre eigenen Entscheidungen deutlich durch die Nutzung einer erklärenden KI. Derartige Systeme besitzen also das Potenzial, in medizinischen Kreisen ein höheres Vertrauen als Assistenztechnik zu genießen.

Eine KI, die ihre Diagnose erklären kann, ist auch ein richtiger Schritt in Richtung europäischer Datenschutzgrundverordnung. Art. 22 Abs. 1 DSGVO besagt nämlich:

"Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt."

Ist eine algorithmusbasierte Entscheidung aus einem Assistenzsystem nachvollziehbar, so leistet das sowohl einen Beitrag zur Wahrung der Rechte der Patienten als auch zur Absicherung der Mediziner.

Weiter lesen:

  • Chanda, T., Hauser, K., Hobelsberger, S. et al. Dermatologist-like explainable AI enhances trust and confidence in diagnosing melanoma. Nat Commun 15, 524 (2024). https://doi.org/10.1038/s41467-023-43095-4

👉 Auf Mastodon kommentieren