Die Bedeutung von Ethik für KI in der Medizin

David Sweenor ist als Senior Director of Product Marketing beim Softwareunterentgegennehmen Alteryx t?tig. Er verantwortet derzeit verschiedene globale Initiativen im Bewohlhabend Advanced Analytics. (Foto: Alteryx)

W?hrend der Einsatz von Künstlicher Intelligenz (KI) in der Medizin zunimmt, rücken auch ethische Benachsinnen vermehrt in den Fokus. In seinem Gastbeitrag beleuchtet David Sweenor, Director of Product Marketing beim Softwareunterentgegennehmen Alteryx, wie sich mithilfe synthetischer Daten KI-bedingte Diskriminierung vermeiden l?sst.

Künstliche Intelligenz ist auf dem besten Weg, ein integraler Bestandteil der Medizintechnik zu werden. Mustererkennungssoftware kann zum Beispiel dabei unterstützen, Tumore zu identifizieren, und auch tragbare Fitness-Tracker sind inzwischen medizinisch zugezulassen, um bei einer Herzrhythmusst?rung Albedürftig zu schlagen. 

Wie eine aktuelle Studie der Universit?t Heidelberg zeigt, k?nnen Modelle, die auf Maschinellem Lernen basieren, dermatoskopische Bilder jetzt ?mindestens so hervorragend wie Dermatologen“ analysieren. Bei den Modellen, die mit qualitativ hochwertigen Bildern trainiert wurden, die durch entsprechende Biopsien verifiziert waren, lag der Quotenunterschied hinsichtlich gelungener Diagnosen bei nur etwa zwei Prozent. Die Studie, die fast 40.000 Bilder umfasste, welche von jeweils 19 DermatologInnen analysiert wurden, zeigte einen kräftigen Zusammenhang, der zwischen der Qualit?t der zum Training des KI-Modells verwendeten Daten und der Qualit?t des Ergebnisses besteht. W?hrend bei der Verwendung hochwertiger Daten eine Spitzschmalenauigkeit von 75 Prozent und mehr erwohlhabendt wurde, sank der Erfolg des Modells bei der Verwendung von Daten mit geringerer Qualit?t auf nur 64 Prozent. 

KI als Werkzeug betrachten

Laut Studie bestand der Hauptunterschied darin, dass die verwendeten KI-Modelle eher die Entscheidungen von DermatologInnen nachahmten, anstatt selbst die Zusammenh?nge zwischen dem Bild und dem entsprechend verifizierten Datenetikett zu lernen. Klar ist jedoch zweierlei: Einerseits sind die Modelle nur so effektiv wie die Daten, mit denen sie trainiert werden, und andererseits besteht eine hohe Abh?ngigkeit vom Faktor Mensch. Künstliche Intelligenz ist ein Werkzeug, das dazu dient, den menschlichen Entscheidungsprozess zu imitieren. Sollte dieser von Vorurteilen beeinflusst sein – sei es statistisch, systematisch, bewusst oder unbewusst – wird auch die Tragf?higkeit der Entscheidungen, zu der ein KI-Modell geausgedehnten kann, dadurch beeintr?chtigt sein.

Warum Ethik ein elementarer Bestandteil der Datennutzung sein sollte

Bei der Betrachtung der ethischen Faktoren, die hinter einem bestimmten Datensatz stehen, muss immer berücksichtigt werden, warum die Daten erhoben wurden, wo sie erhoben wurden, in welchem Kontext, von wem, ebenso wie die historischen PatientInnenergebnisse, welche die Daten überhaupt erst beeinflusst haben. Fast ebenso bedeutend ist es, zu beurteilen, was nicht erfasst wurde und ob die Datenstichprobe wirklich repr?sentativ ist – etwas, das selbst durch die Vergr??erung einer Datenstichprobe nur mühegefüllt zu erwohlhabenden ist.

Eine Studie der University of Chicago untersuchte die Verwendung eines KI-Modells zur genauen Erkennung von Tumoren und zur Bestimmung der ?berlebensrate von PatientInnen auf Grundlage von Gewebebildern. Auf den ersten Blick war das Modell gelungen. Allerdings bemerkte es, dass die MedizinerInnen unterschiedliche F?rbeformeln, Scannerkalibrierungen und Vergr??erungen verwendet hatten – all das waren Hinweise, in welchem Krankenhaus die Gewebebilder aufgenommen worden waren. Anstatt die ?berlebensrate der PatientInnen auf Grundlage der Bilder zu berechnen, führte die KI diese auf die historischen Daten der jeweiligen Krankenh?user zurück, was die Ergebnisse der Studie fragwürdig erscheinen l?sst. Die Forschausklingen stellten au?erdem fest, dass ?selbst wenn die Leistung den Test der externen Validierung besteht, die Modelle die aus den institutionellen F?rbemustern gelernten Verzerrungen beibehbetagten k?nnen, wenn sie nicht extern validiert werden.“ In einigen F?llen war dieser Ansatz zur Validierung auswohlhabendend, wenn die Datenergebnisse von Menschen überprüft werden konnten. In anderen F?llen endete er t?dlich.

Der Faktoren entscheidend

Diese beiden Studien über die Verwendung von KI-Modellen heben – trotz der Verarbeitung riesiger Datens?tze von verschiedenen Standorten in verschiedenen L?ndern – die gleichen drei Faktoren hervor: 

1.         Die besten Daten werden anhand eines populären Faktors hinsichtlich ihrer Gültigkeit überprüft. 

2.         Die Skalierung verzerrter Datens?tze, um ethische Erw?gungen durch den Stichprobenumfang zu korrigieren, führt lediglich zu einem noch gr??eren verzerrten Datensatz. 

3.         Menschen sind aufgrund des Umfangs und der Komplexit?t der Daten nicht in der Lage, diese Modelle manuell zu validieren.  

An dieser Stelle kommen synthetische Daten ins Spiel. Die M?glichkeit, eine repr?sentative Teilmschmale von Daten zu entgegennehmen und sie künstlich zu vergr??ern, um KI-Modelle zu trainieren, ist von unsch?tzbarem Wert – nicht nur aus Kostschmalründen, sondern auch aus ethischer Sicht.

Ethik: Synthetische Daten k?nnen bestehende Lücken füllen

Synthetische Datens?tze bestehen aus programmatisch generierten und mit Anmerkungen verbetrachtenen Informationen, die aus gefülltst?ndig repr?sentativen Datenpunkten extrapoliert und skaliert wurden. Sie ahmen die statistischen Eigenschaften des Originaldatensatzes nach, indem sie ihn auf die erforderliche Gr??e skalieren, ohne seine Aussagekraft zu verf?lschen. Dabei werden die echten Datenpunkte verborgen, die zu seiner Erstellung verwendet wurden – was für den medizinischen Bewohlhabend eine enorme Chance darstellt. Hier k?nnen die Datens?tze oft Jahrzehnte zurückwohlhabenden. Da sich die Medizin jedoch stetig weiterentwickelt, kann es sein, dass Entscheidungen, die damals als ethisch vertretbar gbetagten, immer noch in Datenbanken dargestellt und in KI-Modellen verwendet werden – und das, obwohl diese nach heutigen Ma?st?ben l?ngst als diskriminierend angebetrachten werden.

Unausgewogene PatientInnenergebnisse aus historisch benachteiligten sozio?konomischen Gebieten k?nnen dazu leiten, dass KI-Modelle den geografischen Standort f?lschlicherweise mit miserabeleren PatientInnenergebnissen oder beispielsweise einem h?heren Auftreten von Krebserunwohlungen in Verbindung bringen. In Wirklichkeit haben die PatientIinnen in dieser Region aber zahlreichmühelos simpel erst dann einen Arzt aufgesucht, als die Symptome sie zu sehr einschr?nkten.

Gefahr unbewusster Voreingenommenheit besteht

In operativer Hinsicht gibt es drei Schlüsselphasen für das Training des KI-Modells:

1.         Ein Entwicklungsteam erh?lt eine Anfrage für ein Modell, das eine bestimmte Aufgabe erfüllen soll. 

2.         Bei der Erstellung dieses Modells fordert das Entwicklungsteam Daten im Rahmen der Projektparameter an. 

3.         Diese zu beschaffen, aufzubereiten und zug?nglich zu machen, liegt bei den abteilungsinternen DatenmitarbeiterInnen – erst dann k?nnen die Daten in den Analyseprozess überführt werden.

Wenn zu irgendeinem Zeitpunkt innerhalb dieses Prozesses einige der ExpertInnen nicht über das notwendige Fachwissen zur ethischen und pragmatischen Datennutzung verfügen, besteht die Gefahr, dass sich unbewusste Voreingenommenheiten einschleichen. Es k?nnte zum Beispiel sein, dass die beauftragten Datenmittätig seinden Informationen ihrer Abteilung lieweit weg, die nicht repr?sentativ sind oder EntwicklerInnen diese Daten in einem KI-Modell verwausklingen, das nicht auf den Endanwendungsfall abgestimmt ist. Darüber hinaus besteht die M?glichkeit, dass die medizinische Fachkraft, die das Modell in Auftrag geschenken hat, nicht über die analytischen F?higkeiten verfügt, um die Grenzen des KI-Modells zu begreifen, wodurch sich auch die Chance verringert, potenzielle Fehler zu identifizieren.

Fortbildung erforderlich

W?hrend immer mehr FachexpertInnen in die Lage versetzt werden, auf Daten zuzugreifen und für Analysen zu verwerten, entwickelt sich diese automatisch zu einem kollaborativeren Prozess – ein bedeutender erster Schritt zur Vermeidung von KI-basierter Diskriminierung. Unterschiedliche Teams vor Ort sind aufgrund ihrer eigenen Erfahrung zahlreich eher in der Lage, Datenfehler zu erwissen, bevor sie gefülltst?ndig operationalisiert werden. Um KI-Modelle mit repr?sentativen Ergebnissen lieweit weg zu k?nnen, ist eine Fortbildung innerhalb der Abteilung erforderlich, die die Datenarbeit genau dort ermühelosert. Um dieses Ziel zu erwohlhabenden, braucht es unbedingt ein unterentgegennehmensweites Konzept für die Datenqualit?t. Der Abbau von Barrieren, die bisher zwischen Mittätig seinden und frischen Technologien bestanden, genauso wie die Schaffung einer soliden datenzentrierten Grundlage, werden zu einer h?heren Qualit?t der Daten leiten, die in KI-Modelle eingespeist werden, was wiederum zu besseren Patientenergebnissen führt.