Dr. Waltraud Ernst «Prognosen und Prozeduren – KI in der Medizintechnik in geschlechterkritischer Evaluation»

Über die Referentin:

Waltraud Ernst ist promovierte Philosophin und seit 2010 am Institut für Frauen- und Geschlechterforschung der Johannes Kepler Universität Linz. Sie unterrichtet dort Gender Studies in Natur- und Technikwissenschaften als Pflichtfach für Studierende der Natur- und Ingenieurwissenschaften und war schon an mehreren interdisziplinären Forschungsprojekten in diesem Bereich beteiligt. Veröffentlichungen z.B.: Emancipatory Interferences with Machines? http://genderandset.open.ac.uk/index.php/genderandset/article/view/509 und Technikverhältnisse: Methoden feministischer Technikforschung https://link.springer.com/chapter/10.1007/978-3-658-12496-0_41

Dr. Waltraud Ernst

Prognosen und Prozeduren – KI in der Medizintechnik in geschlechterkritischer Evaluation

Waltraud Ernst

Sogenannte „Künstliche Intelligenz“ wird in der Medizintechnik inzwischen in vielen Bereichen eingesetzt, zum Beispiel bei Diagnosen von Brustkrebs, zur Vorhersage von Demenz oder bei der Risikoerkennung für Herz-Kreislauf-Erkrankungen. „Künstliche Intelligenz“ basiert unter anderem auf sogenanntem maschinellem Lernen, auf dem Management von großen Datenmengen, sogenannten „Big Data“ und der Automatisierung von Testmethoden. Das heißt, die Auswertung der Daten geschieht maschinell, automatisiert, nach einer Verknüpfung von Methoden der Datensammlung, der Mustererkennung, der Wahrscheinlichkeitsrechnung. Das wirft Fragen auf wie: Welche Daten sind verfügbar? Welche Daten erscheinen als wichtig oder relevant? Wer gibt die Muster und Mechanismen vor nach denen ausgewertet wird? Nach welchen Kriterien wird sortiert, bewertet, eingeteilt?

Im Vortrag wird diesen Fragen nachgegangen und untersucht, inwiefern Geschlecht dabei Relevanz erhält. Werden Daten von allen Geschlechtern als gleich wichtig erachtet? Werden die lernenden Maschinen von der Vielfalt und Ambivalenz geschlechtlicher Körper sowie geschlechtlicher und sexueller Lebensweisen unterrichtet oder sind die Algorithmen erneut orientiert an einem Modell hegemonialer Männlichkeit, deren Vertreter* ohnehin über die Privilegien der sogenannten personalisierten Medizin verfügen und zu einer verschwindend kleinen Minderheit gehören? Was oder wer wird als Standard, als Norm und Normalität und damit als gesund den Rechenautomaten vermittelt?

Der Vortrag stellte aktuelle Kritik an der Funktions- und Wirkungsweise von Algorithmen (O’Neil 2017) vor. Problematische Funktionsweisen und Wirkungen des AMS Algorithmus zur Kategorisierung und „Bedienung“ von Arbeitssuchenden in Österreich (Allhutter et al. 2020) wurden exemplarisch konkreter ausgeführt. Es wurden Bereiche vorgestellt, in denen die Forschung nach „künstlicher Intelligenz“ in der Medizintechnik besonders vorangetrieben und auch kritisch reflektiert wird, wie Brustkrebs, Demenz und Herz-Kreislauf-Erkrankungen.

Es wurde erläutert, warum diese medizinischen Forschungsbereiche nicht nur eine große Herausforderung für medizinische und medizintechnische Erkenntnis darstellen, sondern besonders auch für das Verständnis von Geschlecht und menschlichen Seins und Werdens in unseren funktionalistisch ausgerichteten Gesellschaften insgesamt. Ein reduktionistisches Verständnis von Menschen als körperliche Datenlieferanten, wodurch komplexe Prozesse und Zusammenhänge des Lebens isoliert, quantifiziert und mechanistischen Vorstellungen unterworfen werden, wurden ebenso problematisiert wie vereinfachende, statische und binäre Geschlechterkategorien. Der Vortrag ging über eine Kritik an diskriminierender Datensammlung und Sortierung der Daten bei der Entwicklung von Algorithmen hinaus. Es wurde auch auf Risiken durch KI in der Medizintechnik aufmerksam gemacht, wie z.B. dass Korrelationen von Daten zu vermeintlichen Kausalitäten gerinnen, widersprüchliche menschliche Existenz zu linearen („idealtypischen“) Vorausberechnungen persönlicher Entwicklung verfestigt wird und veränderliche Unterscheidungen zu statischen statistischen Differenzen erstarren.

Neben der Reflektion gängiger Unterscheidungsweisen in der KI Forschung wurde auch reflektiert, wem oder was eine Tendenz zur Vergabe von Forschungsmitteln nützt, in der besonders Bereiche gestärkt werden, die der Errechnung und Prognose von Erkrankungsrisiken nachgeht und weniger der Prävention und Behandlung (Heilung) von Erkrankungen bzw. einer dringend notwendigen Reflektion der Umgestaltung der Gesellschaft im Sinne von echter Chancengleichheit.