Eigentlich handelt es sich bei dieser Lektüre mehr um ein Büchlein als um ein Buch.

Und genau genommen ist es auch kein klassisches Heft, sondern eine erweiterte Niederschrift der von Rainer Mühlhoff am 19. Mai 2022 in der Aula des Osnabrücker Schlosses gehaltenen Osnabrücker Universitätsrede.

Buch: Die Macht der Daten
Autor: Rainer Mühlhoff

Rainer Mühlhoff schafft es kurz & prägnant heraus zu arbeiten, warum künstliche Intelligenz eine Frage der Ethik ist – so auch der Untertitel des kurz(weilig)en Schriftstücks.

Besonders eindrucksam skizziert der Autor die kollektive Verantwortung, die wir alle bei der Verwendung vernetzter, digitaler Medien tragen. Große Plattformunternehmen wie Meta (Facebook, Instagram, WhatsApp) oder Google können nur deswegen Vorhersagemodelle entwickeln, weil diese von Millionen Individuen (es reichen bei den großen Plattformen wenige Prozent der Nutzer:innen) freiwillig durch Datenpreisgabe trainiert werden. Das Individuum selbst, auf das später ein derartiges prädiktives Modell angewandt wird, muss selbst gar nicht im Trainingsdatensatz enthalten gewesen sein, mit dem das Modell erstellt wurde. Es können damit andere Individuen – nicht notwendigerweise wir selbst – unterschiedlich behandelt bzw. sogar diskriminiert werden (Job, Kredit, Wohnung, Bildung, …).

Das ist eine wichtige Botschaft vor allem an all jene, die denken, sie selbst „haben doch nichts zu verbergen“ und können deshalb Google oder Dropbox, Facebook, Instagram oder Apple ruhig ihre Daten überlassen. Es braucht die Daten der zahlreichen vermeintlich „normalen“ oder sich selbst für normal haltenden Nutzer:innen, um prädiktive Modelle zu trainieren, die dann andere Individuen als mutmaßlich gefährlich, krank, riskant etc. klassifizieren. Unsere Datenfreigibigkeit ist also ein für das Gemeinwesen relevantes Verhalten, gerade auch dann, wenn wir keine negativen Auswirkungen für uns selbst befürchten oder denken, „das Unternehmen weiß doch eh schon alles über mich“. Unsere Daten ermöglichen automatisierte Wetten auf das zukünftige Verhalten oder unbekannte Eigenschaften von beliebigen anderen Menschen und tragen auf diese Weise zur Stabilisierung und Steigerung sozialer Ungleichheit und ökonomischer Ausbeutungsmuster von gesamtgesellschaftlichem Ausmaß bei. Denn prädiktive Analytik wird oft dazu verwendet, ohnehin schlechter gestellten Menschen schlechtere Konditionen anzubieten und ihnen den Zugang zu Jobs, Bildung und wohlfahrtsstaatlichen Ressourcen zu erschweren. [Seiten 62-63]

Für den Laien führt Rainer Mühlhoff folgenden Vergleich zur besseren Vorstellung der eigenen Datennutzung: wie bei der Umweltverschmutzung bei Autoabgasen (hier mindert man immer auch die Luftqualität anderer Menschen), so kann man sich auch die tägliche Benutzung vernetzter digitaler Dienste als eine Art „Datenverschmutzung“ vorstellen (Auswirkungen auf Mitmenschen, siehe oben).

Das sind Folgekosten unserer Datenpraktiken, die aber nicht notwendig bei uns selbst anfallen und somit nicht in unsere individuelle Kosten-Nutzen-Abrechnung eingepreist sind, sondern von anderen oder vom Gemeinwesen getragen werden müssen. [Seite 64]

Im Detail hat die Analogie jedoch ihre Grenzen, da Datenaggregation im Gegensatz zu Autoabgasen auch positive Effekte haben kann (Pandemie Vorhersagen, medizinische Diagnostik, …).

Der Autor fordert in Folge einen anderen, weniger individualistischen Blick auf Datenschutz, da derzeit das ethische Problem auf die Individuen abgeschoben wird.

Auf die Frage hin, was man tun könne, um sich selbst, andere oder die Gesellschaft im Ganzen vor den gravierenden Risiken dieser Technologie zu schützen, haben wir schon gesehen, dass Technikverweigerung oder „Google löschen“ kaum vielversprechende Wege sind, solang wir es nicht alle tun. Und selbst das wäre gar nicht unbedingt wünschenswert, weil wir dann die enormen gesellschaftlichen Vorteile und Fortschritte durch diese Dienste und Technologien verpassen würden. [Seiten 68-69]

Rainer Mühlhoff appelliert vielmehr an eine reflektierte Technik-Nutzung anstelle eines völligen Verzichts und fordert gleichzeitig eine stärkere Regulierung der KI-Industrie.

Diese Industrie könnte viel besser reguliert werden. Es könnte an stärkere Bedingungen geknüpft werden, wann und ob ein Unternehmen die Daten vieler Einzelpersonen zusammenfassen und daraus ein prädiktives Modell trainieren, oder wann und ob ein Unternehmen die kostenlose Arbeitsleistung vieler Nutzer:innen zu einem großen distribuierten Rechennetzwerk zusammensetzen darf.

Was wir auf dem Weg zu einer besseren Regulierung prädiktiver Analytik benötigen, ist das Bewusstsein dafür, dass im Kontext von KI-Technologie die Sensibilität aggregierter Daten größer ist als die Summe der von uns jeweils einzeln wahrgenommenen Sensibilitiät der isolierten Datenpunkte. [Seite 70]

Zum Schluss zitiert Mühlhoff drastische Worte der Mathematikerin Cathy O’Neil, die prädiktive Modelle (Vorhersagemodelle) als „mathematiksche Massenvernichtungswaffe“ in den Händen eines Privatunternehmens sieht.

Genauso wie wir Waffenbesitz verbieten und nicht erst die Verwendung der Waffe, sollten wir bereits die Herstellung und Verbreitung prädiktiver Modelle regulieren. [Seite 71]


0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert