Dieses Sammelwerk mit 17 Beiträgen renommierter Experten wurde vom Rat für Forschung und Technologieentwicklung unter Federführung von Markus Hengstschläger herausgegeben.

Beginnen möchte ich diese Buch-Rezension mit der Einleitung des Wiener Manifestes für digitalen Humanismus (1. internationaler Workshop zu „Digital Humanism“, April 2019, Wien):

The system is failing“ – so Tim Berners-Lee. Der Gründer des Web betont, dass die Digitalisierung zwar beispiellose Möglichkeiten eröffnet, aber auch ernste Bedenken aufwirft: die Monopolisierung des Web, die Ausbreitung extremistischer Verhaltensmuster, die von sozialen Medien orchestriert werden, ebenso wie Filterblasen und Echokammern als Inseln entkoppelter ‚Wahrheiten‘, der Verlust der Privatsphäre sowie die weite Verbreitung digitaler Überwachungstechnologien. Digitale Technologien verändern die Gesellschaft fundamental und stellen unser Verständnis infrage, was unsere Existenz als Menschheit ausmacht. Viel steht auf dem Spiel. Die Herausforderung einer gerechten und demokratischen Gesellschaft mit dem Menschen im Zentrum des technologischen Fortschritts muss mit Entschlossenheit und wissenschaftlichem Einfallsreichtum bewältigt werden. Technologische Innovation erfordert soziale Innovation und diese erfordert ein breites gesellschaftliches, demokratisches Engagement. [Appendix Wiener Manifest für digitalen Humanismus, Digitaler Wandel und Ethik, S: 406]

Im Zentrum des digitalen Wandels befindet sich die Informatik, welche keine reine Technik- oder Ingeneurswissenschaft mehr ist, sondern eine politische Disziplin darstellt.

Die Informatik und ihre Artefakte verändern die Welt – diesen komplexen, technisch sozioökonomischen Prozess bezeichnen wir aktuell als digitale Transformation. [Hannes Werthner, Digitaler Wandel und Ethik, S: 388]

Daten sind nicht das neue Öl, Daten sind die neue Macht (siehe auch Shoshana Zuboff, Der Überwachungskapitalismus)! Die Information wurde zum kostenlosen öffentlichen Gemeingut wobei mit der Zeit manche Konzerne ihren Einzelnutzen optimierten und so letztendlich das Allgemeingut wieder zerstör(t)en.

Im Fall des Internets führte dies zu einem auf Werbung basierten Geschäftsmodell und letztendlich zu monopolartigen Strukturen. Für die Endnutzer ist das Web kostenfrei, sie bezahlen ’nur‘ mit ihren Daten und ihren online manifestierten Interessen sowie dem damit verbundenen Verhalten. Diese ‚veredelten‘ Informationen werden dann mittels Werbegeschäft an Werbekunden verkauft. [Hannes Werthner, Digitaler Wandel und Ethik, S: 394]

Sabine Theresia Köszegi spannt einen Bogen vom Lernen aus Daten mit Bias hin zur Gefahr der Manipulation durch automatisierte Entscheidungssysteme.

Wir schreiben automatisierten Entscheidungssystemen nicht nur Handlungsmacht zu, sie haben diese auch effektiv. Damit verfügen sie über das Potential, direkt auf menschliches Verhalten Einfluss zu nehmen. [Köszegi, Der autonome Mensch im Zeitalter des digitalen Wandels, Digitaler Wandel und Ethik, S: 77]

Der offene, oftmals leichtfertige Umgang mit Daten führt letztendlich dazu, dass wir verletzbar bzw. manipulierbar werden.

Mittels gezielten „Verhaltensengineerings“ durch manipulative Taktiken wird die individuelle Freiheit und Selbstbestimmung schrittweise eingeschränkt. [Köszegi, Der autonome Mensch im Zeitalter des digitalen Wandels, Digitaler Wandel und Ethik, S: 77]

Zuboff sieht die wahre Macht im „Profiling“ von Nutzerdaten, mit dem Ziel, das Handeln der Menschen in der realen Welt zu modifizieren.

Sarah Spiekermann und Anne Siegetsleitner arbeiten heraus, dass KI-Systeme nicht autonom handeln, sondern sich lediglich verhalten, und zwar so wie es ihnen ermöglicht bzw. antrainiert wird (Digitaler Wandel und Ethik; S: 96,116f, 128).

Dies führt uns zurück zur Verantwortung der Informatiker bzw. der im IT-Bereich tätigen Unternehmen. Niina Zuber, Severin Kacianka, Alexander Pretschner und Julian Nida Rümelin führen aus, dass ethisch erstrebenswerte Entscheidungen immer beim Menschen liegen (müssen):

Softwaresysteme, gleichgültig wie smart der Algorithmus ist, führen keine Abwägung von Gründen durch; sie können nicht selbstständig zwischen untertschiedlichen Denk- und Abwägungsmodi wechseln und ihr Vorgehen rechtfertigen, um letztendlich sinnstiftend wirksam zu werden. Softwaresysteme sind keine autonomen, moralischen Akteure: Sie bleiben immer ausführend. Vernünftige, das heißt ethisch erstrebenswerte Entscheidungen zu treffen, bleibt also dem Menschen vorbehalten, weshalb gerade bestehende Entwicklungsprozesse normative Abwägungsverfahren auch auf Entwicklerebene integrieren müssen. (Digitaler Wandel und Ethik, S: 168).

Prinzipien ethischer KI werden aber – im Gegensatz zur Medizin – häufig von der Privatwirtschaft entwickelt was uns wieder die Dominanz der Tech-Konzerne (z.B. Alphabet, Amazon, Apple, Meta, Microsoft) vor Augen führt, die nach dem Winners-take-it-all-Phänomen den freien Wettbewerb ruinieren. Dem gegenüber stehen etwa Leitlinien der Gesellschaft für Informatik:

https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien

Auch nach Michael Mayrhofer und Gerold Rachbauer darf das Feld der KI-Regulierungen nicht Privaten überlassen werden. Es bedarf ein Zusammenspiel von Rechtsetzung, Ethik-Gremien und Prozessen der Selbstregulierung. Die Autoren weisen allerdings auf folgendes Spannungsfeld hin:

Die legistischen Optionen für eine adäquate Regulierung von KI dürfen nicht darüber hinwegtäuschen, dass eine ausdifferenzierte, gleichermaßen innovationsfreundliche wie risikominimierende Regulierung einer in vielerlei Hinsicht neuartigen Technologie mit einer erheblichen Entwicklungsdynamik kein triviales Unterfangen ist. Es wird daher für die unterschiedlichen Bereiche, in denen KI eine Rolle spielen kann, kaum möglich sein, qualtitätsvolle rechtliche Rahmenbedingungen so schnell zu entwickeln, zu implementieren und aktuell zu halten, dass keine Innovationshemmnisse und Regelungsdefizite entstehen. (Digitaler Wandel und Ethik, S: 238)

Eine unabhängige, hochrangige Expertengruppe hat auf Unionsebene vorgeschlagen, die Nutzer einer KI (konkret: die Firmen, die eine KI einsetzen) nach dem Vorbild der mit der DSGVO eingeführten Datenschutz-Folgenabschätzung zur Durchführung einer KI-Folgenabschätzung zu verpflichten.

Dabei hätte der künftige Betreiber einer KI sämtlich Chancen und Risiken seines eigenen Projektes darzustellen und zu bewerten. [Digitaler Wandel und Ethik, S: 241]

Die Problematik der Privatisierung unserer Zukunft greift auch Christopher Frauenberger auf:

Die zentrale ethische Frage bei der Gestaltung von Digitalisierung ist daher: Macht uns die Digitalisierung zu den Menschen, die wir gern sein wollen? Und damit unweigerlich verbunden: Wer wollen wir denn in Zukunft sein? Diese Fragen wurden bislang fahrlässig privatisiert und in Folge einseitig monetarisiert. [Die Verhandlung technologischer Zukünfte, Digitaler Wandel und Ethik, S: 322]

Markus Scholz und Maria Riegler sehen in Collective-Action-Initiativen (Form der Zusammenarbeit zwischen Unternehmen und weiteren Stakeholdern) eine Chance, sowohl die Grenzen individueller Lösungsbeiträge einzelner Unternehmen als auch die Probleme bei der staatlichen Regulierung zu überwinden. Aus ihrer Sicht eigen sich folgende Indikatoren als Frühwarnsignale für die Notwendigkeit einer Collective-Action-Initiative: Eine hohe Innovationsgeschwindigkeit, ein fehlender öffentlicher Diskurs über Risiken, eine geringe Anzahl an Experten, schwache Regulatoren, fehlende Transparenz gegenüber Dritten sowie das Ignorieren kritischer Stimmen.

Hannes Werthner wirft generell die Frage der Verteilungsgerechtigkeit auf sowie ein neues Verständnis von Arbeit und Zeit:

Diese Entwicklung zur Automatisierung des Denkens bei der gleichzeitigen Eigenschaft, dass diese Softwarekomponenten als Teile des Technologie-Stacks alle Maschinen steuern können, wird massive Auswirkungen auf Arbeitsverhältnisse haben – sowohl qualitativ als auch quantitativ. Die Produktivität wird weiter massiv steigen und Reichtum generieren, wir werden damit zusammenhängende Verteilungsfragen stellen müssen sowie ein neues Verständnis von Arbeit und Zeit entwickeln. [Digitaler Wandel und Ethik, S: 395]

Weiters sieht Werthner die Notwendigkeit neuer politischer Entscheidungsprozesse:

Während insbesondere bei den Algorithmen technische Verbesserungen (z.B. bezüglich Fairness) möglich erscheinen, wird der Umgang mit Fake News und der Verwendung des Web zur unlauteren polititschen Beeinflussung noch zu massiven politischen Auseinandersetzungen, insbesondere mit Fokus zukünftiger politischer Onlineentscheidungsprozesse, führen. [Digitaler Wandel und Ethik, S: 395]

Eine Aufgabe des Bildungswesen besteht u.a. darin, unsere Kinder und Jugendlichen auf ihrem Weg zum mündigen, kritischen Bürger zu unterstützen (vom Konsumenten hin zum Produzenten).

Die Forschung begegnet dem Problem der Blackbox-Lernsysteme mit einer „explainabiltiy„, dem Versuch, zu verstehen, was eine Maschine macht. Sepp Hochreiter spricht von einem Trade-off zwischen 2 Facetten der „explainability“:

Die Frage, ob man wirklich verstehen will, wie Maschinen Entscheidungen treffen, hängt davon ab, wofür ein System eingesetzt wird. [Digitaler Wandel und Ethik, S: 419]

Ob „explainabiltity“ letztendlich sinnvoll zur Anwendung gelangen soll, bilanziert Hochreiter wie folgt:

Wenn eine KI große statistische Zusammenhänge herstellt, kann das für das Gemeinwohl besser sein, aber man versteht einen einzelnen Fall nicht – eben, weil die Maschine die Daten auf sehr komplexe Weise verknüpft. Aber wenn es um einen Einzelfall geht, muss man „explainability“ fordern. [Digitaler Wandel und Ethik, S: 419]

Bei allen Anstrengungen um eine gemeinsame digitale Ethik muss man doch auch berücksichtigen, dass es in unterschiedlichen Ländern andere ethische Einstellungen gibt.

Eingriffe in die Privatsphäre werden beispielsweise im asiatischen Raum anders wahrgenommen als bei uns in Europa. Die bei uns gerade aufflammende Debatte zur Messenger-Überwachung steht nicht im Einklang mit einer Ende-zu-Ende Verschlüsselung, würde zudem nicht die in sie gesetzten Erwartungen erfüllen und ist daher (zumindest in unserem Kulturkreis) entschieden abzulehnen!

Abschließend sei noch einmal Sepp Hochreiter zitiert, der auf die Frage, ob uns die Entwicklung entgleiten könnte, wie folgt antwortet:

Also ich habe keine Ängste, die in Richtung Terminator oder Matrix gehen. Sondern eher die Angst, dass diese Technologien von großen Konzernen, Regierungen oder kriminiellen Organisationen eingesetzt werden, um die Bevölkerung zu täuschen, in einer Weise zu lenken, ohne dass wir es wissen und merken, um uns in eine bestimmte Ecke zu drängen. Das sehe ich als die große Gefahr. [Digitaler Wandel und Ethik, S: 427]


0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert