Bereits im Jahr 2019 traf sich eine Runde von Expert:innen auf Einladung der Academia Superior in Kooperation mit Univ.-Prof. Dr. Michael Fuchs vom Institut für Praktische Philosophie/Ethik der KU Linz, um über den Einfluss von „Künstlicher Intelligenz“ auf die Gesellschaft und die sich daraus ergebenden ethischen Fragestellungen zu diskutieren. Jetzt wurde der Gesprächsfaden wieder aufgenommen, um die durch die Pandemie beschleunigten Entwicklungen neuerlich zu beleuchten.
Zentrale Fragen der Gesprächsrunde waren, wie und auf welchen Ebenen Künstliche Intelligenz Regulierungen unterworfen werden soll, wie weit man ohne rechtliche Regulierungen auskommen könnte und wie KI überhaupt definiert werden soll. Der durch die Pandemie nochmal beschleunigte Digitalisierungsschub macht die Frage der Regulierung von jenen IT-Programmen, die gemeinhin mittlerweile unter dem Begriff „Künstliche Intelligenz“ subsumiert werden, noch einmal dringlicher.
Ethik von „Künstlicher Intelligenz“ beruht auf Ethik der Datennutzung
Eine in diesem Zusammenhang zentrale und noch weitgehend unbeantwortete Frage ist, wie mit den großen Daten- und Informationsmengen, die heute zur Verfügung stehen, umgegangen werden soll und darf, welche Daten also wie von KI-Programmen verwendet und ausgewertet werden dürfen. Da bis vor wenigen Jahren noch nicht genug Rechnerleistung vorhanden war, um die potenziell vorhandenen Datenberge gezielt und zeitnahe zu verwerten, wurde diese Frage – um Innovationen nicht zu behindern – hintangestellt. Doch die mittlerweile erreichte Rechenleistung und deren Kombination mit „lernfähigen Programmen“ machen Auswertungen auch in größerem Rahmen möglich oder zumindest in der nahen Zukunft wahrscheinlich.
„Die Skalierbarkeit von Datenanalysen ist heute durch KI viel größer als früher.“ – Helga Wagner
Da derartige Auswertungen durch machine learning bzw. Künstliche Intelligenz in Zukunft als Entscheidungsgrundlagen in vielen Bereichen dienen können, könnten selbst unbeabsichtigte Fehler oder unvorsichtig gewählte Klassifikationen in der Programmierung oder den Trainingsdaten der Programme potenziell gefährliche soziale Folgen haben.
„Die eigentliche ethische Frage, vor der wir stehen lautet: Wie gehen wir mit Information um?“ – Bernhard Nessler
Besonders kritisch ist die Verwendung von Daten, die in sozialen Kontexten entstanden sind, sowohl deren Verwendung für Analysen als auch deren Verwendung zum „Training“ von Künstlichen Intelligenzen. Denn sie bergen die Gefahr, dass bestehende gesellschaftliche Muster, die eigentlich ethisch abzulehnen sind, unbeabsichtigt durch den Einsatz der KI weiter festgeschrieben werden. Eine Diskussion über die ethischen Dimensionen der Verbreitung von Künstlicher Intelligenz muss vor allem auch die konkrete Nutzung von KI-Systemen und deren Einbettung in sozio-technische Strukturen behandeln und kann nicht nur auf eine „ethisch korrekte“ Programmierung der Algorithmen abzielen.
„Wir brauchen eine Ethik der Verwendung von KI und Algorithmen und nicht eine Ethik der Technologie alleine.“ – Uli Meyer
Beantwortet werden müssen in Zukunft Fragen wie: Wer generiert die Daten? Was davon darf von wem verwendet werden? Wer darf welche Daten weitergeben? Welche Entscheidungen darf der Mensch fällen, deren Grundlage auf der Analyse von welchen Daten durch KI-Programme beruht und welche Entscheidungen darf der Mensch an eine KI delegieren? Welche Mechanismen müssen entwickelt werden, um KI-Systeme „sicher“ zu machen?
Zertifikate für „gute“ KI?
Sinnvoll erscheinen unabhängige Zertifizierungen von KI-Programmen durch anerkannte Institutionen, wie das weltweit erste Machine Learning Zertifizierungsschema am TÜV Austria. Derartige Zertifizierungen mögen zwar aufwendig sein, haben aber für Entwickler, Betreiber und User:innen der entsprechenden KI-Software in Zukunft Vorteile: Je nachdem, wie das Zertifikat angelegt ist, könnten sich Betreiber und User darauf verlassen, dass sie eine Software nützen, die sicherheitstechnisch, rechtlich oder ethisch nach definierten Standards arbeitet. Das wiederum minimiere rechtliche und ökonomische Risiken und könnte in Zukunft auch als Marketing-Argument gegenüber den User:innen verwendet werden.
In diesem Zusammenhang muss auch die Frage gestellt werden, ob es rechtliche Vorgaben bezüglich der Zertifizierung von KI-Programmen – vielleicht je nach Einsatzbereich? – braucht, oder ob dies der Selbstregulierung überlassen werden kann. Wichtig wäre es, dass im Rahmen der Zertifizierung nicht nur die Technik bewertet wird, sondern auch die ethischen Dimensionen der intendierten Nutzung der Software überprüft wird.
In einer ethischen Beurteilung müsste immer auch das Ziel und der Zweck der konkreten Anwendung berücksichtigt werden. Dabei gilt es auch zu beachten, dass es in der Geschichte sehr oft so war, dass Anwendungen und Technologien anders genützt wurden, als ursprünglich gedacht. Daraus wiederum folgt, dass eine Überprüfung der Ziele und Anwendungen von KI ‑Systemen hinsichtlich ethischer Aspekte, in regelmäßigen Abständen erfolgen sollte.
Welche ethischen Werte die Programmierung und die Trainingsdatensätze von „Künstlichen Intelligenzen“ in Zukunft verpflichtend berücksichtigen müssten, könnte durch interdisziplinär besetzte Ethikkommissionen bewertet werden, deren Entscheidungen wiederum eine Grundlage für Zertifizierungen von KI-Programmen bieten könnten.
„Ist die Trennung zwischen starker und schwacher Künstlicher Intelligenz angesichts der Fortschritte bei der schwachen Künstlichen Intelligenz noch sinnvoll?“ – Michael Fuchs
Uneins waren sich die Wissenschafter:innen bei der Frage der Definition dessen, was als Künstliche Intelligenz gelten sollte. Weitere noch offene Fragen, die sich in der Diskussion ergaben, lauteten:
- Muss man eine Ethik der KI nicht weiter denken als eine Ethik der Information?
- Gibt es eine klare Definition der Anwendung von KI?
- Wer ist verantwortlich für ein KI-System?
- Wie verändert KI die Arbeitswelt?
- Ist es möglich ethisch korrekt zu regulieren, sodass Innovationen gefördert und nicht verhindert werden?
- Besteht die Gefahr einer „Überregulierung“ von KI?
- Wie kommen wir zu einer Ethik der Verwendung und des Besitzes von massenhaften Informationen und Datensätzen?
- Wie kann man mit massenhaften Daten ethisch korrekt umgehen, wenn KI nur das Werkzeug ist, um aus diesen Datenbergen Erkenntnisse zu gewinnen?
- Welche Werte sollten KI-Programme verpflichtend berücksichtigen müssen?
Am Expertengespräch haben teilgenommen:
- Univ.-Prof. Dr. Michael Fuchs, KU Linz, Institut für Praktische Philosophie / Ethik
- Univ.-Prof. Dr. Karin Bruckmüller, SFU Wien, Fakultät für Rechtswissenschaften
- Assoz. Univ.-Prof Dr. Helga Wagner, JKU Linz, Institut für Angewandte Statistik
- Univ.-Prof. Dr Ulrich Meyer, JKU Linz, Institut für Soziologie
- DI Dr. Bernhard Nessler, Software Competence Center Hagenberg
- Dr. Claudia Schwarz, ACADEMIA SUPERIOR
Rückblick: Die aufgeworfenen Themen und Inhalte des Gesprächs von 2019