Die rasante Entwicklung von Anwendungen wie ChatGPT oder dem durch seine Papstbilder bekannt gewordenen Programm Midjourney schürt die Sorge vor gesellschaftlichen Kontrollverlusten: über 1000 Tech-Experten wie Steve Wozniak und Elon Musk forderten jüngst eine selbst auferlegte sechsmonatige Entwicklungs-Pause, um die möglichen Gefahren und Auswirkungen der rasant steigenden Anwendung Künstlicher Intelligenz abzuwägen. Regierungen und Unternehmen seien gefordert, Regeln und Standards für KI zu setzen.
Beim Linzer Think Tank Academia Superior wurden in den letzten Jahren bereits mehrere Expertenrunden zu der Thematik abgehalten. Man ist sich einig: es braucht noch mehr interdisziplinäre Auseinandersetzungen über die ethischen und sozialen Fragen rund um Anwendungen Künstlicher Intelligenz und die Herausforderungen, diese zu lenken oder zu regulieren.
Es geht auch um die Frage der Datennutzung
Eine in diesem Zusammenhang zentrale und noch weitgehend unbeantwortete Frage ist, wie mit den großen Daten- und Informationsmengen, die heute zur Verfügung stehen, umgegangen werden soll und darf, welche Daten also wie von KI-Programmen verwendet und ausgewertet werden dürfen. Da bis vor wenigen Jahren noch nicht genug Rechnerleistung vorhanden war, um die potenziell vorhandenen Datenberge gezielt und zeitnahe zu verwerten, wurde diese Frage – um Innovationen nicht zu behindern – hintangestellt. Doch die mittlerweile möglich gewordenen Rechnerleistungen und deren Kombination mit „lernfähigen Programmen“ machen Auswertungen auch im großen Rahmen nun möglich oder zumindest in der nahen Zukunft sehr wahrscheinlich.
Da derartige Auswertungen durch machine learning bzw. Künstliche Intelligenz in Zukunft als Entscheidungsgrundlagen in vielen Bereichen dienen können, könnten selbst unbeabsichtigte Fehler oder unvorsichtig gewählte Klassifikationen in der Programmierung oder den Trainingsdaten der Programme potenziell gefährliche soziale Folgen nach sich ziehen.
Besonders kritisch ist die Verwendung von Daten, die in sozialen Kontexten entstanden sind, sowohl deren Verwendung für Analysen als auch deren Verwendung zum „Training“ von Künstlichen Intelligenzen. Denn sie bergen die Gefahr, dass bestehende gesellschaftliche Muster, die eigentlich ethisch abzulehnen sind, unbeabsichtigt durch den Einsatz der KI weiter festgeschrieben werden. Eine Diskussion über die ethischen Dimensionen der Verbreitung von Künstlicher Intelligenz muss vor allem auch die konkrete Nutzung von KI-Systemen und deren Einbettung in sozio-technische Strukturen behandeln und kann nicht nur auf eine „ethisch korrekte“ Programmierung der Algo-rithmen abzielen.
Beantwortet werden müssen in Zukunft Fragen wie: Wer generiert die Daten? Was davon darf von wem verwendet werden? Wer darf welche Daten weitergeben? Welche Entscheidungen darf der Mensch fällen, deren Grundlage auf der Analyse von welchen Daten durch KI-Programme beruht und welche Entscheidungen darf der Mensch an eine KI delegieren? Welche Mechanismen müssen entwickelt werden, um KI-Systeme „sicher“ zu machen?
Ethische Diskussionen helfen dem Wirtschafts- und Forschungsstandort
Gerade für einen Wirtschafts- und Forschungsstandort, der ganz vorne bei der globalen technologischen Innovation im Bereich der Künstlichen Intelligenz mitmischen will, sind Diskussionen über die ethischen Folgen der Implementierung dieser Technologien besonders wichtig. So werden Unternehmen und Gesetzgeber bereits früh auf Herausforderungen aufmerksam, sind in Diskussionen um die Gestaltung der digitalen Zukunft involviert können und proaktiv damit umgehen.
An den bisher vier Gesprächsrunden, die von der Academia Superior und dem Institut für Praktische Philosophie/Ethik der Katholischen Universität Linz zu den Fragen der Künstlichen Intelligenz organisiert wurden, haben bereits Vertreter:innen der Johannes Kepler Universität Linz, der Katholischen Privat-Universität Linz, der Sigmund Freud Universität Wien, der Kunstuniversität Linz, des Software Competence Centers Hagenberg, der Evangelischen Kirche A.B. in Oberösterreich, aus dem Journalismus, von Meinungsforschungseinrichtungen und Marketingunternehmen teilge-nommen.
Zitate aus den Gesprächen
„Als Zukunftsregion sollte sich Oberösterreichs Forschungslandschaft aktiv in diese Diskussionen einklinken.“ – Christine Haberlander
„Ist die Trennung zwischen starker und schwacher Künstlicher Intelligenz angesichts der Fortschritte bei der schwachen Künstlichen Intelligenz noch sinnvoll?“ – Michael Fuchs
„Wir brauchen eine Ethik der Verwendung von KI und Algorithmen und nicht eine Ethik der Techno-logie alleine.“ – Uli Meyer
„Die eigentliche ethische Frage, vor der wir stehen lautet: Wie gehen wir mit Information um?“ – Bernhard Nessler
„Die Skalierbarkeit von Datenanalysen ist heute durch KI viel größer als früher.“ – Helga Wagner
„Die Pandemie hat das Zerbrechen der geteilten Öffentlichkeit verstärkt.“ – Lukas Kaelin
„Je polarisierter eine Gesellschaft ist, desto schwieriger ist es, Glaubwürdigkeit zu erreichen.“ – Julian Reiss
„Sprachprogramme mit KI lassen die Menschen zusammenwachsen.“ – Bernad Batinic
Fotos: honorafrei
Foto 1: Christine Haberlander © Academia Superior/ wakolbinger
Foto 2: Expertenrunde diskutiert Regeln und Normen für KI © Academia Superior
ACADEMIA SUPERIOR – Gesellschaft für Zukunftsforschung
ACADEMIA SUPERIOR identifiziert aktuelle Herausforderungen und blickt offen und neugierig in die Zukunft. Wir schaffen Freiräume zum innovativen Voraus- und Weiterdenken und Ermutigen zu faktenbasierten Diskursen und Debatten. Die daraus resultierenden Handlungsempfehlungen er-öffnen Chancen und Potenziale für die Gestaltung der Zukunft. So wird der Think Tank zum Do Tank. Obfrau des gemeinnützigen Vereins ist LH-Stv. Mag. Christine Haberlander, der wissenschaft-liche Leiter Univ.-Prof. Dr. Markus Hengstschläger steht dem 24-köpfigen Beirat vor.
Rückfragen-Kontakt: Michael Hauer | mail: hauer@academia-superior.at | Tel: +43 732 2468 5052