Einen Rahmen für intelligente Maschinen setzen
Wer ist verantwortlich, wenn Maschinen töten? Soll Künstliche Intelligenz autonom über ethische Probleme entscheiden dürfen? Und wie kann unsere Privatsphäre in einer Welt, in der intelligente Algorithmen unser Verhalten permanent analysieren, effektiv geschützt werden? Vor diese Fragen stellt uns aktuell der technologische Fortschritt. Sie müssen beantwortet werden, bevor selbstfahrende Fahrzeuge oder autonome Roboter in den Alltag einziehen können.
Studierende stellten sich in einem Workshop gemeinsam mit Markus Hengstschläger der Herausforderung, Antworten auf diese Fragen zu finden.
Algorithmen entscheiden immer selbständiger
Die Entwicklung selbstlernender Algorithmen, welche die Basis für künstliche Intelligenz bilden, schreitet immer weiter voran. Diese Technologie basiert darauf, dass eine Software mit Daten trainiert wird um ein bestimmtes Problem später selbständig und mit eigener Herangehensweise lösen zu können. Selbstfahrende Fahrzeuge sind nur das derzeit bekannteste Beispiel für Technologien, die ohne derartige Programme nicht funktionsfähig wären. Aber auch im Gesundheitssystem, in der Werbung und in vielen weiteren Bereichen werden sie immer breiter eingesetzt: zur Früherkennung von Hautkrebs, für Kaufempfehlungen auf Online-Shopping-Portalen, für Wetter- oder Verkehrsprognosen, zur Logistikplanung, für die Spracherkennung und ‑ausgabe oder zur Partnervermittlung. Überall werden Algorithmen mittlerweile verwendet. Und sie werden immer klüger, je mehr sie eingesetzt werden und lernen die Menschen immer besser einzuschätzen und ihr Verhalten vorherzusagen. Was bedeutet das für Zukunft, wenn unser Leben immer mehr von den Empfehlungen und Entscheidungen dieser Systeme beeinflusst wird?
Maschinen haben keine Moral
Eine der Antworten, die während des Workshops gefunden wurde, lautet: Wir dürfen keine Maschinen entwickeln, deren Entscheidungen nicht mehr vom Menschen nachvollzogen werden können. Algorithmen müssen „sich erklären können“. Nur so kann auch im Vorhinein abgeschätzt werden, wie sich ein derartiges System in einer bestimmten Situation entscheiden wird, welche Handlungen es setzen wird.
Diese Systeme – so intelligent sie auch zu sein scheinen – haben kein eigenes Bewusstsein. Kategorien wie „Moral“ oder „Ethik“ sind keine Kriterien, die sie selbständig entwickeln können. Eine der großen gesellschaftlichen Aufgaben vor die Menschheit steht, ist es den Rahmen zu definieren, innerhalb dessen die Maschinen selbständig agieren dürfen. Welchen Prinzipien Algorithmen zwingend zu folgen haben, wird daher in Expertenkreisen derzeit stark diskutiert.
Die Verantwortung liegt beim Menschen
Es sind immer Menschen oder Unternehmen, die für die Programmierung des Systems – für den gesetzten Rahmen – und die sich daraus ergebenden Entscheidungen verantwortlich sind. Die Maschine selbst kann es nicht sein. Und: wir dürfen keine Technologie einsetzen, die wir nicht mehr verstehen, deren Entscheidungen und Handlungen für den Menschen nicht mehr vorhersehbar sind. Diese Schlussfolgerungen fassten die Studierenden.
„Eine der Aufgaben der Politik liegt darin, den technologischen Fortschritt derart zu verlangsamen, dass der Mensch noch mitkommen kann. Die Politik muss überprüfen, ob das, was technisch machbar ist, auch wirklich sinnvoll ist. Und im Zweifel auch gegensteuern“, formulierte Markus Hengstschläger einen Appell. Gerade im Bereich der Online-Medien ist die Situation in den letzten Jahren außer Kontrolle geraten, bemerkten einige der Studierenden und verwiesen auf Phänomene wie Fake News, Hasskommentare und gesteuerte Meinungsbeeinflussung im Internet. Diese Entwicklung gehe so weit, dass sie die demokratische Grundordnung bedrohe.
Was kann dagegen getan werden? „Bildung und Wissensvermittlung sind die einzigen nachhaltigen Lösungen“, lautete die Antwort des wissenschaftlichen Leiters der ACADEMIA SUPERIOR. Nur wer gelernt hat, Google-Suchergebnisse, Facebook-Postings usw. hinsichtlich ihrer Quellen und Motive zu hinterfragen, kann Fakten von Fake unterscheiden. Hier haben alle etwas beizutragen: Die Wissenschaft muss Wissen schaffen und erklären; die Medien müssen dieses Wissen kommunizieren und zu Information machen; und die Bürger haben die Pflicht sich zu informieren und sich, darauf basierend, politisch zu entscheiden.
Am 30. März wird dieses Thema von der ACADEMIA SUPERIOR bei einem Symposium mit internationalen Expertinnen und Experten in Gmunden weiterdiskutiert. Eine öffentliche Abendveranstaltung bietet Einblicke in die Gespräche. Mehr Infos und Anmeldung zum ACADEMIA SUPERIOR SURPRISE FACTORS SYMPOSIUM auf www.academia-superior.at/plenum