Während künstliche Intelligenz in nahezu allen Bereichen unseres Alltags Einzug hält, wächst in Österreich auch das Bewusstsein für die ethischen Herausforderungen, die mit dieser technologischen Revolution einhergehen. Von algorithmischer Entscheidungsfindung in Behörden bis hin zur Gesichtserkennung im öffentlichen Raum – die Implementierung von KI-Systemen wirft grundlegende Fragen zu Grundrechten, Datenschutz und gesellschaftlichen Werten auf.
Algorithmen in öffentlichen Entscheidungsprozessen
In mehreren Pilotprojekten der österreichischen Verwaltung werden bereits KI-Systeme zur Unterstützung bei Entscheidungsprozessen eingesetzt. So testet beispielsweise das Arbeitsmarktservice (AMS) seit 2019 ein System, das Arbeitssuchende nach ihren Chancen am Arbeitsmarkt kategorisiert und entsprechende Fördermaßnahmen zuweist.
"Diese Entwicklung ist einerseits vielversprechend für die Effizienz der öffentlichen Verwaltung, wirft jedoch andererseits grundlegende Fragen zur Fairness und Transparenz auf", erklärt Dr. Claudia Müller, Ethikbeauftragte am Institut für Technologiefolgenabschätzung der Österreichischen Akademie der Wissenschaften. "Wenn Algorithmen über den Zugang zu staatlichen Leistungen mitentscheiden, müssen wir sicherstellen, dass sie keine Diskriminierung verstärken oder neue Ungerechtigkeiten schaffen."
Eine zentrale Herausforderung liegt dabei in der potenziellen Verstärkung bestehender gesellschaftlicher Vorurteile durch KI-Systeme. Wenn Algorithmen mit historischen Daten trainiert werden, die selbst Diskriminierungsmuster enthalten, besteht die Gefahr, dass diese Muster reproduziert und sogar verstärkt werden.

Podiumsdiskussion zum Thema "KI-Ethik" an der Universität Wien
Transparenz und Erklärbarkeit von KI-Entscheidungen
Ein weiteres zentrales ethisches Anliegen betrifft die Transparenz und Erklärbarkeit von KI-Systemen. Besonders bei komplexen neuronalen Netzwerken kann es selbst für Experten schwierig sein, nachzuvollziehen, wie bestimmte Entscheidungen zustande kommen – ein Phänomen, das oft als "Black-Box-Problem" bezeichnet wird.
"In einer demokratischen Gesellschaft haben Bürgerinnen und Bürger das Recht zu verstehen, auf welcher Grundlage Entscheidungen getroffen werden, die ihr Leben beeinflussen", betont Univ.-Prof. Dr. Peter Reichl vom Forschungszentrum Human-Computer Interaction der Universität Wien. "Dies gilt umso mehr, wenn diese Entscheidungen von automatisierten Systemen getroffen werden."
Die Europäische Union hat mit der Datenschutz-Grundverordnung (DSGVO) bereits einen wichtigen rechtlichen Rahmen geschaffen, der unter anderem ein "Recht auf Erklärung" bei automatisierten Entscheidungen vorsieht. In Österreich gehen einige Initiativen jedoch noch weiter: So fordert etwa die zivilgesellschaftliche Organisation "Algorithmenwatch Austria" verbindliche Transparenzregeln für den Einsatz von KI-Systemen in sensiblen Bereichen wie Gesundheit, Bildung und öffentlicher Verwaltung.
Privatsphäre und Datenschutz
Die Funktionsfähigkeit moderner KI-Systeme basiert auf der Verarbeitung enormer Datenmengen – oft auch persönlicher Daten. Dies führt zu Spannungen zwischen technologischem Fortschritt und dem Grundrecht auf Privatsphäre.
"Der Schutz persönlicher Daten ist in Österreich traditionell ein hohes Gut, das durch die DSGVO zusätzlich gestärkt wurde", erläutert Dr. Max Schrems, Datenschutzaktivist und Gründer der NGO noyb. "Dennoch sehen wir eine zunehmende Sammlung und Verarbeitung von Daten durch KI-Anwendungen, oft ohne ausreichende Transparenz für die Betroffenen."
Besonders umstritten ist der Einsatz von Gesichtserkennungstechnologien im öffentlichen Raum. Nach Pilotversuchen der Polizei in Wien hat sich eine breite Debatte über die Verhältnismäßigkeit solcher Überwachungsmaßnahmen entwickelt. Kritiker wie die Grundrechte-NGO epicenter.works warnen vor einem schleichenden Übergang zu einer Überwachungsgesellschaft, während Befürworter auf Vorteile für die öffentliche Sicherheit verweisen.
Autonome Systeme und Verantwortlichkeit
Mit zunehmender Autonomie von KI-Systemen stellt sich auch die Frage nach der Verantwortlichkeit bei Fehlentscheidungen oder Schäden. Dies betrifft verschiedene Bereiche – von selbstfahrenden Fahrzeugen bis hin zu medizinischen Diagnosesystemen.
"Unser Rechtssystem basiert traditionell auf der Zuordnung von Verantwortung zu natürlichen oder juristischen Personen", erklärt Univ.-Prof. Dr. Nikolaus Forgó, Leiter der Forschungsstelle für Rechtsinformatik an der Universität Wien. "Bei autonomen Systemen verschwimmt diese klare Zuordnung: Ist der Hersteller, der Programmierer, der Betreiber oder gar das System selbst verantwortlich?"
Diese Fragen haben auch praktische Implikationen für die Versicherungsbranche und Haftungsregelungen. Die österreichische Regierung hat daher im Rahmen ihrer KI-Strategie eine interdisziplinäre Arbeitsgruppe eingerichtet, die Vorschläge für angepasste Haftungsregeln bei KI-Anwendungen erarbeitet.
Nationale Initiativen und europäischer Kontext
Österreich entwickelt seinen Umgang mit KI-Ethik nicht isoliert, sondern im Kontext europäischer Initiativen. Besonders relevant ist dabei der Vorschlag für eine EU-Verordnung zur Regulierung von KI ("AI Act"), der eine risikobasierte Regulierung vorsieht.
"Der europäische Ansatz versucht, Innovation zu ermöglichen und gleichzeitig grundlegende Rechte zu schützen", erläutert Dr. Sarah Spiekermann, Leiterin des Instituts für Wirtschaftsinformatik und Gesellschaft an der Wirtschaftsuniversität Wien. "Dies entspricht auch der österreichischen Position, die auf einen 'menschenzentrierten' Ansatz bei der KI-Entwicklung setzt."
Auf nationaler Ebene hat der Österreichische Rat für Robotik und Künstliche Intelligenz ethische Leitlinien entwickelt, die als Orientierung für Entwickler, Anwender und politische Entscheidungsträger dienen sollen. Diese betonen unter anderem die Prinzipien der Menschenwürde, Autonomie, Fairness und Nachhaltigkeit bei der Entwicklung und Anwendung von KI-Systemen.
Bildung und gesellschaftlicher Dialog
Eine zentrale Rolle bei der Bewältigung ethischer Herausforderungen spielt die Bildung. "Nur wenn breite Bevölkerungsschichten ein grundlegendes Verständnis von KI-Technologien entwickeln, können sie an der gesellschaftlichen Debatte teilhaben und informierte Entscheidungen treffen", betont Dr. Sophie Ehrensberger vom Digital Humanism Institut der TU Wien.
In diesem Sinne haben mehrere österreichische Universitäten interdisziplinäre Studiengänge und Forschungsprogramme eingerichtet, die technologische und ethische Aspekte der KI verbinden. Auch in der Schulbildung wird das Thema zunehmend verankert – etwa durch die Initiative "Digitale Grundbildung", die ab der Unterstufe grundlegende Konzepte der Informatik und KI vermittelt.
Fazit: Der österreichische Weg
Österreich steht, wie viele Länder, vor der Herausforderung, einen Weg zu finden, der technologischen Fortschritt ermöglicht und gleichzeitig ethische Prinzipien und Grundrechte wahrt. Der österreichische Ansatz zeichnet sich durch einen starken Fokus auf Datenschutz, transparente Verfahren und den Einbezug verschiedener gesellschaftlicher Akteure aus.
"Die ethische Dimension von KI ist keine nachgelagerte Überlegung, sondern muss von Anfang an in die Entwicklung und Implementierung einbezogen werden", resümiert Dr. Müller. "Nur so können wir sicherstellen, dass KI-Technologien tatsächlich dem Wohl der gesamten Gesellschaft dienen."
Die kommenden Jahre werden zeigen, inwieweit es Österreich gelingt, diesen Anspruch in der Praxis umzusetzen und einen eigenständigen Weg im Umgang mit den ethischen Herausforderungen der künstlichen Intelligenz zu finden – einen Weg, der sowohl die Chancen dieser Technologien nutzt als auch ihre Risiken verantwortungsvoll adressiert.