Künstliche Intelligenz und die Frage nach der Moral
Computerprogramme bestimmen bereits heute viele Aspekte unseres Lebens. Die zunehmende Verbreitung künstlicher Intelligenzen verspricht für die Zukunft einen zunehmend größeren Einfluss von Software auf unser Leben. Dabei übernehmen Computerprogramme immer häufiger auch Entscheidungen, die folgenreiche Konsequenzen für uns, die wir ihnen diese Entscheidung überlassen, aber auch für andere Menschen haben können. Ein besonders beliebtes Beispiel ist etwa autonomes Fahren. Viele Unternehmen testen bereits mit einigem Erfolg selbstfahrende Fahrzeuge. Eine flächendeckende Einführung selbstfahrender Autos verspricht weniger Unfälle, damit auch weniger Tote im Straßenverkehr. Doch im Straßenverkehr gibt es auch Situationen, in denen Menschen – und zukünftig auch Maschinen – vor moralischen Dillemata stehen. Wenn wir diese Entscheidungen zukünftig Maschinen überlassen, stellt sich die Frage, nach welchen Kriterien diese entscheiden sollen.
Ein einfaches Beispiel: Ein selbstfahrendes Auto mit einer*m Insass*in fährt eine Straße entlang, als plötzlich vor ihm eine Person auf die Straße läuft. Eine Bremsung würde das Auto nicht rechtzeitig zum Stehen bringen, ein Ausweichmanöver würde das Auto mit hoher Wahrscheinlichkeit frontal gegen eine Wand fahren lassen, die*der Insass*in würde dabei sterben. Kein Ausweichmanöver würde mit an Sicherheit grenzender Wahrscheinlichkeit die*den Fußgänger*in töten. Die Künstliche Intelligenz, die das Fahrzeug steuert steht also vor der Entscheidung, wer von beiden überleben soll: Die*der Fußgänger*in oder der Fahrgast? Wie soll sich die Maschine entscheiden? Wie würde ein Mensch entscheiden?
Als Autofahrer*in ist eine wohlüberlegte Entscheidung in einer solchen Situation nahezu unmöglich. Bis das menschliche Gehirn überhaupt abgeschätzt hat, was die Konsequenzen des eigenen Handelns wären, ist es vermutlich bereits zum Aufprall gekommen. Das menschliche Gehirn würde also im Affekt entscheiden. Anders ist es bei einer Maschine. Die kann in vielen Fällen die Konsequenzen einer Handlung nicht nur deutlich präziser vorhersagen; sie braucht dafür nur wenige Sekundenbruchteile. Aber wie soll sie sich entscheiden? Welche Faktoren sollen in die Entscheidungsfindung einfließen?
Wirtschaftlich gesehen macht es vermutlich Sinn, die*den Fußgänger*in zu überfahren, schließlich verkauft sich ein Auto, das im Zweifel seine Insass*innen tötet erwartungsgemäß schlecht. Moralisch gesehen handelt es sich hier jedoch um ein Dillema ohne allgemeingültige Lösung. Verschiedene Ethiken würden unterschiedliche Antworten auf die Frage geben – und sie würden unterschiedliche Faktoren berücksichtigen.
Die Digitalisierung schafft viele solcher Problematiken, auf die wir als Gesellschaft die richtigen Antworten finden müssen. Ein bewusster Umgang mit neuen Problematiken, aber auch Chancen erfordert eine aktive Auseinandersetzung mit diesen Themen.
Wir interessieren uns deshalb für deine Sichtweise: Wonach sollten sich künstliche Intelligenzen deiner Meinung nach richten, wenn sie moralische Entscheidungen treffen müssen?
Schreib uns deine Sichtweise und wir veröffentlichen diese als Beitrag zu dieser Debatte auf unserem Blog.
2019 – Manuel Ziegler