Ethik der Maschinen
Aus Wiki1
(Der Versionsvergleich bezieht 6 dazwischenliegende Versionen mit ein.) | |||
Zeile 1: | Zeile 1: | ||
- | Im Zusammenhang mit [[künstlicher Intelligenz]] und [[autonomen Fahrzeugen]] wird regelmäßig auf die Notwendigkeit ethischer [[ | + | Im Zusammenhang mit [[künstliche Intelligenz|künstlicher Intelligenz]] und [[autonome Fahrzeuge|autonomen Fahrzeugen]] wird regelmäßig auf die Notwendigkeit ethischer [[Algorithmen]] verwiesen. D.h. es sollen Regeln für eindeutige ethisch-moralische Entscheidungen in den Maschinen implementiert werden. |
- | Dabei wird | + | Dabei wird anscheinend stillschweigend vorausgesetzt, dass es solche klaren Regeln in der Wirklichkeit gäbe. Dass dies nicht so ist, zeigen unsere täglichen [[Wo beginnt Verantwortung|Dilemmata im Zusammenhang mit moralischen Entscheidungen]]. |
- | Das [ | + | Das [https://de.wikipedia.org/wiki/Trolley-Problem Trolley-Problem] ist ein solches Dilemma. Darf man den Tod eines Einzelnen in Kauf nehmen oder aktiv herbeiführen, um das Leben von vielen zu retten?. Ein Zug rast auf eine Weiche zu, hinter der Gleisbauarbeiten stattfinden. Je nach Stellung der Weiche werden mehrere oder nur ein Gleisarbeiter getötet. Ich stehe neben dem Hebel der Weiche und muss entscheiden, wo der Zug lang fährt. |
+ | |||
+ | Die Beschreibung des Problems weist auf eine Schwierigkeit hin, die bei diesen Fragen immer auftritt: Die Problemstellung ist sehr eindeutig und bietet nur eine begrenzte Zahl von Optionen. In der Wirklichkeit gibt es jedoch immer Uneindeutigkeiten. Folgen sind oft nicht sicher sondern nur wahrscheinlich und auch die Wirkung eines [[Entschlossenes Handeln|aktiven Eingriffs]] sind selten sicher vorauszusagen: | ||
+ | |||
+ | *Wenn ich nichts tue, schafft es der Zug vielleicht, rechtzeitig zu bremsen | ||
+ | *Wenn ich die Weiche umlege, um die vielen Arbeiter zu retten, entgleist der Zug und es sterben noch mehr Menschen | ||
+ | *Ich könnte laut brüllen, um die Arbeiter zu warnen | ||
+ | *Die Arbeiter hören den Zug rechtzeitig und springen von den Gleisen | ||
+ | *Ich stürze mich selbst auf die Gleise und zwinge, unter Einsatz meines Lebens, den Zugführer zum Bremsen | ||
+ | |||
+ | Hinzu kommt, dass Menschen eine solche Situation niemals so reduziert wahrnehmen werden, wie sie in der Problembeschreibung zusammengefasst ist. Tatsächlich werden unzählige Informationen auf uns einwirken, die vielleicht zu völlig anderen Einschätzungen der Situation führen würden. | ||
+ | |||
+ | Es wird deshalb so schnell keine maschinelle Ethik geben. Bereits heute zeigt sich, dass Maschinen, die auf strikte Einhaltung der StVO programmiert sind, im realen Verkehr nicht von der Stelle kommen würden. Sie müssten lernen, sich kontextabhängig regelwidrig zu verhalten. Viel Spaß beim Lernen! | ||
+ | |||
+ | ==Mathematischer Moralkompas== | ||
+ | Mit dem mathematischer [[Moralkompass]] kann der geneigte Leser oder die geneigte Leserin selbst ausprobieren, ob eine automatisierte Ethik sinnvoll ist. | ||
+ | |||
+ | [[Kategorie:Leben und Technik]][[Kategorie:Philosophie]] |
Aktuelle Version vom 15:39, 10. Mär. 2024
Im Zusammenhang mit künstlicher Intelligenz und autonomen Fahrzeugen wird regelmäßig auf die Notwendigkeit ethischer Algorithmen verwiesen. D.h. es sollen Regeln für eindeutige ethisch-moralische Entscheidungen in den Maschinen implementiert werden.
Dabei wird anscheinend stillschweigend vorausgesetzt, dass es solche klaren Regeln in der Wirklichkeit gäbe. Dass dies nicht so ist, zeigen unsere täglichen Dilemmata im Zusammenhang mit moralischen Entscheidungen.
Das Trolley-Problem ist ein solches Dilemma. Darf man den Tod eines Einzelnen in Kauf nehmen oder aktiv herbeiführen, um das Leben von vielen zu retten?. Ein Zug rast auf eine Weiche zu, hinter der Gleisbauarbeiten stattfinden. Je nach Stellung der Weiche werden mehrere oder nur ein Gleisarbeiter getötet. Ich stehe neben dem Hebel der Weiche und muss entscheiden, wo der Zug lang fährt.
Die Beschreibung des Problems weist auf eine Schwierigkeit hin, die bei diesen Fragen immer auftritt: Die Problemstellung ist sehr eindeutig und bietet nur eine begrenzte Zahl von Optionen. In der Wirklichkeit gibt es jedoch immer Uneindeutigkeiten. Folgen sind oft nicht sicher sondern nur wahrscheinlich und auch die Wirkung eines aktiven Eingriffs sind selten sicher vorauszusagen:
- Wenn ich nichts tue, schafft es der Zug vielleicht, rechtzeitig zu bremsen
- Wenn ich die Weiche umlege, um die vielen Arbeiter zu retten, entgleist der Zug und es sterben noch mehr Menschen
- Ich könnte laut brüllen, um die Arbeiter zu warnen
- Die Arbeiter hören den Zug rechtzeitig und springen von den Gleisen
- Ich stürze mich selbst auf die Gleise und zwinge, unter Einsatz meines Lebens, den Zugführer zum Bremsen
Hinzu kommt, dass Menschen eine solche Situation niemals so reduziert wahrnehmen werden, wie sie in der Problembeschreibung zusammengefasst ist. Tatsächlich werden unzählige Informationen auf uns einwirken, die vielleicht zu völlig anderen Einschätzungen der Situation führen würden.
Es wird deshalb so schnell keine maschinelle Ethik geben. Bereits heute zeigt sich, dass Maschinen, die auf strikte Einhaltung der StVO programmiert sind, im realen Verkehr nicht von der Stelle kommen würden. Sie müssten lernen, sich kontextabhängig regelwidrig zu verhalten. Viel Spaß beim Lernen!
Mathematischer Moralkompas
Mit dem mathematischer Moralkompass kann der geneigte Leser oder die geneigte Leserin selbst ausprobieren, ob eine automatisierte Ethik sinnvoll ist.