th share video content contact download event event-wifi cross checkmark close xing whatsapp wko-zahlen-daten-fakten wko-wirtschaftrecht-und-gewerberecht wko-verkehr-und-betriebsstandort wko-unternehmensfuehrung wko-umwelt-und-energie wko-steuern netzwerk wko-innovation-und-technologie wko-gruendung-und-nachfolge wko-bildung-und-lehre wko-aussenwirtschaft wko-arbeitsrecht-und-sozialrecht Twitter search print pdf mail linkedin google-plus Facebook arrow-up arrow-right arrow-left arrow-down calendar user home icon-gallery icon-flickr icon-youtube icon-instagram pinterest skype vimeo snapchat
news.wko.at
Mein WKO

Über die Ethik der Maschinen

Teil zwei der Miniserie zum Thema Künstliche Intelligenz: Können und sollen Roboter und Maschinen nach ethischen Grundsätzen handeln? 

Wie soll ein selbstfahrendes Auto im Falle eines Unfalls agieren?
© Scharfsinn86/Adobe-Stock Wie soll ein selbstfahrendes Auto im Falle eines Unfalls agieren?

Maschinen werden immer intelligenter. Sie sind lernfähig und können ihre Handlungen aufgrund eigener Erfahrungen anpassen. Doch was passiert, wenn Roboter immer menschlicher werden? Wie sieht es mit dem rechtlichen und moralischen Status aus? Diese Fragen beschäftigen die Wissenschaft schon seit den 1950er-Jahren. „Maschinen können blitzschnell Situationen erfassen und dann nach einer vorgegebenen moralischen Regel entscheiden oder die moralischen Folgen abschätzen und dann auswählen“, so Dominic Neumann, Obmann der Fachgruppe UBIT.

Über Leben und Tod 

Ein in der Praxis wichtiger Bereich der Maschinenethik ist etwa das Qualifizieren und Quantifizieren von Situationen. Wie soll ein selbstfahrendes Auto im Falle eines Unfalls agieren? Soll die Gruppe älterer Personen, das Kind auf der Straße oder der Fahrer überleben?

„Mittlerweile gibt es Quantifizierungsalgorithmen, die Menschen anhand ihres Geschlechts, Alters oder Aussehens klassifizieren und durchzählen – also beispielsweise potenzielle Unfallopfer berechnen“, erklärt Neumann. Forscher fanden heraus, dass die getroffenen Entscheidungen stark mit der Kultur der Entwickler zusammenhängen: Kollektivistische Länder wie China oder Japan verschonen zum Beispiel eher ältere Personen als Kinder. Forscher vermuten, dass dies so ist, weil diese Länder großen Res­pekt vor älteren Menschen hegen. Auch die Anzahl von Menschen, die bei verschiedenen Szenarien sterben würden, ist nicht überall auf der Welt ausschlaggebend. 

Vor allem individualistische Kulturen wie die USA oder Großbritannien versuchen eher möglichst viele Leben zu retten. „Was also müsste KI konkret in einer solchen Situation tun? Es gibt keine richtige Entscheidung“, so Neumann.

Das könnte Sie auch interessieren

Fußballfan mit Flagge

Ist die EM ein Volltreffer für die heimische Gastlichkeit?

Ab 11. Juni regiert König Fußball das Land. Public Viewing ist coronabedingt abgesagt, wie aber schaut es in der Gastlichkeit aus? Wir haben uns umgehört. mehr

Heizöl-Zapfhahn am Hausanschluss

Fokus auf Innovationen statt Verbote

Das „Ölkesselverbot“ kommt in der Steiermark doch (noch) nicht. Die Zeit wird genutzt, um grüne Alternativen voranzutreiben. mehr