Seite 1 von 1

Künstliche Intelligenz und Ethik: Dürfen Roboter töten?

Verfasst: 05.04.2021, 16:24
von Otto
Künstliche Intelligenz und Ethik: Dürfen Roboter töten?

Einige Staaten und Unternehmen entwickeln autonome Waffensysteme. Kritiker sprechen auch von „Killer-Robotern“. Diese Maschinen könnten schon bald selbst entscheiden, welche Ziele sie angreifen. Doch über Leben und Tod darf nur der Mensch entscheiden, fordern Fachleute.
(...)
Maschinen sollen im Krieg nicht über Leben und Tod entscheiden dürfen, sondern ausschließlich Menschen – diese Position vertritt nicht nur der Theologe Hartwig von Schubert, sondern sie ist gewissermaßen Konsens unter jenen, die sich mit Künstlicher Intelligenz befassen und sich öffentlich dazu äußern. Dazu zählt auch der katholische Theologe Lukas Brand von der Ruhr-Universität Bochum.
(...)
Deutschlandfunk

Re: Künstliche Intelligenz und Ethik: Dürfen Roboter töten?

Verfasst: 06.04.2021, 10:53
von Taktikus
Alleine die Aussage:"Dürfen Roboter töten" impliziert, daß Roboter unter Gesetze fallen, die das töten verbieten.

Das tun sie mMn im Moment genauso wie andere Werkzeuge nicht. Kein Mensch fragt sich, ob ein Schraubenzieher (Werkzeug), ein Messer (Werkzeug) oder eine Flex (Werkzeug) töten "darf", weil niemand solch eine "Entscheidung" zum töten von einem Werkzeug erwartet. Erst wenn einem Werkzeug die Möglichkeit einer Entscheidung zugestanden wird, durch Software oder wie auch immer, kann über diese Frage entschieden werden. Vorher ist die Frage sinnlos.

Bis dahin ist derjenige für das Werkzeug verantwortlich und für die daraus folgenden Sachverhalte, der oder die das Werkzeug in Gang gesetzt hat.

Verfasst: 06.04.2021, 15:39
von Otto
Da ein Roboter softwareabhängig ist, könnte man das Tötungsverbot einprogrammieren.