Home / IT-Herausforderungen / Kontrollverlust durch KI: „Auch Maschinen brauchen moralische Regeln“

Kontrollverlust durch KI: „Auch Maschinen brauchen moralische Regeln“

hand-697264_1280

Bild: Pixabay

Vor den Folgen einer ungezügelten Entwicklung und Erforschung der Künstlichen Intelligenz warnt der Mainzer Philosoph Thomas Metzinger (57). Dies berichtet das Hamburger Wirtschaftsmagazin Bilanz in seiner am Freitag erscheinenden Ausgabe.

Gefahren sieht Metzinger vor allem beim Einsatz der Künstlichen Intelligenz in den Bereichen Militär und Finanztransaktionen, etwa an der Börse. Die Menschen sollten hier „keine weitere Autonomie an Maschinen abgeben, weil der mögliche Schaden die Allgemeinheit betrifft“. Denkende Maschinen könnten zu der Überzeugung gelangen, „dass die Menschen irreparable Störkräfte sind, die man in Reservaten friedlich aussterben lässt“.

Rechner, die menschliche Wahrnehmung und menschliches Handeln nachbildeten, bieten Metzinger zufolge jedoch auch Chancen: „Wenn wir in den nächsten 20 bis 50 Jahren erkennen, dass wir die Kontrolle über globale Krisen wie Migration oder Klimawandel verloren haben, dann könnte es auch eine Künstliche Intelligenz geben, die mit unendlich vielen Fakten gefüttert wird und gute Vorschläge“ zur Bewältigung der Probleme mache.

Um dieses Ziel zu erreichen, müssten die Wissenschaftler Maschinen jedoch verantwortungsvoll programmieren: „Zum einen müssen wir Menschen klären, was wir selbst mit Maschinen tun wollen – sei es beim Drohnenkrieg, bei autonomen Kampfrobotern, bei Pflegerobotern. Aber auch die Maschinen selbst brauchen moralische Regeln.“

Doch die Entscheidung darüber, welche ethischen Maßstäbe angelegt würden, sei insofern problematisch, als weltweit unterschiedliche Wertsysteme existierten. „Stellen Sie sich Google-Autos in Saudi-Arabien vor: Es könnte sein, dass das System Ungläubige beim Autounfall eher sterben lässt als Gläubige“, sagte Metzinger der Bilanz.

Share

Leave a Reply

Your email address will not be published. Required fields are marked *

*