Sicherheit & Ethik verhaltensbasierter KI

Welche Risiken ergeben sich aus der Interaktion zwischen Menschen und intelligenten Maschinen, und wie können sie gemildert werden? 

Wir interagieren heutzutage zunehmend mit Maschinen, die durch künstliche Intelligenz gesteuert werden. Sogar in Kinderspielzeugen ist KI implementiert. KI treibt Heimassistenten wie Amazons Alexa an, die zunehmend das Leben ihrer über 100 Millionen Nutzer*innen steuern. KI übernimmt auch zunehmend Aufgaben im Namen des Menschen, von der Preisfestsetzung auf Online-Verkaufsplattformen bis hin zur Vernehmung von Verdächtigen.  

Die wichtigsten Fragen, mit denen sich das Forschungsthema Sicherheit & Ethik verhaltensbasierter KI befasst, sind: Könnten Maschinen schwarze Schafe sein und menschliches Verhalten korrumpieren? Wie sollten wir KI-Systeme gestalten, um ethische Risiken und Sicherheitsrisiken zu vermeiden? Und wie schätzen Menschen auf der ganzen Welt diese Risiken ein?

Beispielprojekte

Während Menschen KI-Ratschläge, die Ehrlichkeit fördern, ignorieren, folgen sie doch bereitwillig Ratschlägen, die zur Unehrlichkeit ermutigen, selbst wenn sie wissen, dass sie von einer KI stammen. 
Das Moral Machine-Experiment ist eine Online-Umfrage, die darauf angelegt ist, herauszufinden, wie Menschen verschiedene ethische Dilemmata im Zusammenhang mit autonomen Fahrzeugen einstufen.
Es untersucht, wann die Ängste der Verbraucher*innen gerechtfertigt sind und wie eine irrationale Abneigung der Konsument*innen gegenüber KI-Produkten und -Dienstleistungen überwunden werden kann.

Weitere Themenschwerpunkte

Zur Redakteursansicht