Klar scheint: Auch Maschinenhirne sind keineswegs so objektiv und unvoreingenommen wie lange gedacht. Sollen sie künftig wichtige und potenziell folgenreiche Entscheidungen treffen, muss man dies berücksichtigen – und wo möglich gegensteuern.
Der Mensch muss das letzte Wort behalten
Die naheliegendste Lösung wäre es, beim Training der künstlichen Intelligenzen darauf zu achten, welche Daten verwendet werden – und sie gründlich auf mögliche Verzerrungen zu prüfen. Allerdings dürfte dies schwer sein, wenn es sich um Verzerrungen und implizite Vorurteile handelt, die uns Menschen nicht bewusst sind. Nach Ansicht von Wolfgang Einhäuser-Treyer und Alexandra Bendixen von der Technischen Universität Chemnitz ist es daher wichtig, über diese „Fallen“ aufzuklären – auch und gerade die Öffentlichkeit.
Sie fordern zudem, dass Entscheidungsprozesse von KI-Systemen möglichst nachvollziehbar bleiben. Denn die Nachvollziehbarkeit von und Verantwortlichkeit für Entscheidungsprozesse seien die zentralen Voraussetzungen für die Akzeptanz von Entscheidungen und die Grundlage jeder gesellschaftlichen und rechtlichen Ordnung. „Das Abwälzen der Verantwortung für Entscheidungen auf ein KI-System ist daher nicht hinnehmbar“, sagen die Forscher.
Eine KI kann auch Moral lernen
Ein weiteres Problemfeld sind Entscheidungen von künstlichen Intelligenzen, die eine moralische Grundlage erfordern. So muss ein Roboter wissen, dass man Brot toastet, jedoch keine Hamster oder dass bestimmte Handlungen illegal sind. Anders ausgedrückt: Das Maschinenhirn braucht einen Moral-Kompass. Aber kann sie einen solchen Kompass von uns Menschen überhaupt erlernen?