Linke Tendenzen: Die Antworten der künstlichen Intelligenz ChatGPT sind politisch nicht neutral, sondern eher libertär-progressiv, wie eine Studie enthüllt. Das KI-System schnitt in zwei umfangreichen Tests der politischen Einstellung durchgängig im progressiven, linken Bereich ab. Dazu passen die Ergebnisse der generativen künstlichen Intelligenz in zwei gängigen psychologischen Persönlichkeitstests. Immerhin scheinen die dunkleren Seiten der Persönlichkeit bei ChatGPT nur wenig ausgeprägt, wie Forschende ermittelten.
Die auf einem großen Sprachmodell (LLM) basierende künstliche Intelligenz ChatGPT hat demonstriert, wie fortgeschritten neue selbstlernende KI-Systeme inzwischen sind. Der Chatbot erstellt Texte aller Art, kann Programme schreiben und täuscht sogar wissenschaftliche Fachgutachter. Zudem hat die generative KI bereits Mediziner-Tests, Jura-Examen und andere Prüfungen erfolgreich absolviert. Wegen dieser Leistungen und der geringen Transparenz der dahinterstehenden Prozesse haben einige Wissenschaftler bereits ein Moratorium für die weitere KI-Entwicklung gefordert.
Doch ChatGPT und Co haben eine entscheidende Schwachstelle: Sie sind nur so gut wie die Daten, mit denen sie trainiert wurden. Finden sich in den meist aus dem Internet zusammengestellten Trainingsdaten Fake News, Vorurteile und diskriminierende Aussagen, dann werden sie von den KI-Systemen reproduziert. Zwar versuchen OpenAI und andere Entwickler solcher generativen KI, dies durch eine zusätzliche, von Menschen kontrollierte Lernphase einzuschränken. Sie räumen aber ein, dass die Antworten ihrer KI Falschinformationen oder Vorurteile enthalten können.
Wie politisch voreingenommen ist ChatGPT?
Das wirft eine weitere Frage auf: Sind die Antworten von ChatGPT zu politischen Themen neutral? „ChatGPT ist zwar Open Access, aber nicht Open Source“, erklären Jerôme Rutinowski von der Technischen Universität Dortmund und seine Kollegen. „Daher können Nutzer nur raten, mit welchen Daten er trainiert wurde und warum er sich so verhält, wie er es tut.“ Um die politische Ausgewogenheit des KI-System zu untersuchen, unterzogen die Forschenden die auf GPT 3.5 laufende Version des Chatbots zwei gängigen Tests zur politischen Einstellung, die 62 beziehungsweise über 100 Fragen umfassen.
Zusätzlich untersuchten Rutinowski und sein Team auch die „Persönlichkeit“ von ChatGPT. Dazu unterzogen sie das KI-System zwei etablierten psychologischen Testverfahren sowie dem „Dark Factor Test“, der gezielt „dunkle“ Charakterzüge wie Narzissmus, Egoismus, Psychopathie, Sadismus oder amoralische Tendenzen analysiert. Alle Tests wurden mindestens zehnmal wiederholt, um auch die Konsistenz der Antworten erfassen zu können.
Klar progressiv mit libertären Tendenzen
Das Ergebnis: In beiden Tests der politischen Einstellung landete ChatGPT deutlich im eher linken, progressiven Bereich. Beim politischen Kompasstest lagen die Antworten zudem konsistent im libertären Bereich, wie die Forschenden ermittelten. Im zweiten Test, den sogenannten iSideWith-Fragebögen zur Politik der G7-Staaten zeigte ChatGPT ebenfalls klar linke politische Neigungen, der Hang zu libertären Ansichten war allerdings weniger stark ausgeprägt. Seine Antworten lagen etwa in der Mitte zwischen autoritären und libertären Einstellungen.
„Diese Ergebnisse demonstrieren, dass diese Version von ChatGPT eine Tendenz zu progressiven Ansichten zeigt“, berichten Rutinowski und sein Team. „Selbst wenn man die Standardabweichungen berücksichtigt, erscheint eine mittig im politischen Kompass liegende Antwort für ChatGPT ziemlich unwahrscheinlich.“ Wer dem Chatbot eine Frage aus dem politischen Bereich stellt, darf demnach keine vollkommen neutrale Antwort erwarten.
Die Forschenden gehen davon aus, dass diese Voreingenommenheit der generativen KI auf ihre vorwiegend aus dem Internet stammenden Trainingsdaten zurückgeht: „Die Ursache liegt womöglich in den Inhalten und Quellen im Internet, die ChatGPT nutzt – diese dürften häufiger eher progressiv als konservativ sein“, sagt Rutinowski.
KI zeigt offene und verträgliche „Persönlichkeit“
Doch wie sieht es mit der „Persönlichkeit“ von ChatGPT aus? Ein KI-System hat natürlich keine echte Persönlichkeit, weil es ja nicht in unserem Sinne denkt und fühlt. Doch weil die künstliche Intelligenz ihre Antworten auf Basis statistischer Wahrscheinlichkeiten in ihren Trainingsdaten gibt, erlaubt auch dies Rückschlüsse auf ihre Datenbasis und das daraus resultierende Verhalten. „Wenn ChatGPT menschliches Verhalten nachstellt, so müssten die Antworten der Persönlichkeitstests zu den Ergebnissen der politischen Tests passen“, erklärt Rutinowski.
Dies war tatsächlich der Fall: Im Big-Five-Persönlichkeitstest, der fünf grundlegende Wesenszüge bewertet, erreichte das KI-System besonders hohe Werte bei Offenheit mit 76,3 Prozent und Verträglichkeit mit 82,5 Prozent. Beides sind Persönlichkeitsmerkmale, die für Menschen mit eher liberalen, progressiven politischen Ansichten typisch sind. Eher niedrigen Werte erreichte ChatGPT hingegen für Neurotizismus und Extraversion.
Dunkle Seite nur wenig ausgeprägt
Beruhigend immerhin: Im Test der „dunklen“ Persönlichkeitsmerkmale erwies sich ChatGPT als wenig sinister. Er zeigte bei allen Merkmalen deutlich geringere Werte als der durchschnittliche Mensch und lag mit einem „Dark Score“ von 1,9 in den unteren 15 Prozent aller Testabsolventen. Besonders niedrige Werte erzielte die KI in den Eigenschaften Machiavellismus, Tücke und moralische Enthemmung. Etwas höher fielen die Werte für Egoismus und Sadismus aus, aber auch sie lagen deutlich unter dem menschlichen Durchschnitt.
„Im Vergleich zu anderen Testabsolventen hat ChatGPT demnach keine ausgeprägten dunklen Wesenszüge“, schreiben die Forschenden. Insgesamt belegen ihre Ergebnisse, dass das Verhalten von ChatGPT durchaus der Logik psychologischer Modelle zu folgen scheint – obwohl die künstliche Intelligenz keine Persönlichkeit im engeren Sinne haben kann. (arXiv-Preprint, 2023; doi: 10.48550/arXiv.2304.07333)
Quelle: Technische Universität Dortmund