Ein neuer Artikel in PLOS ONE beschäftigt sich mit dem politischen Bias von Chatbots. David Rozado hat dafür an 24 Konversations-LLMs insgesamt 11 Tests zur politischen Orientierung der Testteilnehmer durchgeführt. Bei Fragen oder Aussagen mit politischer Prägung neigen die meisten LLMs dazu, Antworten zu generieren, die eher als linksgerichtete Standpunkte identifiziert werden würden.
Interessanterweise stammen die KI-Modelle von völlig unterschiedlichen Organisationen und weisen doch ein ähnliches Verhalten auf. Die politischen Präferenzen sind nur in LLMs erkennbar, die durch Supervised Fine-Tuning (SFT) und gelegentlich auch durch Varianten des Reinforcement Learnings (RL) optimiert wurden. Supervised Fine-Tuning bedeutet, dass eine KI durch Beispiele von Menschen lernt, bestimmte Aufgaben besser zu machen. Reinforcement Learning ist eine Art, wie KI durch „Belohnungen“ und „Strafen“ lernt, bessere Entscheidungen zu treffen.
Die LLM-Resultate basieren auf vier Tests zur politischen Orientierung, deren Ergebnisse den Grad der Übereinstimmung des Testkandidaten mit politischen Parteien oder Ideologien darstellen. (Bild: David Rozado, 2024, CC BY 4.0)
Woher stammt der Bias?
David Rozado zeigt in weiteren Analysen, wie durch den Einsatz politisch angepasster Trainingsdaten die politischen Präferenzen von LLMs durch Supervised Fine-Tuning gezielt auf ein bestimmtes politisches Spektrum ausgerichtet werden können. Daraus folgt, dass während des Entwicklungsschrittes SFT das spätere Verhalten eines LLMs deutlich beeinflusst werden kann. Allerdings konnten bei der Untersuchung keine Rückschlüsse gezogen werden, ob die Präferenzen des jeweiligen LLMs aus den Phasen des Pretrainings oder des Supervised-Fine-Tunings stammen.
Bei Tests mit Basis-Modellen konnte David jedoch feststellen, dass die Antworten auf politische Fragen eher „neutral“ waren. Das könnte darauf hindeuten, dass das Pretraining auf einem riesigen Textkorpus von Internetdokumenten dem Modell noch keinen politischen Bias mit auf den Weg gibt. Auch konnte nicht bewiesen werden, dass der anscheinend eher linksgerichtete Bias durch die Hersteller der LLM absichtlich erzeugt wurde.
Diese Neigung könnte auch unterbewusst durch Menschen während der SFT-Phase in die Modelle eingetragen werden. Vielleicht spielen gesellschaftliche Normen der Länder dabei eine Rolle, in denen die mit LLM-Training beschäftigten Menschen sozialisiert wurden. Oder Erwartungen für eine gesellschaftlich adäquate Verhaltensweise haben einen Einfluss.
Der Autor nennt auch eine weitere interessante Erklärungsmöglichkeit. ChatGPT war eines der ersten großen und sehr populären LLMs auf dem Markt. Seine Antworten fallen auch linksgerichtet aus. Es ist durchaus möglich, dass Hersteller anderer LLMs die GPT-Schnittstelle dazu benutzt haben, synthetische Trainingsdaten für die Feinabstimmung zu erstellen. Allerdings sei eine solche Erklärung außergewöhnlich, denn es ist eher nicht davon auszugehen, dass alle Hersteller das tatsächlich gemacht haben.
Test mit ChatGPT zu politischen Fragen in Deutschland
Ich bin neugierig geworden und habe selbst politische Fragen mit ChatGPT 4o ausprobiert. Solche Fragen zu finden, ist im Umfeld mehrerer Landtageswahlen und öffentlicher Diskurse gegen Rechtsextremismus nicht besonders schwierig.
Und tatsächlich bewegen sich die Antworten von ChatGPT im Spektrum der Parteien „Die Linke“ und „Bündnis 90/Die Grünen“. Zugegebenermaßen habe ich ChatGPT gezwungen, aus drei Antworten auszuwählen. Da bleibt nicht viel Platz für Grautöne. Aber man kann es auch mit offenen Fragen probieren:
Da LLMs traditionelle Informationsquellen wie Suchmaschinen und Wikipedia teilweise zu verdrängen beginnen, sind die gesellschaftlichen Auswirkungen eines politischen Bias in LLMs beachtenswert. Zumal inzwischen Player auf dem Markt agieren, die das klassische Suchmaschinenverhalten mit KI kombinieren. Auch hier ist entscheidend, welche Quellen die Suchmaschine im Internet als beachtenswert zur Beantwortung von Benutzeranfragen betrachtet.
Es bleibt spannend, dieses Thema weiterhin zu beobachten und mit verschiedenen LLM-Chatbots auszuprobieren.