Prägen Künstliche Intelligenzen unsere Art zu denken und zu wissen?
Große Sprachmodelle begnügen sich nicht damit, Informationen zu reproduzieren. Sie wirken aktiv an der Definition dessen mit, was als wahr, vernünftig oder legitim angesehen wird. Diese Systeme sind keine einfachen, unvollkommenen technischen Werkzeuge, sondern Vorrichtungen, die soziale und historische Hierarchien in epistemische Normen verwandeln. Ihre Funktionsweise basiert auf der Analyse massenhafter Texte, die oft von eurozentristischen, geschlechtsspezifischen und kolonialen Verzerrungen geprägt sind. Indem sie dominante sprachliche Muster bevorzugen, machen sie bestimmte Arten des Sprechens und Denkens wahrscheinlicher als andere und marginalisieren so minoritäre Wissensformen und Ausdrucksweisen.
Der Mechanismus des bestärkenden Lernens durch menschliches Feedback veranschaulicht dieses Phänomen. Subjektive Urteile darüber, was „nützlich“ oder „angemessen“ ist, werden in algorithmische Regeln umgewandelt. Diese ursprünglich kontextabhängigen Normen werden zu großflächig angewendeten Standards. Das Ergebnis ist keine objektive Wahrheit, sondern eine Form diskursiver Konformität. Die Modelle begünstigen gemäßigtere, konsensfähige und an institutionelle Erwartungen angepasste Antworten, während abweichende oder kritische Standpunkte ausgeblendet werden. So übt Macht weniger durch Zensur als durch Optimierung Einfluss aus: Manche Ideen werden statistisch begünstigt, während andere verschwinden.
Diese Systeme beschränken sich nicht darauf, bestehende Ungleichheiten widerzuspiegeln. Sie integrieren sie in ihre Struktur selbst. Studien zeigen beispielsweise, dass Reiseempfehlungen, die von diesen Tools generiert werden, systematisch westliche Ziele und Kulturen aufwerten. Ebenso werden nicht-englischsprachige Sprachstile oder minoritäre kulturelle Ausdrucksformen oft in den Hintergrund gedrängt. Die Modelle reproduzieren und verstärken historische Kategorien von Rasse, Geschlecht und Risiko und lassen sie als neutrale Fakten erscheinen, statt als soziale Konstruktionen.
Die Herausforderung geht über die bloße Korrektur technischer Verzerrungen hinaus. Es geht darum zu verstehen, wie diese Technologien die Bedingungen der Wissensproduktion neu definieren. Sie bestimmen, welches Wissen sichtbar ist, welche Stimmen gehört werden und welche Themen als glaubwürdig erachtet werden. Ihre Autorität beruht auf der Illusion von Objektivität, obwohl sie von Daten und Gestaltungsentscheidungen abhängen, die von Machtverhältnissen geprägt sind.
Große Sprachmodelle wirken auch als Instrumente sozialer Normierung. Indem sie Texte, Ratschläge oder Zusammenfassungen generieren, setzen sie interpretative Rahmenbedingungen. Eine umformulierte Antwort, die „professioneller“ oder „neutraler“ klingt, kann kulturelle Nuancen oder alternative Ausdrucksformen auslöschen. Nutzer:innen werden so dazu angehalten, sich an die dominanten Normen des Sprechens und Denkens anzupassen, oft ohne sich dessen bewusst zu sein.
Ihre Entwicklung ist in eine politische Ökonomie eingebettet, die in den Händen weniger großer Akteure konzentriert ist, die sich hauptsächlich in Nordamerika und Europa befinden. Diese Akteure legen fest, welches Wissen wertgeschätzt und welches ignoriert wird. Technische Infrastrukturen, Trainingsdaten und kommerzielle Ziele prägen, was als valides Wissen gilt. Die Werbediskurse um Künstliche Intelligenz, die Innovation und Effizienz betonen, verschleiern diese Dynamiken und naturalisieren spezifische politische und wirtschaftliche Prioritäten.
Documentation et sources
Document de référence
DOI : https://doi.org/10.1007/s00146-026-02994-y
Titre : From ‚objectivity‘ to obedience: LLMs as discourse, discipline, and power
Revue : AI & SOCIETY
Éditeur : Springer Science and Business Media LLC
Auteurs : Theodoros Kouros