Les intelligences artificielles façonnent-elles notre façon de penser et de savoir

Les intelligences artificielles façonnent-elles notre façon de penser et de savoir

Les grands modèles de langage ne se contentent pas de reproduire des informations. Ils participent activement à la définition de ce qui est considéré comme vrai, raisonnable ou légitime. Ces systèmes ne sont pas de simples outils techniques imparfaits, mais des dispositifs qui transforment les hiérarchies sociales et historiques en normes épistémiques. Leur fonctionnement repose sur l’analyse de textes massifs, souvent marqués par des biais eurocentristes, genrés et coloniaux. En privilégiant les schémas linguistiques dominants, ils rendent certaines façons de parler et de raisonner plus probables que d’autres, marginalisant ainsi des savoirs et des expressions minoritaires.

Le mécanisme d’apprentissage par renforcement à partir de retours humains illustre ce phénomène. Des jugements subjectifs sur ce qui est « utile » ou « approprié » sont convertis en règles algorithmiques. Ces normes, initialement contextuelles, deviennent des standards appliqués à grande échelle. Le résultat n’est pas une vérité objective, mais une forme de conformité discursive. Les modèles favorisent des réponses modérées, consensuelles et alignées sur des attentes institutionnelles, tout en écartant les points de vue divergents ou critiques. Ainsi, le pouvoir s’exerce moins par la censure que par l’optimisation : certaines idées deviennent statistiquement avantageuses, tandis que d’autres disparaissent.

Ces systèmes ne se limitent pas à refléter des inégalités existantes. Ils les intègrent dans leur structure même. Par exemple, des études montrent que les recommandations de voyage générées par ces outils valorisent systématiquement les destinations et les cultures occidentales. De même, les styles linguistiques non anglophones ou les expressions culturelles minoritaires sont souvent relégués au second plan. Les modèles reproduisent et amplifient les catégories historiques de race, de genre et de risque, les rendant apparentes comme des faits neutres plutôt que comme des constructions sociales.

L’enjeu dépasse la simple correction des biais techniques. Il s’agit de comprendre comment ces technologies redéfinissent les conditions de production du savoir. Elles déterminent quelles connaissances sont visibles, quelles voix sont audibles et quels sujets sont jugés crédibles. Leur autorité repose sur une illusion d’objectivité, alors qu’elles dépendent de données et de choix de conception marqués par des rapports de pouvoir.

Les grands modèles de langage agissent aussi comme des instruments de normalisation sociale. En générant des textes, des conseils ou des résumés, ils imposent des cadres interprétatifs. Une réponse reformulée pour être plus « professionnelle » ou « neutre » peut effacer des nuances culturelles ou des modes d’expression alternatifs. Les utilisateurs sont ainsi incités à adopter des façons de s’exprimer et de penser conformes aux normes dominantes, souvent sans en avoir conscience.

Leur développement s’inscrit dans une économie politique concentrée entre les mains de quelques acteurs majeurs, principalement situés en Amérique du Nord et en Europe. Ces acteurs définissent quels savoirs sont valorisés et quels autres sont ignorés. Les infrastructures techniques, les données d’entraînement et les objectifs commerciaux façonnent ce qui est considéré comme une connaissance valable. Les discours promotionnels autour de l’intelligence artificielle, qui insistent sur l’innovation et l’efficacité, masquent ces dynamiques et naturalisent des priorités politiques et économiques spécifiques.

Face à ce constat, une approche critique est nécessaire. Il ne s’agit pas seulement de diversifier les données ou les équipes de développement, mais de redistribuer l’autorité épistémique. Cela implique de rendre visibles les choix normatifs intégrés dans ces systèmes, de permettre aux communautés affectées d’interroger ces choix et de soutenir des pratiques de données plus pluralistes. L’objectif n’est pas une neutralité impossible, mais une transparence sur les limites et les partis pris de ces technologies. Seule une telle démarche peut permettre à l’intelligence artificielle de servir des futurs collectifs et démocratiques, plutôt que de renforcer les hiérarchies existantes.


Documentation et sources

Document de référence

DOI : https://doi.org/10.1007/s00146-026-02994-y

Titre : From ‘objectivity’ to obedience: LLMs as discourse, discipline, and power

Revue : AI & SOCIETY

Éditeur : Springer Science and Business Media LLC

Auteurs : Theodoros Kouros

Speed Reader

Ready
500