Le intelligenze artificiali plasmano il nostro modo di pensare e di sapere?
I grandi modelli linguistici non si limitano a riprodurre informazioni. Partecipano attivamente alla definizione di ciò che è considerato vero, ragionevole o legittimo. Questi sistemi non sono semplici strumenti tecnici imperfetti, ma dispositivi che trasformano le gerarchie sociali e storiche in norme epistemiche. Il loro funzionamento si basa sull’analisi di testi massicci, spesso contrassegnati da pregiudizi eurocentrici, di genere e coloniali. Privilegiando gli schemi linguistici dominanti, rendono alcune modalità di parlare e ragionare più probabili di altre, marginalizzando così saperi ed espressioni minoritarie.
Il meccanismo di apprendimento per rinforzo a partire da feedback umani illustra questo fenomeno. Giudizi soggettivi su ciò che è “utile” o “appropriato” vengono convertiti in regole algoritmiche. Queste norme, inizialmente contestuali, diventano standard applicati su larga scala. Il risultato non è una verità oggettiva, ma una forma di conformità discorsiva. I modelli favoriscono risposte moderate, consensuali e allineate alle aspettative istituzionali, scartando punti di vista divergenti o critici. Così, il potere si esercita meno attraverso la censura che attraverso l’ottimizzazione: alcune idee diventano statisticamente vantaggiose, mentre altre scompaiono.
Questi sistemi non si limitano a riflettere disuguaglianze esistenti. Le integrano nella loro stessa struttura. Ad esempio, studi mostrano che le raccomandazioni di viaggio generate da questi strumenti valorizzano sistematicamente destinazioni e culture occidentali. Allo stesso modo, gli stili linguistici non anglofoni o le espressioni culturali minoritarie sono spesso relegati in secondo piano. I modelli riproducono e amplificano le categorie storiche di razza, genere e rischio, rendendole apparenti come fatti neutri piuttosto che come costruzioni sociali.
La posta in gioco va oltre la semplice correzione dei pregiudizi tecnici. Si tratta di comprendere come queste tecnologie ridefiniscano le condizioni di produzione del sapere. Determinano quali conoscenze sono visibili, quali voci sono udibili e quali argomenti sono considerati credibili. La loro autorità si basa su un’illusione di oggettività, mentre dipendono da dati e scelte di progettazione contrassegnate da rapporti di potere.
I grandi modelli linguistici agiscono anche come strumenti di normalizzazione sociale. Generando testi, consigli o riassunti, impongono cornici interpretative. Una risposta riformulata per essere più “professionale” o “neutrale” può cancellare sfumature culturali o modalità espressive alternative. Gli utenti sono così incentivati ad adottare modi di esprimersi e pensare conformi alle norme dominanti, spesso senza esserne consapevoli.
Il loro sviluppo si inserisce in un’economia politica concentrata nelle mani di pochi attori principali, situati principalmente in Nord America ed Europa. Questi attori definiscono quali saperi sono valorizzati e quali altri sono ignorati. Le infrastrutture tecniche, i dati di addestramento e gli obiettivi commerciali plasmano ciò che è considerato una conoscenza valida. I discorsi promozionali sull’intelligenza artificiale, che insistono sull’innovazione e l’efficienza, mascherano queste dinamiche e naturalizzano priorità politiche ed economiche specifiche.
Di fronte a questa constatazione, è necessario un approccio critico. Non si tratta solo di diversificare i dati o i team di sviluppo, ma di ridistribuire l’autorità epistemica. Ciò implica rendere visibili le scelte normative integrate in questi sistemi, permettere alle comunità interessate di interrogare queste scelte e sostenere pratiche di dati più pluraliste. L’obiettivo non è una neutralità impossibile, ma una trasparenza sui limiti e i pregiudizi di queste tecnologie. Solo un tale approccio può permettere all’intelligenza artificiale di servire futuri collettivi e democratici, piuttosto che rafforzare le gerarchie esistenti.
Documentation et sources
Document de référence
DOI : https://doi.org/10.1007/s00146-026-02994-y
Titre : From ‘objectivity’ to obedience: LLMs as discourse, discipline, and power
Revue : AI & SOCIETY
Éditeur : Springer Science and Business Media LLC
Auteurs : Theodoros Kouros