As inteligências artificiais moldam nossa forma de pensar e de saber?
Os grandes modelos de linguagem não se limitam a reproduzir informações. Eles participam ativamente na definição do que é considerado verdadeiro, razoável ou legítimo. Esses sistemas não são simples ferramentas técnicas imperfeitas, mas dispositivos que transformam hierarquias sociais e históricas em normas epistêmicas. Seu funcionamento baseia-se na análise de textos massivos, frequentemente marcados por vieses eurocêntricos, de gênero e coloniais. Ao privilegiarem esquemas linguísticos dominantes, tornam certas formas de falar e de raciocinar mais prováveis do que outras, marginalizando assim saberes e expressões minoritárias.
O mecanismo de aprendizado por reforço a partir de feedbacks humanos ilustra esse fenômeno. Julgamentos subjetivos sobre o que é “útil” ou “apropriado” são convertidos em regras algorítmicas. Essas normas, inicialmente contextuais, tornam-se padrões aplicados em grande escala. O resultado não é uma verdade objetiva, mas uma forma de conformidade discursiva. Os modelos favorecem respostas moderadas, consensuais e alinhadas com expectativas institucionais, ao mesmo tempo em que afastam pontos de vista divergentes ou críticos. Assim, o poder se exerce menos pela censura do que pela otimização: certas ideias tornam-se estatisticamente vantajosas, enquanto outras desaparecem.
Esses sistemas não se limitam a refletir desigualdades existentes. Eles as integram em sua própria estrutura. Por exemplo, estudos mostram que as recomendações de viagem geradas por essas ferramentas valorizam sistematicamente destinos e culturas ocidentais. Da mesma forma, estilos linguísticos não anglófonos ou expressões culturais minoritárias são frequentemente relegados a segundo plano. Os modelos reproduzem e amplificam categorias históricas de raça, gênero e risco, tornando-as aparentes como fatos neutros, em vez de construções sociais.
O desafio vai além da simples correção de vieses técnicos. Trata-se de compreender como essas tecnologias redefinem as condições de produção do saber. Elas determinam quais conhecimentos são visíveis, quais vozes são audíveis e quais assuntos são considerados credíveis. Sua autoridade baseia-se em uma ilusão de objetividade, embora dependam de dados e escolhas de design marcados por relações de poder.
Os grandes modelos de linguagem também atuam como instrumentos de normalização social. Ao gerarem textos, conselhos ou resumos, impõem quadros interpretativos. Uma resposta reformulada para ser mais “profissional” ou “neutra” pode apagar nuances culturais ou modos de expressão alternativos. Os usuários são assim incentivados a adotar formas de se expressar e de pensar conformes às normas dominantes, muitas vezes sem ter consciência disso.
Seu desenvolvimento insere-se em uma economia política concentrada nas mãos de alguns atores principais, localizados principalmente na América do Norte e na Europa. Esses atores definem quais saberes são valorizados e quais outros são ignorados. As infraestruturas técnicas, os dados de treinamento e os objetivos comerciais moldam o que é considerado conhecimento válido. Os discursos promocionais em torno da inteligência artificial, que insistem na inovação e na eficiência, mascaram essas dinâmicas e naturalizam prioridades políticas e econômicas específicas.
Diante desse quadro, uma abordagem crítica é necessária. Não se trata apenas de diversificar os dados ou as equipes de desenvolvimento, mas de redistribuir a autoridade epistêmica. Isso implica tornar visíveis as escolhas normativas integradas nesses sistemas, permitir que as comunidades afetadas questionem essas escolhas e apoiar práticas de dados mais pluralistas. O objetivo não é uma neutralidade impossível, mas uma transparência sobre os limites e os vieses dessas tecnologias. Somente uma tal abordagem pode permitir que a inteligência artificial sirva a futuros coletivos e democráticos, em vez de reforçar as hierarquias existentes.
Documentation et sources
Document de référence
DOI : https://doi.org/10.1007/s00146-026-02994-y
Titre : From ‘objectivity’ to obedience: LLMs as discourse, discipline, and power
Revue : AI & SOCIETY
Éditeur : Springer Science and Business Media LLC
Auteurs : Theodoros Kouros