人工智能是否塑造了我们的思维和知识方式
大型语言模型并不满足于复制信息。它们积极参与定义什么被认为是真实的、合理的或合法的。这些系统不仅仅是不完美的技术工具,更是转变社会和历史等级为认知规范的装置。它们的运作基于对大量文本的分析,这些文本常常带有欧洲中心主义、性别和殖民主义的偏见。通过优先考虑主流的语言模式,它们使某些说话和思考方式比其他方式更有可能,从而边缘化了少数群体的知识和表达方式。
通过人类反馈的强化学习机制阐明了这一现象。关于什么是“有用”或“适当”的主观判断被转化为算法规则。这些最初具有情境性的规范变成了大规模应用的标准。其结果并不是客观真理,而是一种话语上的顺从。模型倾向于生成温和的、共识性的、符合机构期望的回答,同时排除了不同或批判性的观点。因此,权力的行使与其说是通过审查,不如说是通过优化:某些观点在统计上变得有利,而其他观点则消失。
这些系统不仅仅反映现有的不平等现象,更将其融入自身结构中。例如,研究表明,这些工具生成的旅行推荐系统性地偏爱西方目的地和文化。同样,非英语的语言风格或少数群体的文化表达往往被置于次要地位。模型复制并放大了种族、性别和风险的历史范畴,使其看起来像是中立的事实,而非社会建构。
问题的核心不在于简单地纠正技术偏见。关键在于理解这些技术如何重新定义知识生产的条件。它们决定了哪些知识是可见的,哪些声音是可听见的,以及哪些主题被认为是可信的。它们的权威性建立在客观性的幻觉之上,而实际上它们依赖于带有权力关系的数据和设计选择。
大型语言模型还充当社会规范化的工具。通过生成文本、建议或摘要,它们强加了解释框架。一个被重新表述得更“专业”或“中立”的回答可能会抹去文化细节或替代表达方式。用户因此被鼓励采用符合主流规范的表达和思维方式,往往在无意识中如此。
它们的发展嵌入在由少数主要参与者主导的政治经济中,这些参与者主要位于北美和欧洲。这些参与者决定了哪些知识被重视,哪些被忽视。技术基础设施、训练数据和商业目标共同塑造了什么被认为是有效的知识。围绕人工智能的宣传话语强调创新和效率,掩盖了这些动态,并将特定的政治和经济优先事项自然化。
面对这一现实,我们需要采取批判性的方法。这不仅仅是多样化数据或开发团队的问题,更是重新分配认知权威的问题。这意味着要揭示这些系统中嵌入的规范性选择,允许受影响的社群质疑这些选择,并支持更多元化的数据实践。目标不是追求不可能的中立性,而是透明化这些技术的局限性和偏见。只有这样,人工智能才能服务于集体和民主的未来,而不是强化现有的等级制度。
Documentation et sources
Document de référence
DOI : https://doi.org/10.1007/s00146-026-02994-y
Titre : From ‘objectivity’ to obedience: LLMs as discourse, discipline, and power
Revue : AI & SOCIETY
Éditeur : Springer Science and Business Media LLC
Auteurs : Theodoros Kouros