人工智慧是否塑造了我們的思考和認知方式

人工智慧是否塑造了我們的思考和認知方式

大型語言模型並不僅僅是複製資訊。它們積極參與了定義什麼被認為是真實的、合理的或合法的。這些系統不僅僅是不完美的技術工具,更是轉變社會和歷史層級為認知規範的裝置。它們的運作基於對大量文本的分析,這些文本通常帶有歐洲中心主義、性別偏見和殖民主義的偏見。通過優先考慮主流的語言模式,它們使某些表達和推理方式比其他方式更有可能出現,從而邊緣化了少數群體的知識和表達方式。

從人類反饋中進行強化學習的機制說明了這一現象。關於什麼是「有用」或「適當」的主觀判斷被轉化為演算法規則。這些最初具有情境性的規範成為大規模應用的標準。其結果並不是客觀的真理,而是一種話語上的順從。模型傾向於產生溫和的、共識性的、符合制度期望的回答,同時排除了不同或批判性的觀點。因此,權力的行使與其說是通過審查,不如說是通過優化:某些觀點在統計上變得有利,而其他觀點則消失。

這些系統並不僅僅反映現有的不平等。它們將這些不平等整合到其結構中。例如,研究表明,這些工具生成的旅行建議系統性地偏向西方目的地和文化。同樣,非英語的語言風格或少數群體的文化表達往往被置於次要地位。模型複製並放大了歷史上關於種族、性別和風險的範疇,使其看起來像是中立的事實,而不是社會建構。

這一問題的核心不僅僅是修正技術偏見。關鍵在於理解這些技術如何重新定義知識生產的條件。它們決定了哪些知識是可見的,哪些聲音是可聽見的,以及哪些主題被認為是可信的。它們的權威建立在客觀性的幻覺之上,而實際上它們依賴於帶有權力關係的數據和設計選擇。

大型語言模型還作為社會規範化的工具。通過生成文本、建議或摘要,它們強加了詮釋框架。一個被重新表述得更「專業」或「中立」的回答可能會抹去文化細微差別或替代性的表達方式。用戶因此被鼓勵採用符合主流規範的表達和思考方式,往往在無意識中如此。

它們的發展處於集中在少數主要參與者手中的政治經濟體系中,這些參與者主要位於北美和歐洲。這些參與者決定了哪些知識被重視,哪些被忽視。技術基礎設施、訓練數據和商業目標共同塑造了什麼被認為是有效的知識。圍繞人工智慧的宣傳話語強調創新和效率,掩蓋了這些動態,並將特定的政治和經濟優先事項自然化。

面對這一現實,我們需要採取批判性的方法。這不僅僅是多樣化數據或開發團隊的問題,更是重新分配認知權威的問題。這需要揭示這些系統中內嵌的規範性選擇,使受影響的社群能夠質疑這些選擇,並支持更多元化的數據實踐。目標不是追求不可能的中立性,而是透明化這些技術的局限性和偏見。只有這樣的做法才能使人工智慧服務於集體和民主的未來,而不是強化現有的層級結構。


Documentation et sources

Document de référence

DOI : https://doi.org/10.1007/s00146-026-02994-y

Titre : From ‘objectivity’ to obedience: LLMs as discourse, discipline, and power

Revue : AI & SOCIETY

Éditeur : Springer Science and Business Media LLC

Auteurs : Theodoros Kouros

Speed Reader

Ready
500