人工知能は私たちの考え方や知識の在り方を形作っているのか
大規模言語モデルは単に情報を再生するだけではありません。それらは、何が真実であり、合理的であり、正当であるとみなされるかの定義に積極的に関与しています。これらのシステムは単なる不完全な技術的ツールではなく、社会的および歴史的な階層構造を認識論的な規範に変える装置です。その機能は、しばしばユーロセントリック、ジェンダー、植民地主義的なバイアスが含まれる大量のテキストの分析に基づいています。支配的な言語パターンを優先することで、特定の話し方や考え方を他よりも可能性の高いものとし、少数派の知識や表現を周縁化しています。
人間のフィードバックからの強化学習のメカニズムはこの現象を示しています。「役に立つ」または「適切な」ものに関する主観的な判断がアルゴリズムのルールに変換されます。もともと文脈依存であったこれらの規範は、大規模に適用される標準となります。その結果は客観的な真実ではなく、話法的な一致の一形態です。モデルは、穏健で合意形成的、そして制度的な期待に沿った回答を優先し、異なる視点や批判的な視点を排除します。このように、権力は検閲によってではなく、最適化によって行使されます。ある考えは統計的に有利になり、他の考えは消えていきます。
これらのシステムは既存の不平等を単に反映するだけではありません。それらはその構造自体に不平等を組み込んでいます。例えば、研究によれば、これらのツールによって生成される旅行の推奨事項は、西洋の目的地や文化を体系的に重視しています。同様に、非英語圏の言語スタイルや少数派の文化的表現はしばしば二次的なものとして扱われます。モデルは、人種、ジェンダー、リスクの歴史的カテゴリーを再生産し増幅し、それらを社会的構築物ではなく中立的な事実として現れさせます。
問題は単なる技術的バイアスの修正を超えています。これらの技術が知識の生産条件をどのように再定義するかを理解することが重要です。それらは、どの知識が可視化され、どの声が聞かれ、どの主題が信頼できると判断されるかを決定します。その権威は客観性の幻想に基づいていますが、実際には権力関係に影響されたデータや設計の選択に依存しています。
大規模言語モデルはまた、社会的な標準化の手段としても機能します。テキスト、アドバイス、要約を生成することで、解釈の枠組みを課します。「プロフェッショナル」または「中立的」であるように再構成された回答は、文化的なニュアンスや代替的な表現方法を消し去る可能性があります。ユーザーは、しばしば意識せずに、支配的な規範に適合した話し方や考え方を採用するよう促されます。
その開発は、主に北米とヨーロッパに位置する少数の主要なアクターによって支配される政治経済の中に組み込まれています。これらのアクターは、どの知識が価値あるものとされ、どの知識が無視されるかを定義します。技術的インフラ、トレーニングデータ、商業的目標は、有効な知識とみなされるものを形作ります。人工知能に関するプロモーション的な言説は、イノベーションと効率性を強調することで、これらの力学を隠蔽し、特定の政治的・経済的優先事項を自然化します。
この現実を前にして、批判的なアプローチが必要です。データや開発チームを多様化するだけではなく、認識論的な権威を再分配することが求められます。これは、これらのシステムに組み込まれた規範的な選択を可視化し、影響を受けるコミュニティがこれらの選択を問い直すことを可能にし、より多元的なデータ実践を支援することを意味します。目標は不可能な中立性ではなく、これらの技術の限界と偏りに対する透明性です。このようなアプローチのみが、人工知能が既存の階層構造を強化するのではなく、集団的で民主的な未来に貢献することを可能にします。
Documentation et sources
Document de référence
DOI : https://doi.org/10.1007/s00146-026-02994-y
Titre : From ‘objectivity’ to obedience: LLMs as discourse, discipline, and power
Revue : AI & SOCIETY
Éditeur : Springer Science and Business Media LLC
Auteurs : Theodoros Kouros