人工智能在未经原住民同意的情况下利用其数据,是否重现了殖民主义?

人工智能在未经原住民同意的情况下利用其数据,是否重现了殖民主义?

人工智能系统越来越多地在未经原住民同意或公平补偿的情况下,利用原住民的语言、生物识别数据、地理空间数据和生态数据。这种做法让人联想到殖民时代的资源掠夺,只是这次是以数字形式进行。虽然《名古屋议定书》等严格规则已对遗传资源的使用进行了规范,但在人工智能领域,却没有类似的保护措施来保障原住民的知识。企业和国家以数据开放和科学中立为幌子,利用这些知识,无视联合国所承认的权利。

人工智能对原住民数据的提取有多种形式。未经授权,濒危语言的录音,如毛利语(te reo Māori)或夏威夷语(ʻōlelo Hawaiʻi),被用于训练语音识别模型。生物识别监控不成比例地针对原住民社区,特别是在示威或抵抗运动期间。人工智能分析的卫星地图揭示了圣地或自然资源,使这些领土面临不必要的入侵。此外,生态数据的数字化开发绕过了传统保护措施,如同过去的生物盗窃者对药用植物所做的那样。

这些做法并非中立。它们延续了殖民主义逻辑,将原住民知识视为可自由获取的资源。然而,对于相关民族而言,语言、生物识别数据或环境知识并非简单的数据集。它们体现了一种文化、一种身份认同以及与土地的深厚联系。未经同意的占有加剧了不平等,并威胁着社区的主权。

面对这一现实,原住民治理框架,如OCAP(拥有、控制、访问、所有权)和CARE(集体利益、权威、责任、伦理)原则,提供了另一种选择。OCAP原则强调社区应控制其数据的访问、拥有和使用。CARE原则强调集体利益、监管权威、共同责任和尊重伦理的重要性。将这些原则纳入受《名古屋议定书》启发的国际准入和利益分享机制,可以迫使人工智能开发者与知识持有者进行谈判。这意味着需要获得知情同意、确定公平条款并重新分配这些技术带来的经济利益。

这样的法律框架将使人工智能成为正义的工具而非统治的工具。它将承认原住民不是被动的主体,而是完全的合作伙伴,能够决定如何使用其数据。具体例子表明这种方法是可行的。在加拿大,利益分享协议已经使一些社区能够从其传统知识的利润中获益。在新西兰,与科技公司的合作已经开发出适应当地语言的语音识别工具,这些工具是与相关社区共同开发并为其服务的。

这一问题至关重要。如果没有保护,人工智能可能会重现殖民主义的最恶劣过度行为,将对人民和领土的剥削数字化。但通过明确且具有约束力的规则,它也可以成为文化复兴和原住民权利认可的杠杆。技术并非命运:其影响取决于我们今天所做的选择。


Documentation et sources

Document de référence

DOI : https://doi.org/10.1007/s00146-026-02931-z

Titre : Preventing AI extractivism: the case for braiding indigenous data justice with ABS for stronger AI data governance

Revue : AI & SOCIETY

Éditeur : Springer Science and Business Media LLC

Auteurs : Maria Schulz; Jordan Loewen-Colón

Speed Reader

Ready
500