¿Reproduce la inteligencia artificial el colonialismo al explotar los datos indígenas sin su consentimiento?
Los sistemas de inteligencia artificial explotan cada vez más los idiomas, los datos biométricos, geoespaciales y ecológicos de los pueblos indígenas sin su consentimiento ni una compensación justa. Esta práctica recuerda a los métodos coloniales de extracción de recursos, pero esta vez en forma digital. Aunque existen reglas estrictas para regular el uso de los recursos genéticos, como establece el Protocolo de Nagoya, nada comparable protege los saberes indígenas en el ámbito de la IA. Las empresas y los Estados se benefician así de estos conocimientos bajo la apariencia de apertura de datos y neutralidad científica, ignorando los derechos reconocidos por las Naciones Unidas.
La extracción de datos indígenas por parte de la IA adopta varias formas. Grabaciones de idiomas en peligro, como el te reo Māori o el ʻōlelo Hawaiʻi, han sido utilizadas sin autorización para entrenar modelos de reconocimiento de voz. La vigilancia biométrica afecta de manera desproporcionada a las comunidades indígenas, especialmente durante manifestaciones o movimientos de resistencia. Los mapas satelitales analizados por la IA revelan sitios sagrados o recursos naturales, exponiendo estos territorios a intrusiones no deseadas. Finalmente, la explotación digital de datos ecológicos permite eludir las protecciones tradicionales, como hacían antaño los biopiratas con las plantas medicinales.
Estas prácticas no son neutrales. Perpetúan una lógica colonial en la que los saberes indígenas son tratados como recursos de libre acceso. Sin embargo, para los pueblos afectados, el idioma, los datos biométricos o los conocimientos ambientales no son simples conjuntos de datos. Encarnan una cultura, una identidad y una relación profunda con la tierra. Su apropiación no consentida agrava las desigualdades y amenaza la soberanía de las comunidades.
Ante esta situación, marcos de gobernanza indígena, como los principios OCAP y CARE, proponen una alternativa. OCAP afirma que las comunidades deben controlar el acceso, la posesión y el uso de sus datos. CARE insiste en la importancia de un beneficio colectivo, una autoridad de control, una responsabilidad compartida y una ética respetuosa. Integrar estos principios en un mecanismo internacional de acceso y reparto de beneficios, inspirado en el Protocolo de Nagoya, podría obligar a los desarrolladores de IA a negociar con los poseedores de estos saberes. Esto significaría obtener un consentimiento informado, definir términos equitativos y redistribuir los beneficios económicos generados por estas tecnologías.
Un marco jurídico de este tipo transformaría la IA en una herramienta de justicia en lugar de dominación. Reconocería a los pueblos indígenas no como sujetos pasivos, sino como socios plenos, capaces de decidir cómo se utilizan sus datos. Ejemplos concretos demuestran que este enfoque funciona. En Canadá, acuerdos de reparto de beneficios ya han permitido a comunidades recuperar parte de las ganancias obtenidas de sus saberes tradicionales. En Nueva Zelanda, colaboraciones con empresas tecnológicas han dado lugar a herramientas de reconocimiento de voz adaptadas a los idiomas locales, desarrolladas con y para las comunidades afectadas.
El desafío es considerable. Sin protección, la IA corre el riesgo de reproducir los peores excesos del colonialismo, digitalizando la explotación de los pueblos y sus territorios. Pero con reglas claras y vinculantes, podría convertirse, por el contrario, en una palanca de revitalización cultural y reconocimiento de los derechos indígenas. La tecnología no es una fatalidad: su impacto depende de las decisiones que tomemos hoy.
Documentation et sources
Document de référence
DOI : https://doi.org/10.1007/s00146-026-02931-z
Titre : Preventing AI extractivism: the case for braiding indigenous data justice with ABS for stronger AI data governance
Revue : AI & SOCIETY
Éditeur : Springer Science and Business Media LLC
Auteurs : Maria Schulz; Jordan Loewen-Colón