L’intelligence artificielle reproduit-elle le colonialisme en exploitant les données autochtones sans leur accord

L’intelligence artificielle reproduit-elle le colonialisme en exploitant les données autochtones sans leur accord

Les systèmes d’intelligence artificielle exploitent de plus en plus les langues, les données biométriques, géospatiales et écologiques des peuples autochtones sans leur consentement ni juste compensation. Cette pratique rappelle les méthodes coloniales d’extraction des ressources, mais cette fois sous une forme numérique. Alors que des règles strictes existent pour encadrer l’utilisation des ressources génétiques, comme le prévoit le Protocole de Nagoya, rien de comparable ne protège les savoirs autochtones dans le domaine de l’IA. Les entreprises et les États profitent ainsi de ces connaissances sous couvert d’ouverture des données et de neutralité scientifique, au mépris des droits reconnus par les Nations unies.

L’extraction de données autochtones par l’IA prend plusieurs formes. Des enregistrements de langues menacées, comme le te reo Māori ou l’ʻōlelo Hawaiʻi, ont été utilisés sans autorisation pour entraîner des modèles de reconnaissance vocale. La surveillance biométrique cible de manière disproportionnée les communautés autochtones, notamment lors de manifestations ou de mouvements de résistance. Les cartes satellites analysées par l’IA révèlent des sites sacrés ou des ressources naturelles, exposant ces territoires à des intrusions indésirables. Enfin, l’exploitation numérique des données écologiques permet de contourner les protections traditionnelles, comme le faisaient autrefois les biopirates avec les plantes médicinales.

Ces pratiques ne sont pas neutres. Elles perpétuent une logique coloniale où les savoirs autochtones sont traités comme des ressources libres d’accès. Pourtant, pour les peuples concernés, la langue, les données biométriques ou les connaissances environnementales ne sont pas de simples ensembles de données. Elles incarnent une culture, une identité et une relation profonde à la terre. Leur appropriation non consentie aggrave les inégalités et menace la souveraineté des communautés.

Face à ce constat, des cadres de gouvernance autochtones, comme les principes OCAP et CARE, proposent une alternative. OCAP affirme que les communautés doivent contrôler l’accès, la possession et l’utilisation de leurs données. CARE insiste sur l’importance d’un bénéfice collectif, d’une autorité de contrôle, d’une responsabilité partagée et d’une éthique respectueuse. Intégrer ces principes à un mécanisme international d’accès et de partage des avantages, inspiré du Protocole de Nagoya, pourrait obliger les développeurs d’IA à négocier avec les détenteurs de ces savoirs. Cela signifierait obtenir un consentement éclairé, définir des termes équitables et redistribuer les bénéfices économiques générés par ces technologies.

Un tel cadre juridique transformerait l’IA en un outil de justice plutôt que de domination. Il reconnaîtrait les peuples autochtones non pas comme des sujets passifs, mais comme des partenaires à part entière, capables de décider comment leurs données sont utilisées. Des exemples concrets montrent que cette approche fonctionne. Au Canada, des accords de partage des avantages ont déjà permis à des communautés de récupérer une partie des profits tirés de leurs savoirs traditionnels. En Nouvelle-Zélande, des collaborations avec des entreprises technologiques ont abouti à des outils de reconnaissance vocale adaptés aux langues locales, développés avec et pour les communautés concernées.

L’enjeu est de taille. Sans protection, l’IA risque de reproduire les pires excès du colonialisme, en numérisant l’exploitation des peuples et de leurs territoires. Mais avec des règles claires et contraignantes, elle pourrait au contraire devenir un levier de revitalisation culturelle et de reconnaissance des droits autochtones. La technologie n’est pas une fatalité : son impact dépend des choix que nous faisons aujourd’hui.


Documentation et sources

Document de référence

DOI : https://doi.org/10.1007/s00146-026-02931-z

Titre : Preventing AI extractivism: the case for braiding indigenous data justice with ABS for stronger AI data governance

Revue : AI & SOCIETY

Éditeur : Springer Science and Business Media LLC

Auteurs : Maria Schulz; Jordan Loewen-Colón

Speed Reader

Ready
500