Искусственный интеллект воспроизводит ли колониализм, эксплуатируя данные коренных народов без их согласия
Системы искусственного интеллекта все чаще эксплуатируют языки, биометрические, геопространственные и экологические данные коренных народов без их согласия и справедливой компенсации. Эта практика напоминает колониальные методы добычи ресурсов, но теперь в цифровой форме. Хотя существуют строгие правила использования генетических ресурсов, как предусмотрено Нагойским протоколом, ничего подобного не защищает знания коренных народов в области ИИ. Компании и государства извлекают выгоду из этих знаний под предлогом открытости данных и научной нейтральности, игнорируя права, признанные Организацией Объединенных Наций.
Извлечение данных коренных народов с помощью ИИ принимает различные формы. Записи находящихся под угрозой исчезновения языков, таких как те рео маори или ʻōlelo Hawaiʻi, использовались без разрешения для обучения моделей распознавания речи. Биометрический мониторинг непропорционально направлен на коренные общины, особенно во время протестов или движений сопротивления. Спутниковые карты, анализируемые ИИ, раскрывают священные места или природные ресурсы, подвергая эти территории нежелательным вторжениям. Наконец, цифровая эксплуатация экологических данных позволяет обойти традиционные защиты, как это делали биопираты с лекарственными растениями.
Эти практики не нейтральны. Они продолжают колониальную логику, в которой знания коренных народов рассматриваются как свободно доступные ресурсы. Однако для заинтересованных народов язык, биометрические данные или экологические знания — это не просто наборы данных. Они воплощают культуру, идентичность и глубокую связь с землей. Их несанкционированное присвоение усугубляет неравенство и угрожает суверенитету общин.
В ответ на это коренные народы предлагают рамки управления, такие как принципы OCAP и CARE. OCAP утверждает, что общины должны контролировать доступ, владение и использование своих данных. CARE подчеркивает важность коллективной выгоды, контролирующего органа, совместной ответственности и уважительной этики. Интеграция этих принципов в международный механизм доступа и распределения выгод, вдохновленный Нагойским протоколом, могла бы обязать разработчиков ИИ договариваться с носителями этих знаний. Это означало бы получение информированного согласия, определение справедливых условий и перераспределение экономических выгод, полученных от этих технологий.
Такая правовая основа превратила бы ИИ из инструмента господства в инструмент справедливости. Она признавала бы коренные народы не пассивными субъектами, а полноправными партнерами, способными решать, как используются их данные. Конкретные примеры показывают, что этот подход работает. В Канаде соглашения о распределении выгод уже позволили общинам получать часть прибыли от использования их традиционных знаний. В Новой Зеландии сотрудничество с технологическими компаниями привело к созданию инструментов распознавания речи, адаптированных к местным языкам и разработанных вместе с заинтересованными общинами.
Ставки высоки. Без защиты ИИ рискует воспроизвести худшие излишества колониализма, оцифровывая эксплуатацию народов и их территорий. Но с четкими и обязательными правилами он мог бы, напротив, стать инструментом культурного возрождения и признания прав коренных народов. Технология — не фатум: ее влияние зависит от выбора, который мы делаем сегодня.
Documentation et sources
Document de référence
DOI : https://doi.org/10.1007/s00146-026-02931-z
Titre : Preventing AI extractivism: the case for braiding indigenous data justice with ABS for stronger AI data governance
Revue : AI & SOCIETY
Éditeur : Springer Science and Business Media LLC
Auteurs : Maria Schulz; Jordan Loewen-Colón