هل ذكاء الاصطناعي يعيد إنتاج الاستعمار من خلال استغلال البيانات الأصلية دون موافقتهم

هل ذكاء الاصطناعي يعيد إنتاج الاستعمار من خلال استغلال البيانات الأصلية دون موافقتهم

تستغل أنظمة الذكاء الاصطناعي بشكل متزايد اللغات والبيانات الحيوية والجغرافية المكانية والبيئية للشعوب الأصلية دون موافقتهم أو تعويض عادل. هذه الممارسة تذكّر بأساليب الاستعمار في استخراج الموارد، ولكن هذه المرة بشكل رقمي. على الرغم من وجود قواعد صارمة لتنظيم استخدام الموارد الوراثية، كما ينص عليه بروتوكول ناغويا، لا يوجد ما يعادلها لحماية المعارف الأصلية في مجال الذكاء الاصطناعي. تستفيد الشركات والدول بذلك من هذه المعارف تحت غطاء انفتاح البيانات والحياد العلمي، متجاهلة الحقوق المعترف بها من قبل الأمم المتحدة.

يأخذ استخراج بيانات الشعوب الأصلية بواسطة الذكاء الاصطناعي أشكالاً متعددة. تم استخدام تسجيلات للغة مهددة بالانقراض، مثل لغة تي ريو موري أو لغة أوليلو هاواي، دون إذن لتدريب نماذج التعرف على الصوت. تستهدف المراقبة الحيوية بشكل غير متناسب المجتمعات الأصلية، خاصة خلال التظاهرات أو حركات المقاومة. تكشف الخرائط الفضائية التي تحللها أنظمة الذكاء الاصطناعي عن المواقع المقدسة أو الموارد الطبيعية، مما يعرض هذه الأراضي للتدخلات غير المرغوب فيها. أخيراً، يسمح الاستغلال الرقمي للبيانات البيئية بتجاوز الحماية التقليدية، كما كان يفعل “مستغلو الموارد الحيوية” سابقاً مع النباتات الطبية.

هذه الممارسات ليست محايدة. إنها تستمر في منطق استعماري حيث تُعامل المعارف الأصلية على أنها موارد حرة الوصول. ومع ذلك، بالنسبة للشعوب المعنية، اللغة والبيانات الحيوية والمعرفة البيئية ليست مجرد مجموعات بيانات. إنها تجسد ثقافة وهوية وعلاقة عميقة بالأرض. استيلاءها غير المصرح به يفاقم عدم المساواة ويهدد سيادة المجتمعات.

في مواجهة هذا الواقع، تقدم أطر الحكم الذاتي الأصلية، مثل مبادئ OCAP وCARE، بديلاً. يؤكد مبدأ OCAP على أن المجتمعات يجب أن تتحكم في الوصول والحيازة والاستخدام لبياناتها. بينما يؤكد مبدأ CARE على أهمية المنفعة الجماعية وسلطة الرقابة والمسؤولية المشتركة وأخلاقيات الاحترام. دمج هذه المبادئ في آلية دولية للوصول ومشاركة المنافع، مستوحاة من بروتوكول ناغويا، يمكن أن يجبر مطوري الذكاء الاصطناعي على التفاوض مع حاملي هذه المعارف. هذا يعني الحصول على موافقة مستنيرة، وتحديد شروط عادلة وإعادة توزيع الفوائد الاقتصادية الناتجة عن هذه التقنيات.

يمكن لإطار قانوني من هذا القبيل أن يحول الذكاء الاصطناعي إلى أداة للعدالة بدلاً من الهيمنة. سيُعترف بالشعوب الأصلية ليس ككيانات سلبية، بل كشركاء كاملين، قادرين على تحديد كيفية استخدام بياناتهم. هناك أمثلة ملموسة تُظهر أن هذا النهج يعمل. في كندا، سمحت اتفاقيات مشاركة المنافع للمجتمعات باستعادة جزء من الأرباح المستمدة من معارفها التقليدية. في نيوزيلندا، أدت التعاونات مع الشركات التكنولوجية إلى تطوير أدوات للتعرف على الصوت ملائمة للغة المحلية، تم تطويرها مع هذه المجتمعات ولصالحها.

التحدي كبير. بدون حماية، قد يعيد الذكاء الاصطناعي إنتاج أسوأ مظاهر الاستعمار، من خلال رقمنة استغلال الشعوب وأراضيها. ولكن مع قواعد واضحة وملزمة، يمكن أن يصبح بدلاً من ذلك رافعة لإحياء الثقافة والاعتراف بحقوق الشعوب الأصلية. التكنولوجيا ليست قدراً محتوماً: تأثيرها يعتمد على الاختيارات التي نتخذها اليوم.


Documentation et sources

Document de référence

DOI : https://doi.org/10.1007/s00146-026-02931-z

Titre : Preventing AI extractivism: the case for braiding indigenous data justice with ABS for stronger AI data governance

Revue : AI & SOCIETY

Éditeur : Springer Science and Business Media LLC

Auteurs : Maria Schulz; Jordan Loewen-Colón

Speed Reader

Ready
500