क्या कृत्रिम बुद्धिमत्ता स्वदेशी डेटा का शोषण करके उपनिवेशवाद को दोहराती है बिना उनकी सहमति के?

क्या कृत्रिम बुद्धिमत्ता स्वदेशी डेटा का शोषण करके उपनिवेशवाद को दोहराती है बिना उनकी सहमति के?

कृत्रिम बुद्धिमत्ता प्रणाली स्वदेशी लोगों की भाषाओं, जैवमापनिक, भू-स्थानिक और पारिस्थितिक डेटा का बिना उनकी सहमति या उचित मुआवज़े के बढ़ते हुए शोषण कर रही हैं। यह अभ्यास उपनिवेशवादी संसाधन निकासी के तरीकों की याद दिलाता है, लेकिन इस बार डिजिटल रूप में। जबकि आनुवंशिक संसाधनों के उपयोग को विनियमित करने के लिए सख्त नियम मौजूद हैं, जैसे कि नागोया प्रोटोकॉल में प्रावधान है, एआई के क्षेत्र में स्वदेशी ज्ञान की रक्षा के लिए ऐसा कुछ नहीं है। कंपनियां और राज्य खुले डेटा और वैज्ञानिक निष्पक्षता के बहाने इन ज्ञानों का लाभ उठाते हैं, संयुक्त राष्ट्र द्वारा मान्यता प्राप्त अधिकारों की अवहेलना करते हुए।

एआई द्वारा स्वदेशी डेटा का शोषण कई रूपों में होता है। लुप्तप्राय भाषाओं के रिकॉर्ड, जैसे कि ते रेओ माओरी या ओलेलो हवाई, बिना अनुमति के आवाज़ पहचान मॉडल को प्रशिक्षित करने के लिए इस्तेमाल किए गए हैं। जैवमापनिक निगरानी स्वदेशी समुदायों को असमान रूप से लक्षित करती है, विशेष रूप से प्रदर्शनों या प्रतिरोध आंदोलनों के दौरान। उपग्रह मानचित्रों का एआई द्वारा विश्लेषण पवित्र स्थलों या प्राकृतिक संसाधनों का पता लगाता है, जिससे इन क्षेत्रों को अवांछित घुसपैठ का खतरा होता है। अंत में, पारिस्थितिक डेटा का डिजिटल शोषण पारंपरिक सुरक्षा उपायों को दरकिनार करता है, जैसे कि पहले जैव चोर औषधीय पौधों के साथ करते थे।

ये अभ्यास निष्पक्ष नहीं हैं। वे एक उपनिवेशवादी तर्क को कायम रखते हैं जहां स्वदेशी ज्ञान को मुक्त संसाधनों के रूप में माना जाता है। हालांकि, प्रभावित लोगों के लिए, भाषा, जैवमापनिक डेटा या पर्यावरणीय ज्ञान केवल डेटा के समूह नहीं हैं। वे संस्कृति, पहचान और भूमि के साथ गहरे संबंध का प्रतिनिधित्व करते हैं। उनकी बिना सहमति के उपेक्षा असमानताओं को बढ़ाती है और समुदायों की संप्रभुता को खतरे में डालती है।

इस स्थिति के सामने, स्वदेशी शासन ढांचे, जैसे OCAP और CARE सिद्धांत, एक विकल्प प्रस्तावित करते हैं। OCAP का तात्पर्य है कि समुदायों को अपने डेटा के उपयोग, स्वामित्व और पहुंच पर नियंत्रण होना चाहिए। CARE सामूहिक लाभ, नियंत्रण प्राधिकरण, साझा जिम्मेदारी और सम्मानजनक नैतिकता के महत्व पर जोर देता है। इन सिद्धांतों को नागोया प्रोटोकॉल से प्रेरित एक अंतर्राष्ट्रीय पहुंच और लाभ साझाकरण तंत्र में शामिल करना एआई डेवलपर्स को इन ज्ञान के धारकों के साथ बातचीत करने के लिए बाध्य कर सकता है। इसका अर्थ होगा कि सूचित सहमति प्राप्त करना, निष्पक्ष शर्तें तय करना और इन तकनीकों से उत्पन्न आर्थिक लाभों को पुनर्वितरित करना।

ऐसा कानूनी ढांचा एआई को एक वर्चस्व के बजाय न्याय का उपकरण बना देगा। यह स्वदेशी लोगों को निष्क्रिय विषयों के बजाय पूर्ण भागीदारों के रूप में मान्यता देगा, जो यह तय करने में सक्षम हैं कि उनके डेटा का उपयोग कैसे किया जाए। ठोस उदाहरण दिखाते हैं कि यह दृष्टिकोण काम करता है। कनाडा में, लाभ साझाकरण समझौतों ने समुदायों को उनके पारंपरिक ज्ञान से प्राप्त लाभों का एक हिस्सा वापस पाने में सक्षम बनाया है। न्यूज़ीलैंड में, तकनीकी कंपनियों के साथ सहयोग ने स्थानीय भाषाओं के लिए आवाज़ पहचान उपकरणों का विकास किया है, जो संबंधित समुदायों के साथ और उनके लिए विकसित किए गए हैं।

मुद्दा महत्वपूर्ण है। बिना सुरक्षा के, एआई उपनिवेशवाद के सबसे बुरे अत्याचारों को दोहरा सकती है, लोगों और उनके क्षेत्रों के शोषण को डिजिटल रूप दे सकती है। लेकिन स्पष्ट और बाध्यकारी नियमों के साथ, यह सांस्कृतिक पुनरुत्थान और स्वदेशी अधिकारों की मान्यता का एक साधन बन सकती है। तकनीक एक अनिवार्यता नहीं है: इसका प्रभाव आज हम जो विकल्प चुनते हैं, उस पर निर्भर करता है।


दस्तावेज़ीकरण और स्रोत

संदर्भ दस्तावेज़

DOI: https://doi.org/10.1007/s00146-026-02931-z

शीर्षक: Preventing AI extractivism: the case for braiding indigenous data justice with ABS for stronger AI data governance

जर्नल: AI & SOCIETY

प्रकाशक: Springer Science and Business Media LLC

लेखक: Maria Schulz; Jordan Loewen-Colón

Speed Reader

Ready
500