एआई विशेषज्ञों के एक एलोन मस्क-समर्थित पत्र ने चिंताओं को बढ़ाने के रूप में अपने शोध का हवाला दिया
चार आर्टिफिशियल इंटेलिजेंस विशेषज्ञों ने एक प्रकटीकरण पत्र – सह-हस्ताक्षरित में उनके काम का उल्लेख किए जाने के बाद चिंता जताई है एलोन मस्क – शोध पर तत्काल रोक लगाने की मांग।
पत्र, 22 मार्च को और शुक्रवार तक 1,800 से अधिक हस्ताक्षर के साथ, “अधिक शक्तिशाली” प्रणालियों के विकास के लिए छह महीने के सर्किट-ब्रेकर का आह्वान किया। माइक्रोसॉफ्ट– समर्थित OpenAI का नया जीपीटी-4जो मानव-जैसी बातचीत कर सकता है, गाने बना सकता है और लंबे दस्तावेज़ों को सारांशित कर सकता है।
GPT-4 के पूर्ववर्ती से chagpt पिछले साल जारी, प्रतिद्वंद्वी कंपनियां इसी तरह के उत्पादों को लॉन्च करने के लिए दौड़ पड़ी हैं।
खुले पत्र में कहा गया है कि “मानव-प्रतिस्पर्धी बुद्धिमत्ता” वाले एआई सिस्टम मानवता के लिए गंभीर खतरा पैदा करते हैं, जिसमें विश्वविद्यालय के शिक्षाविदों के साथ-साथ वर्तमान और पूर्व कर्मचारियों सहित विशेषज्ञों द्वारा 12 अध्ययनों का हवाला दिया गया है। ओपनएआई, गूगल और इसकी सहायक डीपमाइंड।
अमेरिका और यूरोपीय संघ में नागरिक समाज समूहों ने ओपनएआई के शोध पर लगाम लगाने के लिए सांसदों पर दबाव डाला है। OpenAI ने टिप्पणी के अनुरोधों का तुरंत जवाब नहीं दिया।
आलोचकों ने पत्र के पीछे संगठन पर आरोप लगाया है, फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई), जो कि मस्क फाउंडेशन द्वारा काफी हद तक वित्त पोषित है, एआई के बारे में अधिक तत्काल चिंताओं पर कल्पनाशील सर्वनाश परिदृश्यों को प्राथमिकता देने के लिए, जैसे नस्लवाद या सेक्सिस्ट पूर्वाग्रह को मशीनों में प्रोग्राम किया जा रहा है।
उद्धृत शोध में मार्गरेट मिशेल द्वारा सह-लेखक “ऑन द डेंजरस ऑफ स्टोचैस्टिक तोते” का एक प्रसिद्ध पेपर था, जो पहले Google में नैतिक एआई अनुसंधान का निरीक्षण करता था।
एआई फर्म हगिंग फेस में अब मुख्य नैतिक वैज्ञानिक मिशेल ने पत्र की आलोचना करते हुए रॉयटर्स को बताया कि यह स्पष्ट नहीं था कि “जीपीटी 4 से अधिक शक्तिशाली” क्या था।
“कई संदिग्ध विचारों को उपहार के रूप में मानते हुए, पत्र में प्राथमिकताओं का एक सेट होता है और एआई पर एक कथा होती है जो एफएलआई के समर्थकों को लाभ पहुंचाती है,” उसने कहा। “सक्रिय नुकसान को नजरअंदाज करना हममें से कुछ के लिए एक विशेषाधिकार है।”
उनके सह-लेखक टिमनिट गेब्रू और एमिली एम। बेंडर ने पत्र की आलोचना की ट्विटरउत्तरार्द्ध इसके कुछ दावों को “अनहिंज्ड” ब्रांडिंग के साथ कहते हैं।
FLI के अध्यक्ष मैक्स टेगमार्क ने रायटर को बताया कि अभियान OpenAI के कॉर्पोरेट लाभ को बाधित करने का प्रयास नहीं था।
“यह प्रफुल्लित करने वाला है। मैंने लोगों को यह कहते देखा है, ‘एलोन मस्क प्रतियोगिता को कम करने की कोशिश कर रहे हैं,” उन्होंने कहा, पत्र का मसौदा तैयार करने में मस्क की कोई भूमिका नहीं थी। “यह एक कंपनी के बारे में नहीं है।”
अब जोखिम
कनेक्टिकट विश्वविद्यालय में एक सहायक प्रोफेसर शिरी डोरे-हाकोहेन ने भी पत्र में उनके काम का हवाला देते हुए मुद्दा उठाया। उसने पिछले साल एक पेपर का सह-लेखन किया था जिसमें तर्क दिया गया था कि एआई का व्यापक उपयोग पहले से ही गंभीर जोखिम पैदा करता है।
उनके शोध का तर्क है कि एआई सिस्टम का वर्तमान उपयोग जलवायु परिवर्तन, परमाणु युद्ध और अन्य अस्तित्वगत खतरों के संबंध में निर्णय लेने को प्रभावित कर सकता है।
उसने रायटर से कहा: “एआई को उन जोखिमों को बढ़ाने के लिए मानव-स्तर की बुद्धिमत्ता तक पहुँचने की आवश्यकता नहीं है।”
“ऐसे गैर-मौजूद खतरे हैं जो वास्तव में महत्वपूर्ण हैं, लेकिन हॉलीवुड स्तर के समान ध्यान नहीं देते हैं।”
आलोचना पर टिप्पणी करने के लिए कहा गया, FLI के टेगमार्क ने कहा कि AI के अल्पकालिक और दीर्घकालिक दोनों जोखिमों को गंभीरता से लिया जाना चाहिए।
“अगर हम किसी को उद्धृत करते हैं, तो इसका मतलब है कि हम दावा करते हैं कि वे उस वाक्य का समर्थन कर रहे हैं। इसका मतलब यह नहीं है कि वे पत्र का समर्थन कर रहे हैं, या यह कि हम उनकी हर बात का समर्थन करते हैं,” उन्होंने रॉयटर्स को बताया।
कैलिफोर्निया स्थित सेंटर फॉर एआई सेफ्टी के निदेशक डैन हेंड्रिक्स, जिन्हें पत्र में उद्धृत किया गया था, ने रॉयटर्स को बताया कि यह ब्लैक स्वान की घटनाओं पर विचार करने लायक था – जो कि संभावना नहीं है, लेकिन विनाशकारी परिणाम होंगे।
खुले पत्र में यह भी चेतावनी दी गई है कि “प्रचार और झूठ” के साथ इंटरनेट को भरने के लिए जनरेटिव एआई टूल्स का इस्तेमाल किया जा सकता है।
डोरे-हैकोहेन ने कहा कि मस्क के लिए ट्विटर पर हस्ताक्षर करना “बहुत समृद्ध” था, मंच के अधिग्रहण के बाद ट्विटर पर गलत सूचना में वृद्धि का हवाला देते हुए, जिसे नागरिक समाज समूह कॉमन कॉज़ और अन्य ने प्रलेखित किया है।
ट्विटर जल्द ही अपने अनुसंधान डेटा तक पहुँचने के लिए एक नई शुल्क संरचना शुरू करेगा, जो इस विषय पर शोध में संभावित बाधा है।
डोरी-हाकोहेन ने कहा, “इसका मेरी प्रयोगशाला के काम और गलत सूचना और गलत सूचना का अध्ययन करने वाले अन्य लोगों पर सीधा प्रभाव पड़ा है।” “हम अपनी पीठ के पीछे एक हाथ बांधकर काम कर रहे हैं।”
कस्तूरी और ट्विटर ने टिप्पणी के अनुरोधों का तुरंत जवाब नहीं दिया।
© थॉमसन रॉयटर्स 2023