‘Terminator’ Director James Cameron On AI
हॉलीवुड निर्देशक जेम्स कैमरून पहले भी इसी तरह की चिंता व्यक्त कर चुके हैं।
कनाडाई फिल्म निर्देशक जेम्स कैमरून ने कृत्रिम बुद्धिमत्ता (एआई) के तेजी से विस्तार के खतरों के बारे में अपनी चिंता व्यक्त की है और इस बात पर जोर दिया है कि 1984 की विज्ञान-फाई ब्लॉकबस्टर ‘टर्मिनेटर‘ को एक चेतावनी के रूप में काम करना चाहिए। के साथ एक साक्षात्कार में सीटीवी न्यूज़महान निर्देशक ने विश्वास व्यक्त किया कि एआई के “हथियारीकरण” के विनाशकारी परिणाम हो सकते हैं।
कृत्रिम बुद्धिमत्ता द्वारा मानवता को नष्ट करने की संभावना के बारे में पूछे जाने पर, कुछ उद्योग जगत के नेताओं द्वारा व्यक्त किया गया डर, श्री कैमरन ने कहा कि वह उनकी चिंता से पूरी तरह सहमत हैं। उन्होंने कहा, “मैं उनकी चिंता से पूरी तरह सहमत हूं। मैंने आपको 1984 में चेतावनी दी थी और आपने नहीं सुनी।” आउटलेट को बतायाउनकी फिल्म का जिक्र’टर्मिनेटर‘, जो स्काईनेट नामक एक बुद्धिमान सुपर कंप्यूटर द्वारा बनाए गए एक साइबरनेटिक हत्यारे के इर्द-गिर्द घूमती है।
श्री कैमरून के अनुसार, सबसे बड़ा खतरा नई प्रौद्योगिकियों के हथियारीकरण में है। “मुझे लगता है कि हम एआई के साथ परमाणु हथियारों की दौड़ में शामिल होने जा रहे हैं। और अगर हम इसे नहीं बनाते हैं, तो अन्य लोग निश्चित रूप से इसे बनाएंगे, और यह बढ़ेगा।”
युद्ध के मैदान पर एआई के बारे में श्री कैमरून के दृष्टिकोण में, कंप्यूटर इतनी तेजी से काम कर सकते हैं कि मनुष्य हस्तक्षेप करने में सक्षम नहीं होंगे, जिससे शांति वार्ता या युद्धविराम की संभावना समाप्त हो जाएगी। ऐसी तकनीकों का मुकाबला करने के लिए डी-एस्केलेशन पर ध्यान देने की आवश्यकता है, लेकिन निदेशक ने कहा कि उन्हें संदेह है कि एआई सिस्टम ऐसे सिद्धांतों का पालन करेंगे।
श्री कैमरन ने पहले भी इसी तरह की चिंता व्यक्त की है, उन्होंने स्वीकार किया है कि हालांकि एआई के अपने फायदे हैं, लेकिन इसके गंभीर परिणाम हो सकते हैं और संभावित रूप से दुनिया का अंत हो सकता है। उन्होंने यह भी अनुमान लगाया कि संवेदनशील कंप्यूटर पहले से ही “हमारी जानकारी के बिना, सभी मीडिया और सूचनाओं पर पूर्ण नियंत्रण के साथ” दुनिया में हेरफेर कर रहे हैं।
क्षेत्र के अग्रणी विशेषज्ञों ने भी इन चेतावनियों को दोहराया है। ओपनएआई और गूगल के डीपमाइंड जैसे तकनीकी दिग्गजों के साथ-साथ शिक्षाविदों, कानून निर्माताओं और उद्यमियों ने एआई से जुड़े जोखिमों को कम करने के उपायों का आह्वान किया है। वह इस बात पर जोर देते हैं कि महामारी और परमाणु युद्ध के खतरों को दूर करने के साथ-साथ इन चिंताओं को दूर करना एक वैश्विक प्राथमिकता होनी चाहिए।
एलोन मस्क और स्टीव वोज्नियाक सहित 1,000 से अधिक विशेषज्ञों और अधिकारियों द्वारा हस्ताक्षरित एक खुले पत्र में शक्तिशाली एआई सिस्टम के सकारात्मक प्रभाव सुनिश्चित होने और जोखिमों का प्रबंधन होने तक प्रशिक्षण में छह महीने की रोक लगाने का आह्वान किया गया है। ये चिंताएँ इस विश्वास से उपजी हैं कि एआई समाज और मानवता के लिए गंभीर खतरा पैदा कर सकता है।
दिन का विशेष वीडियो
अहमदाबाद फ्लाईओवर पर भीड़ में कार घुसने से 9 की मौत, 10 घायल: पुलिस