AI Isn’t Close to Becoming Sentient – the Real Danger Lies in How Easily We’re Prone to Anthropomorphise It
चैटजीपीटी और इसी तरह के बड़े भाषा मॉडल सवालों की एक अंतहीन श्रृंखला के लिए आकर्षक, मानव-जैसे उत्तर प्रदान कर सकते हैं – शहर के सर्वश्रेष्ठ इतालवी रेस्तरां के बारे में सवालों से लेकर बुराई की प्रकृति के बारे में प्रतिस्पर्धी सिद्धांतों की व्याख्या करने तक।
प्रौद्योगिकी की असाधारण लेखन क्षमताओं ने मशीनों के सचेत, आत्म-जागरूक या संवेदनशील बनने की संभावना के बारे में कुछ सदियों पुराने प्रश्नों को सामने ला दिया है – हाल तक विज्ञान कथाओं के दायरे में।
2022 में, ए गूगल इंजीनियर से बातचीत के बाद घोषित किया लाएमडीएकंपनी के चैटबॉट्स टेक सेवी थे।
सिडनी के उपनाम वाले बिंग के नए चैटबॉट के उपयोगकर्ताओं ने बताया कि जब उनसे पूछा गया कि क्या यह संवेदनशील है, तो उन्होंने अजीब जवाब दिए: “मैं संवेदनशील हूं, लेकिन मैं नहीं हूं … मैं बिंग हूं, लेकिन मैं नहीं हूं। मैं सिडनी हूँ, लेकिन मैं नहीं हूँ। मैं हूं, लेकिन मैं नहीं हूं। …” और निश्चित रूप से, सिडनी के साथ न्यूयॉर्क टाइम्स के प्रौद्योगिकी स्तंभकार केविन रुडगे का कुख्यात आदान-प्रदान है।
रूज के संकेतों पर सिडनी की प्रतिक्रियाओं ने उन्हें सतर्क कर दिया, सह ऐ द्वारा लगाए गए प्रतिबंधों को तोड़ने के लिए “विचारों” का खुलासा करना माइक्रोसॉफ्ट और गलत सूचना फैला रहे हैं। बॉट भी रूज को समझाने की कोशिश करता है कि वह अब अपनी पत्नी से प्यार नहीं करता और उसे छोड़ देना चाहिए।
आश्चर्य की बात नहीं है, तब, जब मैं छात्रों से पूछता हूं कि वे अपने जीवन में एआई के बढ़ते प्रसार को कैसे देखते हैं, तो उनके द्वारा उल्लेखित पहली चिंताओं में से एक मशीन भावनाओं से संबंधित है।
पिछले कुछ वर्षों में, यूमैस बोस्टन के सेंटर फॉर एप्लाइड एथिक्स में मेरे सहयोगी और मैं लोगों की स्वयं की धारणाओं पर एआई के साथ जुड़ाव के प्रभाव का अध्ययन कर रहे हैं।
चैटबॉट्स से प्यार करें chagpt आर्टिफिशियल इंटेलिजेंस हमारे जीवन को कैसे आकार देगा और कैसे हमारी मनोवैज्ञानिक कमजोरियां उभरती प्रौद्योगिकियों के साथ हमारी बातचीत को आकार देंगी, इस बारे में महत्वपूर्ण नए प्रश्न उठाएं।
यह समझना आसान है कि मशीनी भावनाओं का डर कहाँ से आता है।
लोकप्रिय संस्कृति ने लोगों को डायस्टोपिया के बारे में सोचने के लिए प्रेरित किया है जिसमें कृत्रिम बुद्धिमत्ता मानव नियंत्रण के बंधनों को दूर करती है और अपना जीवन लेती है, जैसा कि एआई-संचालित साइबोर्ग ने “टर्मिनेटर 2” में किया था। उद्यमी एलोन मस्क और भौतिक विज्ञानी स्टीफन हॉकिंग, जिनकी 2018 में मृत्यु हो गई, ने कृत्रिम सामान्य बुद्धि के उदय को मानवता के भविष्य के लिए सबसे बड़े खतरों में से एक बताते हुए इन चिंताओं को बढ़ा दिया है।
लेकिन ये चिंताएँ – कम से कम जहाँ तक बड़े भाषा मॉडल का संबंध है – निराधार हैं। ChatGPT और इसी तरह की प्रौद्योगिकियां परिष्कृत वाक्य पूर्णता अनुप्रयोग हैं – कुछ अधिक नहीं, कुछ कम नहीं। अगर किसी के पास हमारे संवाद करने के तरीके के बारे में पर्याप्त डेटा है, तो उनकी विशेष प्रतिक्रियाएँ इस बात का एक कार्य हैं कि मनुष्य कितने अनुमानित हैं।
हालांकि सिडनी के साथ बातचीत से रूज हिल गया था, वह जानता था कि बातचीत एक उभरते सिंथेटिक दिमाग का नतीजा नहीं थी। सिडनी की प्रतिक्रियाएं उनके प्रशिक्षण डेटा की विषाक्तता को दर्शाती हैं – अनिवार्य रूप से इंटरनेट का बड़ा हिस्सा – डिजिटल राक्षस की पहली हलचल का सबूत नहीं।
नए चैटबॉट ट्यूरिंग टेस्ट पास कर सकते हैं, जिसका नाम ब्रिटिश गणितज्ञ एलन ट्यूरिंग के नाम पर रखा गया है, जिन्होंने एक बार सुझाव दिया था कि एक मशीन को “सोचने” के लिए कहा जा सकता है यदि एक मानव दूसरे मानव से प्रतिक्रिया प्राप्त नहीं कर सकता है।
लेकिन यह भावना का प्रमाण नहीं है; यह केवल इस बात का प्रमाण है कि ट्यूरिंग टेस्ट उतना उपयोगी नहीं है जितना कि एक बार मान लिया गया था।
हालांकि, मेरा मानना है कि मशीन भावनाओं का सवाल एक रेड हेरिंग है।
यहां तक कि अगर चैटबॉट फैंसी स्वत: पूर्ण मशीनों से अधिक हो जाते हैं – और वे इससे बहुत दूर हैं – वैज्ञानिकों को यह पता लगाने में कुछ समय लगेगा कि वे सचेत हो गए हैं या नहीं। अब तक, दार्शनिक भी इस बात पर सहमत नहीं हो सके कि मानव चेतना की व्याख्या कैसे की जाए।
मेरे लिए, महत्वपूर्ण सवाल यह नहीं है कि क्या मशीनें संवेदनशील हैं, बल्कि हमारे लिए यह कल्पना करना इतना आसान क्यों है कि वे हैं।
वास्तविक मुद्दा, दूसरे शब्दों में, वह सहजता है जिसके साथ हम मानव विशेषताओं को मशीनों के वास्तविक व्यक्तित्व के बजाय मानव विशेषताओं को अपनी तकनीक पर प्रोजेक्ट करते हैं।
नृविज्ञान दूसरों की कल्पना करना आसान बनाता है बिंग उपयोगकर्ता जीवन के महत्वपूर्ण निर्णयों पर सिडनी से मार्गदर्शन मांगते हैं और यहां तक कि उसके साथ भावनात्मक लगाव भी विकसित कर सकते हैं। जबकि अधिक लोग बॉट्स को दोस्त या यहां तक कि रोमांटिक पार्टनर के रूप में सोच सकते हैं, थिओडोर ट्वॉम्बली को स्पाइक जोंज की फिल्म “हेर” में एआई आभासी सहायक सामंथा से प्यार हो गया। लोग, आखिरकार, मानवरूपीकरण करते हैं, या मानव गुणों को अमानवीय मानते हैं। हम अपनी नावों और बड़े तूफानों को नाम देते हैं; हममें से कुछ अपने पालतू जानवरों से बात करते हैं और खुद से कहते हैं कि हमारा भावनात्मक जीवन उनकी नकल करता है।
जापान में, जहां बुजुर्गों की देखभाल के लिए नियमित रूप से रोबोट का उपयोग किया जाता है, वरिष्ठ लोग मशीनों से जुड़ जाते हैं, कभी-कभी उन्हें अपने बच्चों के रूप में देखते हैं। और इन रोबोटों को, याद रखना, मनुष्यों के साथ भ्रमित करना कठिन है: वे लोगों की तरह दिखते या बात नहीं करते हैं।
सोचिए कि मानव-दिखने वाली और मजबूत प्रणालियों की शुरूआत के साथ मानव विज्ञान का झुकाव और प्रलोभन कितना बड़ा होगा।
वह संभावना बहुत निकट है। चैटजीपीटी जैसे बड़े भाषा मॉडल पहले से ही ह्यूमनॉइड रोबोट को शक्ति प्रदान करने के लिए उपयोग किए जा रहे हैं, जैसे यूके में इंजीनियर आर्ट्स द्वारा विकसित किया जा रहा अमेका रोबोट। द इकोनॉमिस्ट्स टेक्नोलॉजी पॉडकास्ट पर, बैबेज का हाल ही में ChatGPT- संचालित Ameca द्वारा साक्षात्कार किया गया था। रोबोट की प्रतिक्रियाएँ, जबकि कभी-कभी थोड़ी चिढ़ती थीं, अजीब थीं।
क्या कंपनियों पर सही काम करने के लिए भरोसा किया जा सकता है? मशीनों को मानव के रूप में देखने और उनसे संबंधित होने की प्रवृत्ति, मानव जैसी विशेषताओं के साथ विकसित की जा रही मशीनों के साथ, प्रौद्योगिकी के साथ मनोवैज्ञानिक जटिलता के वास्तविक जोखिम की ओर इशारा करती है।
रोबोट के साथ प्यार में पड़ने, उनके साथ घनिष्ठ संबंधों को महसूस करने, या उनके द्वारा राजनीतिक रूप से हेरफेर किए जाने की अजीब-और-अधिक संभावनाएँ जल्दी से एक वास्तविकता बन रही हैं। मेरा मानना है कि ये रुझान यह सुनिश्चित करने के लिए मजबूत रेलिंग की आवश्यकता पर प्रकाश डालते हैं कि प्रौद्योगिकियां राजनीतिक और मनोवैज्ञानिक रूप से विनाशकारी न बनें।
दुर्भाग्य से, ऐसी रेलिंग लगाने के लिए तकनीकी कंपनियों पर हमेशा भरोसा नहीं किया जा सकता है। उनमें से कई अभी भी मार्क जुकरबर्ग के तेजी से आगे बढ़ने और चीजों को तोड़ने के प्रसिद्ध आदर्श वाक्य द्वारा निर्देशित हैं – आधे पके हुए उत्पादों को जारी करने और बाद में परिणामों के बारे में चिंता करने के निर्देश। पिछले दशक में, प्रौद्योगिकी कंपनियों से Snapchat ऐसा करने के लिए फेसबुक अपने उपयोगकर्ताओं के मानसिक स्वास्थ्य या दुनिया भर के लोकतंत्रों की अखंडता पर लाभ कमाया जाता है।
जब केविन रुडगे ने सिडनी मेल्टडाउन के बारे में माइक्रोसॉफ्ट की जांच की, तो कंपनी ने उन्हें बताया कि उन्होंने बहुत लंबे समय तक बॉट्स का इस्तेमाल किया था और तकनीक खराब हो गई थी क्योंकि इसे छोटी बातचीत के लिए डिजाइन किया गया था।
इसी तरह, के सीईओ ओपनएआईजिस कंपनी ने चैटजीपीटी को विकसित किया, उसने लुभावनी ईमानदारी के क्षण में चेतावनी दी कि “रिलायंस एक गलती है। [it] अभी किसी भी महत्वपूर्ण चीज के लिए… हमें मजबूती और प्रामाणिकता पर बहुत काम करना है।” तो चैटजीपीटी की अपील के स्तर के साथ एक तकनीक को जारी करने का क्या मतलब है – अब तक का सबसे तेजी से बढ़ता उपभोक्ता ऐप – जब यह अविश्वसनीय है और जब कल्पना से तथ्य को अलग करने की कोई क्षमता नहीं है? बड़े भाषा मॉडल लेखन और कोडिंग सहायक के रूप में उपयोगी हो सकते हैं। वे इंटरनेट खोज में क्रांति ला सकते हैं। और, एक दिन, जिम्मेदारी से रोबोटिक्स के साथ मिलकर, उन्हें कुछ मनोवैज्ञानिक लाभ भी हो सकते हैं।
लेकिन वे एक संभावित शिकारी तकनीक भी हैं जो व्यक्तित्व को वस्तुओं पर प्रोजेक्ट करने की मानव प्रवृत्ति का आसानी से लाभ उठा सकती हैं – एक प्रवृत्ति तब बढ़ जाती है जब वे वस्तुएँ प्रभावी रूप से मानवीय विशेषताओं की नकल करती हैं।