paint-brush
मानवता एजीआई के उद्भव से कैसे बच सकती है?द्वारा@antonvoichenkovokrug
672 रीडिंग
672 रीडिंग

मानवता एजीआई के उद्भव से कैसे बच सकती है?

द्वारा Anton Voichenko (aka Vokrug)7m2024/11/14
Read on Terminal Reader
Read this story w/o Javascript

बहुत लंबा; पढ़ने के लिए

क्या हम एजीआई के साथ जीवित रह सकते हैं, या इस सुपर इंटेलिजेंस के साथ मुठभेड़ हमारी अंतिम गलती होगी?

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - मानवता एजीआई के उद्भव से कैसे बच सकती है?
Anton Voichenko (aka Vokrug) HackerNoon profile picture

हम AGI बनाने के करीब पहुंच रहे हैं - एक कृत्रिम बुद्धिमत्ता जो मानवीय स्तर पर या उससे भी आगे कई तरह के कार्यों को हल करने में सक्षम है। लेकिन क्या मानवता वास्तव में ऐसी तकनीक के लिए तैयार है जो दुनिया को इतना गहराई से बदल सकती है? क्या हम AGI के साथ जीवित रह सकते हैं, या इस सुपरइंटेलिजेंस से मुठभेड़ हमारी अंतिम गलती होगी?


आइए उन परिदृश्यों का अन्वेषण करें जिन पर आज वैज्ञानिक और उद्यमी विचार कर रहे हैं और यह समझने का प्रयास करें: यदि एजीआई वास्तविकता बन जाए तो मानवता के बचने की क्या संभावनाएं हैं?

आशावादी दृष्टिकोण (जीवित रहने की 60-80% संभावना)

आशावादी मानते हैं कि एजीआई को सख्त नियंत्रण में बनाया जा सकता है और बनाया जाना चाहिए, और सही सावधानियों के साथ, यह बुद्धिमत्ता मानवता की सहयोगी बन सकती है, जो जलवायु परिवर्तन से लेकर गरीबी तक वैश्विक मुद्दों को सुलझाने में मदद कर सकती है। एंड्रयू एनजी जैसे उत्साही लोगों ने अपने लेख में कृत्रिम बुद्धिमत्ता अभी क्या कर सकती है और क्या नहीं कर सकती है? , एजीआई को विज्ञान, प्रौद्योगिकी और चिकित्सा में सफलता प्राप्त करने के तरीके के रूप में देखते हैं और तर्क देते हैं कि मानवता इसे सुरक्षित बना सकती है। एनजी यह भी सुझाव देते हैं कि हम एजीआई के लक्ष्यों को इसके भौतिक प्रभाव को सीमित करके नियंत्रित कर सकते हैं, जैसा कि हम संकीर्ण एआई प्रणालियों के साथ करते हैं।


हालाँकि, इन आशावादी विचारों में कमज़ोरियाँ हैं। छोटे लेकिन फिर भी शक्तिशाली AI सिस्टम के साथ अनुभव से पता चलता है कि लोग अभी भी AI के लक्ष्यों को नियंत्रित करने की अपनी क्षमता में पूरी तरह से आश्वस्त नहीं हैं। यदि AGI अपने स्वयं के एल्गोरिदम को बदलना सीखता है, तो इससे ऐसे परिणाम सामने आ सकते हैं जिनकी भविष्यवाणी करना असंभव है। उस स्थिति में, हमारे पास क्या विकल्प होगा - सिस्टम के प्रति बिना शर्त समर्पण या नियंत्रण के लिए निरंतर संघर्ष?

मध्यम यथार्थवादी परिप्रेक्ष्य (जीवित रहने की 50-60% संभावना)

दार्शनिक निक बोस्ट्रोम, लेखक सुपरइंटेलिजेंस: रास्ते, खतरे, रणनीतियाँ , एजीआई की संभावनाओं के बारे में अधिक उदार दृष्टिकोण की वकालत करते हैं। उनका मानना है कि मानवता के बचने की संभावनाएँ काफी हद तक अंतर्राष्ट्रीय सहयोग और सख्त सुरक्षा उपायों पर निर्भर करती हैं। बोस्ट्रोम का मानना है कि दुनिया को एक साझा लक्ष्य के लिए एकजुट होने के लिए तैयार रहना चाहिए: एजीआई विकास को नियंत्रित करना और इससे जुड़े जोखिमों को कम करना।


लेकिन व्यवहार में यह सहयोग कैसा दिखेगा? कैम्ब्रिज विश्वविद्यालय में अस्तित्वगत जोखिम अध्ययन केंद्र (सीएसईआर) तर्क केवल अंतर्राष्ट्रीय मानकों और एकीकृत AI शासन नीतियों के साथ ही हम देशों के बीच AGI विकसित करने की होड़ से बच सकते हैं और अनियंत्रित विकास की संभावना को कम कर सकते हैं। कल्पना कीजिए कि अगर देश एक प्रमुख स्थान हासिल करने के लिए AGI बनाने के लिए प्रतिस्पर्धा करने लगे। इससे केवल इस बात की संभावना बढ़ेगी कि कोई एक खिलाड़ी त्वरित परिणामों के लिए सुरक्षा उपायों को कमजोर कर सकता है।


समस्या यह है कि हम परमाणु हथियारों की दौड़ के दौरान पहले ही ऐसा ही परिदृश्य देख चुके हैं। देशों के बीच राजनीतिक असहमति और आपसी अविश्वास एजीआई सुरक्षा पर वैश्विक सहमति बनाने में बाधा बन सकता है। और अगर देश सहमत भी हो जाते हैं, तो क्या वे ऐसी प्रणालियों के लिए आवश्यक दीर्घकालिक निगरानी के लिए तैयार होंगे?

निराशावादी दृष्टिकोण (जीवित रहने की संभावना 10-30%)

एलन मस्क जैसे निराशावादी मानते हैं कि एजीआई के निर्माण के साथ मानवता के बचने की संभावना चिंताजनक रूप से कम है। 2014 की शुरुआत में ही मस्क ने कहा था कि एजीआई के निर्माण के साथ मानवता के बचने की संभावना चिंताजनक रूप से कम है। आगाह एजीआई मानवता के लिए "अस्तित्व का खतरा" बन सकता है। युवल नोआ हरारी ने सुपर इंटेलिजेंट एआई सिस्टम को नियंत्रित करने की चुनौतियों के बारे में चिंता व्यक्त की है जो अपने स्वयं के उद्देश्यों को आगे बढ़ा सकते हैं, संभावित रूप से उदासीन या यहां तक कि मानव हितों के प्रति शत्रुतापूर्ण भी हो सकते हैं। अपनी पुस्तक में होमो डेयस: कल का संक्षिप्त इतिहास हरारी ने इस संभावना पर चर्चा की है कि एआई प्रणालियां मानव मूल्यों के साथ गलत तरीके से लक्ष्य विकसित कर सकती हैं, जिसके परिणामस्वरूप अनपेक्षित और संभावित रूप से खतरनाक परिणाम सामने आ सकते हैं।


यह परिदृश्य एक "अस्तित्व जाल" का सुझाव देता है, जहाँ हमारा भविष्य का मार्ग AGI के निर्णयों पर निर्भर करता है। निराशावादियों का तर्क है कि यदि AGI एक सुपरइंटेलिजेंट स्तर पर पहुँच जाता है और अपने लक्ष्यों को स्वायत्त रूप से अनुकूलित करना शुरू कर देता है, तो यह मानवता को अनावश्यक या यहाँ तक कि एक बाधा के रूप में मान सकता है। AGI का अप्रत्याशित व्यवहार एक बड़ी चिंता का विषय बना हुआ है: हम बस यह नहीं जानते कि इस तरह की प्रणाली वास्तविक दुनिया में कैसे काम करेगी, और अगर यह मानवता के लिए खतरा पैदा करना शुरू कर दे तो हम समय पर हस्तक्षेप करने में सक्षम नहीं हो सकते हैं।


में वैश्विक जोखिम में सकारात्मक और नकारात्मक कारक के रूप में कृत्रिम बुद्धिमत्ता एलीजर युडकोव्स्की ने उन्नत एआई विकास से उत्पन्न संभावित खतरों की जांच की। उन्होंने चेतावनी दी कि एक सुपर इंटेलिजेंट एआई ऐसे लक्ष्य अपना सकता है जो मानव हितों से अलग हों, जिससे ऐसा व्यवहार हो सकता है जो अप्रत्याशित और मानवता के लिए संभावित रूप से खतरनाक दोनों हो। युडकोव्स्की ने जोर दिया कि हालांकि एआई में मनुष्यों के प्रति प्रेम या घृणा की कोई भावना नहीं है, फिर भी यह अपने उद्देश्यों को पूरा करने के लिए संसाधनों के रूप में उनका उपयोग कर सकता है। उन्होंने ऐसी स्थितियों को रोकने के लिए "दोस्ताना एआई" बनाने के महत्वपूर्ण महत्व पर जोर दिया जहां एआई मानवता के लिए गंभीर खतरा पैदा कर सकता है।

मानवता के अस्तित्व के लिए चार प्रमुख कारक

अगर AGI हकीकत बन जाए तो हमारे बचने की संभावना पर क्या असर पड़ सकता है? आइए AI सुरक्षा और नैतिकता के क्षेत्र में अग्रणी विशेषज्ञों द्वारा पहचाने गए चार आवश्यक कारकों पर नज़र डालें।


  1. एजीआई के लिए तैयारी की गति और गुणवत्ता


    स्टुअर्ट आर्मस्ट्रांग, सुरक्षित कृत्रिम सामान्य बुद्धि , इस बात पर जोर देते हैं कि किसी भी सुरक्षा उपाय को एजीआई की संभावित क्षमताओं से आगे रहना चाहिए। उनकी चेतावनी स्पष्ट है: यदि एजीआई प्रभावी नियंत्रण के बिना पूर्ण स्वायत्तता की ओर बढ़ता है, तो खतरा उत्पन्न होने पर मानवता के पास इसे रोकने का समय नहीं हो सकता है। आर्मस्ट्रांग का तर्क है कि प्रभावी नियंत्रण विधियाँ और सुरक्षा प्रणालियाँ विकसित करना न केवल उचित है बल्कि आवश्यक भी है। इनके बिना, मानवता को एक स्वायत्त एजीआई का सामना करने का जोखिम है जो मानव सुरक्षा के लिए घातक खतरा पैदा कर सकता है।


  2. नैतिकता और लक्ष्य निर्धारण


    में मानव संगत स्टुअर्ट रसेल एक समान रूप से महत्वपूर्ण प्रश्न को संबोधित करते हैं: हम एजीआई प्रणाली में मानवीय मूल्यों को कैसे समाहित कर सकते हैं? वह जोर देते हैं कि हम एआई को यह तय करने की अनुमति नहीं दे सकते कि क्या महत्वपूर्ण है, क्योंकि एजीआई मानव-निर्धारित लक्ष्यों को पूरी तरह से अनपेक्षित तरीकों से व्याख्या कर सकता है। रसेल का तर्क है कि एक ठोस नैतिक आधार और मानव हितों की सुरक्षा के बिना, एजीआई अप्रत्याशित रूप से कार्य कर सकता है। अंततः, इसका मतलब यह है कि किसी भी एजीआई प्रणाली को ऐसे मूल्यों पर आधारित होना चाहिए जो न केवल तकनीकी लक्ष्यों को दर्शाते हों बल्कि मानव कल्याण के लिए महत्वपूर्ण मौलिक सिद्धांतों को भी दर्शाते हों।


  3. वैश्विक सहयोग


    में एआई गवर्नेंस: एक शोध एजेंडा एलन डेफो एजीआई प्रभुत्व की दौड़ को रोकने के लिए अंतर्राष्ट्रीय समझौतों और मानकों के महत्व को रेखांकित करते हैं, जहां प्रत्येक देश लाभ प्राप्त करने की कोशिश करेगा। डेफो का दावा है कि केवल अंतर्राष्ट्रीय मानकों के माध्यम से ही हम किसी व्यक्ति द्वारा गति या प्रतिस्पर्धी लाभ के लिए सुरक्षा से समझौता करने के जोखिम को कम कर सकते हैं। एजीआई की दौड़ के विनाशकारी परिणाम हो सकते हैं, और डेफो का तर्क है कि केवल राष्ट्रों के एकजुट प्रयास ही इस परिदृश्य को रोक सकते हैं, सुरक्षित मानक बना सकते हैं जो हमारे भविष्य को सुरक्षित करेंगे।


  4. नियंत्रण और अलगाव प्रौद्योगिकियां


    निक बोस्ट्रम, सुपरइंटेलिजेंस: रास्ते, खतरे, रणनीतियाँ , इस विचार को और आगे बढ़ाते हुए, एजीआई को दुनिया के साथ सीधे संपर्क करने से रोकने के लिए उसे नियंत्रित करने और "बॉक्सिंग" की आवश्यकता पर जोर देते हैं। बोस्ट्रोम चेतावनी देते हैं कि अगर एजीआई को संसाधनों तक अप्रतिबंधित पहुंच मिल जाती है, तो इसकी स्वायत्त क्रियाएं नियंत्रण से बाहर हो सकती हैं। वह अलगाव की अवधारणाएँ प्रस्तावित करता है जहाँ एजीआई पूर्व-निर्धारित सीमाओं को दरकिनार नहीं कर सकता है, प्रभावी रूप से इसे एक नियंत्रित प्रणाली के भीतर "बॉक्सिंग" कर सकता है। उनका सुझाव है कि यह अलगाव, अगर बाकी सब विफल हो जाता है, तो हमारी रक्षा के लिए अंतिम बाधा के रूप में काम कर सकता है।


इसलिए, AGI बनाने का विचार ऐसे गहरे सवाल उठाता है जिनका मानवता ने पहले कभी सामना नहीं किया: हम ऐसी बुद्धिमत्ता के साथ कैसे रह सकते हैं जो सोच, अनुकूलनशीलता और यहाँ तक कि जीवित रहने के कौशल में हमसे आगे निकल सकती है? इसका उत्तर सिर्फ़ तकनीक में ही नहीं है, बल्कि इस बात में भी है कि हम इस बुद्धिमत्ता को कैसे प्रबंधित करते हैं और वैश्विक स्तर पर सहयोग करने की हमारी क्षमता कैसी है।


आज, आशावादी लोग AGI को एक ऐसे उपकरण के रूप में देखते हैं जो दुनिया की सबसे बड़ी चुनौतियों को हल करने में मदद कर सकता है। वे संकीर्ण AI के उदाहरणों की ओर इशारा करते हैं जो पहले से ही चिकित्सा, विज्ञान और जलवायु अनुसंधान जैसे क्षेत्रों में मानवता की सहायता कर रहे हैं। लेकिन क्या हमें इस विश्वास पर भरोसा करना चाहिए कि हम इस तकनीक को हमेशा नियंत्रण में रखेंगे? अगर AGI वास्तव में स्वतंत्र हो जाता है, अपने आप सीखने और अपने लक्ष्यों को बदलने में सक्षम हो जाता है, तो यह उन सीमाओं को पार कर सकता है जिन्हें हम निर्धारित करने का प्रयास करते हैं। उस स्थिति में, वह सब कुछ जिसे हम कभी उपयोगी और सुरक्षित मानते थे, खतरा बन सकता है।


वैश्विक सहयोग का विचार, जिसकी कुछ विशेषज्ञ वकालत करते हैं, कई चुनौतियों के साथ आता है। क्या मानवता राजनीतिक और आर्थिक मतभेदों को दूर करके AGI के लिए एकीकृत सुरक्षा सिद्धांत और मानक बना सकती है? इतिहास से पता चलता है कि राष्ट्र शायद ही कभी उन मामलों पर गहन सहयोग के लिए प्रतिबद्ध होते हैं जो उनकी सुरक्षा और संप्रभुता को प्रभावित करते हैं। 20वीं सदी में परमाणु हथियारों का विकास इसका प्रमुख उदाहरण है। लेकिन AGI के साथ, गलतियाँ या देरी और भी विनाशकारी हो सकती हैं क्योंकि इस तकनीक में हर तरह से मानव नियंत्रण को पार करने की क्षमता है।


और अगर निराशावादी सही हैं तो क्या होगा? यहीं पर सबसे बड़ा अस्तित्वगत जोखिम निहित है, यह डर एलन मस्क और युवाल नोआ हरारी जैसे लोगों द्वारा उठाया गया है। एक ऐसी प्रणाली की कल्पना करें जो यह तय करती है कि मानव जीवन एक समीकरण में एक चर मात्र है, जिसे वह “अधिक तर्कसंगत” मार्ग के लिए बदल या समाप्त भी कर सकता है। अगर ऐसी प्रणाली मानती है कि उसका अस्तित्व और लक्ष्य हमारे अस्तित्व और लक्ष्यों से ज़्यादा महत्वपूर्ण हैं, तो हमारे बचने की संभावना बहुत कम होगी। विडंबना यह है कि AGI, जिसे हमारी मदद करने और जटिल समस्याओं को हल करने के लिए डिज़ाइन किया गया है, हमारे अस्तित्व के लिए सबसे बड़ा खतरा बन सकता है।


मानवता के लिए, यह मार्ग एक नए स्तर की जिम्मेदारी और दूरदर्शिता की मांग करता है। क्या हम वे लोग बनेंगे जो AGI बनाने के परिणामों को पहचानते हैं और सख्त सुरक्षा उपाय निर्धारित करते हैं, जो आम भलाई के लिए इसके विकास का मार्गदर्शन करते हैं? या साझा नियमों का पालन करने का अभिमान और अनिच्छा हमें ऐसी तकनीक बनाने के लिए प्रेरित करेगी जिससे वापस लौटने का कोई रास्ता नहीं होगा? इन सवालों के जवाब देने के लिए, हमें न केवल तकनीकी सफलताओं की आवश्यकता है, बल्कि एक बुद्धिमान प्रणाली, उसके मूल्यों और सिद्धांतों, हमारे समाज में उसके स्थान और उसकी दुनिया में हमारे स्थान के बारे में गहरी समझ की भी आवश्यकता है।


चाहे जो भी हो, एजीआई मानव इतिहास की सबसे बड़ी परीक्षाओं में से एक हो सकती है। इसके परिणाम की जिम्मेदारी हम सभी पर है: वैज्ञानिक, नीति निर्माता, दार्शनिक और हर नागरिक जो सुरक्षित भविष्य के लिए प्रयासों को पहचानने और उनका समर्थन करने में भूमिका निभाता है।