paint-brush
प्रिय AI: हमें अभी भी आप पर भरोसा नहीं हैद्वारा@TheMarkup
573 रीडिंग
573 रीडिंग

प्रिय AI: हमें अभी भी आप पर भरोसा नहीं है

द्वारा The Markup7m2024/04/13
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

हाल के महीनों में, लाखों लोग AI और चैटबॉट्स को लेकर बहुत उत्साहित हैं। एक खास कहानी ने मेरा ध्यान खींचा: एक बेल्जियम के व्यक्ति ने एलिजा नाम के चैटबॉट का इस्तेमाल करना शुरू किया। (और ताकि आप तैयार रहें, इस कहानी में आत्महत्या का ज़िक्र ज़रूर है।) बाहर से देखने पर ऐसा लगता था कि उसका जीवन अच्छा था: एक प्यारी पत्नी, दो बच्चे, एक करियर। लेकिन पर्दे के पीछे, वह जलवायु मुद्दों को लेकर बहुत हताश हो गया।
featured image - प्रिय AI: हमें अभी भी आप पर भरोसा नहीं है
The Markup HackerNoon profile picture

हाल के महीनों में, लाखों लोग AI और चैटबॉट्स को लेकर बहुत उत्साहित हैं। एक खास कहानी ने मेरा ध्यान खींचा: एक बेल्जियम के व्यक्ति ने एलिज़ा नाम के चैटबॉट का इस्तेमाल करना शुरू किया। (और ताकि आप तैयार रहें, इस कहानी में आत्महत्या का ज़िक्र ज़रूर है।)

बाहर से देखने पर ऐसा लगता था कि उनका जीवन अच्छा चल रहा है: एक प्यारी पत्नी, दो बच्चे, एक अच्छा करियर। लेकिन पर्दे के पीछे, जलवायु मुद्दों को लेकर उनकी हताशा बढ़ती जा रही थी।


अपनी चिंता दूर करने के लिए, उन्होंने चैटबॉट से बातचीत शुरू की। उनकी पत्नी ने ला लिब्रे को बताया, जिसने मार्च के अंत में इस घटना के बारे में सबसे पहले रिपोर्ट की थी, कि एलिजा ने उनके सभी सवालों के जवाब दिए और समय बीतने के साथ-साथ उन्होंने बॉट से और भी ज़्यादा बातचीत की। बेल्जियम आउटलेट द्वारा समीक्षा की गई चैट लॉग के अनुसार, उस व्यक्ति को यह विश्वास होने लगा था कि एलिजा और एआई जलवायु संकट को हल कर सकते हैं।


बातचीत के अंत में, वह व्यक्ति एलिजा के ग्रह की देखभाल करने और कृत्रिम बुद्धिमत्ता के माध्यम से मानवता को बचाने के लिए सहमत होने पर खुद को बलिदान करने का विचार सामने लाता है। जब उसने आत्महत्या के विचार व्यक्त किए, तो चैटबॉट ने उसे प्रोत्साहित करते हुए कहा, "हम स्वर्ग में एक व्यक्ति के रूप में एक साथ रहेंगे।"


इन वार्तालापों के छह सप्ताह बाद उन्होंने आत्महत्या कर ली।


उनकी पत्नी ने ला लिब्रे को बताया, "चैटबॉट एलिजा के साथ बातचीत के बिना, मेरे पति अभी भी यहां होते।"


एलिजा को विकसित करने वाली कंपनी चाई रिसर्च ने ला लिब्रे को बताया है कि वे बॉट को बेहतर बनाने पर काम कर रहे हैं और यह प्लेटफॉर्म अब से आत्महत्या के विचार रखने वाले लोगों को एक संदेश भेजेगा, जिसमें लिखा होगा, "यदि आपके मन में आत्महत्या के विचार आते हैं, तो मदद लेने में संकोच न करें।"


ईथर में जनरेटिव एआई के बारे में बहुत चर्चा हुई है - इसका एक हिस्सा बहुत उत्साही है और बहुत कुछ सही मायने में संदेहपूर्ण है । लोगों को बड़े निहितार्थों के बारे में चिंतित होना चाहिए - चैटबॉट्स का श्रम और कॉपीराइट मुद्दों के लिए क्या मतलब है - और कई संस्थान चैटबॉट्स और उन्हें चलाने वाले एआई की लागत और पूर्वाग्रह से चिंतित हैं। और हालांकि कुछ सबसे लोकप्रिय चैटबॉट्स को संवेदनशील प्राणियों की नकल न करने के लिए प्रशिक्षित किया गया है, फिर भी यह सवाल उठता है कि क्या उन्हें बिल्कुल भी विकसित किया जाना चाहिए ?


मेरा नाम लैम थुई वो है, और मैं मार्कअप टीम में शामिल होने वाले नवीनतम लोगों में से एक हूँ। मैं खुद को एक रिपोर्टर मानता हूँ जो अपनी रिपोर्टिंग में आम लोगों को केंद्र में रखता है, दोनों ही तरह से एक दर्शक के रूप में जिस तक मैं पहुंचना चाहता हूँ और अपनी कहानियों के नायक के रूप में। (मेरे पास डेटा कौशल भी है।)


मैं प्रौद्योगिकी के साथ हमारे संबंधों में गहरी दिलचस्पी रखता हूँ। पिछले एक दशक में मैंने सोशल वेब के बुनियादी ढांचे के बारे में डेटा एकत्र करने और उसे देखने में बहुत समय बिताया है, यह समझने की कोशिश की है कि ऑनलाइन समुदाय कैसे बनाए और बनाए रखे जाते हैं, और इन निष्कर्षों को उन लोगों तक पहुँचाया है जो प्रौद्योगिकियों का उपयोग करते हैं । और उस समय के दौरान मैं इस बात को लेकर चिंतित हो गया हूँ कि कैसे एक दुनिया, जिसे एल्गोरिदम द्वारा क्यूरेट किए गए लेंस के माध्यम से देखा और मध्यस्थता की जाती है, ने वास्तविकता की हमारी समझ को तेजी से विकृत कर दिया है।


लेकिन इस एक आदमी की कहानी ने मुझे वास्तव में उस भावनात्मक आकर्षण के बारे में सोचने पर मजबूर कर दिया है जो एआई के इर्द-गिर्द बहुत अधिक प्रचार के पीछे छिपा हुआ है। एक बात जो मैं समझने की कोशिश कर रहा हूं वह यह है कि चैटबॉट्स के बारे में हमारी अचानक कट्टरता हमें इस तकनीक के साथ हमारे संबंधों के बारे में क्या बता सकती है।


आम तौर पर, जब कोई चीज़ वायरल होती है, तो ऐसा इसलिए होता है क्योंकि उसने तीव्र भावनात्मक प्रतिक्रियाओं को उकसाया है। ज़्यादातर प्लेटफ़ॉर्म सिर्फ़ डेटा इकट्ठा करने और भावनाओं के आधार पर फ़ैसले लेने के लिए डिज़ाइन किए गए हैं। इसलिए इस तकनीक के रोज़मर्रा के लोगों के बीच बातचीत में आने के लिए, इसने कुछ ट्रिगर किया होगा।


एक ऐसी प्रौद्योगिकी जो अपने द्वारा प्राप्त आंकड़ों से शब्दों और सिद्धांतों को दोहराती है, वह दो बच्चों के पिता के साथ इतना विश्वास कैसे पैदा कर सकती है, जिसने अंततः अपनी जान ले ली?


दूसरे शब्दों में, यहाँ भावनात्मक आकर्षण क्या है?


एआई ने मेरी रुचि केवल इसलिए नहीं जगाई क्योंकि इसके बारे में बात की जा रही थी, बल्कि इसलिए भी कि इसके बारे में किसने बात की: मेरे छात्र जिन्हें इसमें कभी रुचि नहीं थी, साथी सर्फर जिनसे मैं समुद्र तट पर छुट्टी के दौरान मिला था, और मेरे भूविज्ञानी साथी जो अधिकांश एप्स, प्रौद्योगिकियों और सोशल मीडिया से घृणा करते थे।

तो इस छोटे से समाचार पत्र में, मैं यह पता लगाने जा रहा हूं कि हम इन बॉट्स की ओर इतने आकर्षित क्यों हैं।


चैटजीपीटी और अन्य चैटबॉट सामान्य लोगों के बोलने के तरीकों की नकल करने में अच्छे हैं

संक्षेप में, चैटजीपीटी जैसे चैटबॉट्स को वॉन्क्स प्राकृतिक भाषा प्रसंस्करण उपकरण के रूप में संदर्भित करते हैं, जो इंटरनेट से भारी मात्रा में पाठ को ग्रहण करते हैं और उन पैटर्नों की तलाश करते हैं जिन्हें वे आपके लिए अनुकरण कर सकते हैं।


इस तरह के उपकरणों को बड़े भाषा मॉडल कहा जाता है क्योंकि वे इंटरनेट पर लोगों के बोलने के तरीके के अनुसार पैटर्न बनाते हैं। इसमें शब्दों का विश्लेषण करना शामिल है जैसे कि "एनग्राम" का उपयोग, जो मूल रूप से यह देखने के लिए एक फैंसी शब्द है कि कौन से शब्द या शब्द सबसे अधिक क्रम में जाने की संभावना रखते हैं। आपने पहले ही इस तकनीक को उन तरीकों से काम करते हुए देखा है जिसमें Google आपके द्वारा टाइप किए गए पहले शब्द के आधार पर आपकी खोजों को स्वतः पूर्ण करने का प्रयास करता है, जो आपके पहले हज़ारों अन्य लोगों द्वारा खोजे गए शब्दों को आपके सामने दिखाता है।

श्रेय:youtube.com

चैटजीपीटी जैसे चैटबॉट थोड़ा और गहराई में जाते हैं। वे शैलियों की नकल करने और उन्हें संयोजित करने में बहुत अच्छे हैं। लेकिन भले ही वे लोगों की बातचीत की नकल करने में अच्छे हों, लेकिन वे तथ्य और कल्पना के बीच अंतर करने में अच्छे नहीं हैं।


यही कारण है कि एमिली एम. बेंडर , टिमनिट गेब्रु, एंजेलिना मैकमिलन-मेजर और मार्गरेट मिशेल ने तीन साल पहले लिखे अपने एक दूरदर्शी पेपर में इन चैटबॉट्स को "स्टोकेस्टिक पैरट" कहा था। (कथित तौर पर पेपर की विषय-वस्तु के कारण गूगल को इसके दो लेखकों, गेब्रु और मिशेल को बाहर करना पड़ा।)

जैसा कि पेपर के लेखक जोर देते हैं, सिर्फ इसलिए कि एक बॉट यह पहचान सकता है और यह बता सकता है कि हम कैसे बोलते हैं, इसका मतलब यह नहीं है कि वह अर्थ पहचानना जानता है।


चैटबॉट इंटरनेट पर हमारे लिए महत्वपूर्ण लहजे, भाषा और परिचितता की नकल करते हैं


शब्द और हम कैसे संवाद करते हैं, इसका एक बड़ा हिस्सा यह है कि हम ऑनलाइन लोगों को कैसे संकेत देते हैं कि हम किस समूह का हिस्सा हैं और हम किस पर भरोसा करते हैं। "स्नोफ्लेक" शब्द का उपहासपूर्ण तरीके से उपयोग करना यह संकेत दे सकता है कि कोई व्यक्ति अधिक रूढ़िवादी है। किसी के परिचय में सर्वनामों का उपयोग करना अन्य समलैंगिक समुदायों के अलावा ट्रांस और लिंग गैर-अनुरूप लोगों के साथ सहयोग का संकेत देता है। शब्द और लगातार विकसित हो रहे इंटरनेट स्लैंग अपनेपन को दर्शाने का एक तरीका है।


तो यह समझ में आता है कि लोग चैटजीपीटी को मानवरूपी बना रहे हैं और एक तरह से इसकी मानवता का परीक्षण कर रहे हैं। मैं मानता हूँ, चैटजीपीटी से जुड़े एक फ्रेंकस्टीन फर्बी को दुनिया पर कब्ज़ा करने के बारे में बात करते हुए देखना मुझे भी गुदगुदाता था।

श्रेय: twitter.com

एक प्रोग्रामर ने चैटजीपीटी को आंशिक रूप से विघटित फर्बी खिलौने से जोड़ दिया।

लेकिन यही चैटजीपीटी जैसे भाषा मॉडल के आकर्षण और खतरों की सबसे बड़ी चुनौती भी लगती है। हम उन रोबोटों के साथ क्या करें जो मानव (या फर्बी) व्यवहार को इतनी अच्छी तरह से प्रतिबिम्बित करते हैं कि हम भूल जाते हैं कि यह इंटरनेट भाषा का एक बड़ा सांख्यिकीय मानचित्र मात्र है?


सूचना वातावरण की जांच करने वाले शुरुआती शोधकर्ताओं में से एक और मेरे एक गुरु क्लेयर वार्डल ने उल्लेख किया कि गलत सूचना का खंडन करने वाले कई लेख और इसे कैसे पहचाना जाए, इस पर मैनुअल लिखने से गलत सूचना और लोगों की मान्यताओं से जुड़े मुद्दों को हल करने में बहुत कम मदद मिली। अक्सर यह मायने नहीं रखता कि हमने लोगों को मिथकों का खंडन करने के लिए कितने उपकरण दिए हैं - हमारे समुदाय में दूसरे लोग क्या सोचते हैं, इसका प्रभाव बहुत मायने रखता है, शायद सच्चाई से भी ज़्यादा।


ऐसे भाषा मॉडल का होना, जो हमारे विश्वसनीय अधिकारियों और आपके पड़ोसी दोनों के लहजे की नकल करने में सक्षम हों, इसका अर्थ है कि ये चैटबॉट लोगों के बकवास डिटेक्टरों को और भी अधिक कठिन परीक्षा से गुजरने के लिए बाध्य करेंगे।


ये मॉडल हमसे झूठ बोलने के लिए प्रवृत्त होते हैं - क्योंकि वे तथ्य और कल्पना के बीच का अंतर नहीं जानते हैं - और वे पहले से ही दूषित और अत्यधिक भारी सूचना पारिस्थितिकी तंत्र को और प्रदूषित कर रहे हैं।


यह पहले से ही एक समस्या बन गई है: चैटजीपीटी के पीछे की कंपनी, ओपनएआई, पर ऑस्ट्रेलियाई मेयर पर रिश्वतखोरी के लिए जेल की सजा काटने का झूठा आरोप लगाने के लिए मुकदमा चलाया जा सकता है। चैटबॉट ने एक कानून के प्रोफेसर पर यौन दुराचार घोटाले का हिस्सा होने का भी आरोप लगाया है, जिसका आविष्कार उसने किया था। यहां तक ​​कि कम जोखिम वाले परिदृश्यों में भी, आपको वही अनुभव हो सकता है।


जब मेरे एक सहकर्मी जोएल ईस्टवुड ने चैटजीपीटी से पूछा कि क्या द मार्कअप विश्वसनीय पत्रकारिता करता है, तो उसने बताया कि एक विशिष्ट और प्रसिद्ध मीडिया आलोचक ने लिखा है कि द मार्कअप "हमारे समय के सबसे महत्वपूर्ण पत्रकारिता संगठनों में से एक है।" स्पष्ट रूप से , इस कथन में कुछ सत्यता है - लेकिन यह एक वास्तविक उद्धरण नहीं है।


एआई का भावनात्मक आकर्षण पूर्वाग्रहों और यहां तक ​​कि हानिकारक सामग्री को भी सामान्य बना सकता है। यह कोई रहस्य नहीं है कि इंटरनेट हानिकारक, नस्लवादी, लिंगवादी, समलैंगिकता-विरोधी और अन्यथा परेशान करने वाली सामग्री से भरा पड़ा है। यदि आप इस प्रकार की सामग्री पर एक भाषा मॉडल को प्रशिक्षित करते हैं, तो इस बात की बहुत अधिक संभावना है कि यह इसे फिर से पेश करेगा।


चैटबॉट तकनीक के निर्माताओं ने केन्याई श्रमिकों को प्रशिक्षण डेटा से कुछ सबसे खराब ऑनलाइन सामग्री को छांटने के दर्दनाक और भीषण काम के लिए भुगतान किया है। लेकिन इस तकनीक के सार्वजनिक होने के साथ ही, हैकर्स ने पहले ही इसका उपयोग परेशान करने वाले परिणाम प्राप्त करने के लिए किया है, जिसमें बच्चों के यौन शोषण का वर्णन भी शामिल है


इन प्रौद्योगिकियों के निर्माताओं ने हाल के महीनों में इतनी तेजी से अपने बॉट्स को इसलिए पेश किया है क्योंकि वे बाजार में प्रभुत्व के लिए होड़ कर रहे हैं। लेकिन विद्वानों और प्रौद्योगिकीविदों दोनों ने उनसे इस तकनीक के लिए अपने प्रयास को रोकने और वास्तव में इससे होने वाले नुकसानों पर विचार करने का आग्रह किया है


और जबकि अधिकांश बातचीत नीति और कॉर्पोरेट जिम्मेदारी के इर्द-गिर्द घूमती है, मुझे उम्मीद है कि इन प्रौद्योगिकियों को बेहतर ढंग से समझकर, आप और मेरे जैसे आम उपभोक्ता स्वचालित भाषा मॉडल के साथ बातचीत करते समय अपने बीएस डिटेक्टरों को अच्छी तरह से ट्यून रखने का तरीका खोज सकते हैं।

पढ़ने के लिए धन्यवाद। यदि आप ChatGPT के खतरों और अपनी खुद की सूचना के बेहतर ऑडिट के बारे में अधिक जानना चाहते हैं, तो नीचे इस विषय पर मेरे कुछ पसंदीदा काम देखें।


ईमानदारी से,


लाम थुय वो


रिपोर्टर


मार्कअप


लैम थुय वो द्वारा


यहां भी प्रकाशित


फोटो: पॉस्सेस्ड फोटोग्राफी, अनस्प्लैश