paint-brush
एआईको अ-निर्धारणवाद, भ्रम, र... बिरालोहरू?द्वारा@alexandersimonov
नयाँ इतिहास

एआईको अ-निर्धारणवाद, भ्रम, र... बिरालोहरू?

द्वारा Alexander Simonov6m2025/02/16
Read on Terminal Reader

धेरै लामो; पढ्नकाे लागि

एआई बिरालो जस्तै हो: कहिलेकाहीँ तिनीहरूले खान्छन्, कहिलेकाहीँ बेवास्ता गर्छन्, र कहिलेकाहीँ तिनीहरूले तपाईंलाई खरोंच्छन्। ChatGPT का उत्तरहरू कठोर नियमको सट्टा स्टोकास्टिक प्रक्रियाबाट उत्पन्न हुन्छन्। यसले आफ्नै उत्तरहरू बनाउँछ र सही सन्दर्भमा प्रयोग गर्दा मात्र भरपर्दो हुन्छ।
featured image - एआईको अ-निर्धारणवाद, भ्रम, र... बिरालोहरू?
Alexander Simonov HackerNoon profile picture
0-item
1-item

लामो समयसम्म, आईटी विशेषज्ञहरूले संसारमा कुनै वास्ता नगरी काम गरे। तिनीहरूले सहज रूपमा सफ्टवेयर विकास, निर्माण र प्रयोग गरे। त्यसपछि एक्लोपनको युग आयो, र अचानक, तिनीहरू बोर भए (अवश्य पनि, यो वास्तविक घटनाहरूको एक चंचल रूप हो)। आईटी मानिसहरू घरमै बसेर उनीहरूको काम सम्हाल्न सक्ने कुरा सिर्जना गर्न चाहन्थे: नियमित प्रश्नहरूको जवाफ दिनुहोस्, उत्कृष्ट अवतारहरू उत्पन्न गर्नुहोस्, र मिनेटमा विशाल मात्रामा डेटा विश्लेषण गर्नुहोस्। तिनीहरूले एक शानदार ठाउँमा यात्रा गर्ने सपना देखे, र त्यसैले, तपाईंले अनुमान लगाउनुभयो, तिनीहरूले एआईमा क्रान्तिकारी परिवर्तन ल्याए।


एआई अहिले काम गरिरहेको छ, उत्तरहरू प्रदान गर्दैछ, र जीवन सुधार गर्दैछ। यो जतिसुकै कुशल सहायक भए पनि, एआई सही सन्दर्भमा प्रयोग गर्दा मात्र साँच्चै प्रभावकारी हुन्छ।


हामी छवि र भिडियो उत्पादनदेखि स्टक बजार पूर्वानुमान र क्रिप्टोकरेन्सी विश्लेषणसम्म, एआई अनुप्रयोगहरूमा द्रुत प्रगति देखिरहेका छौं। तैपनि, एआईले हामीले नसोध्ने जानकारी प्रदान गर्न सक्छ वा स्पष्ट रूपमा गलत जवाफहरू प्रदान गर्न सक्छ। यसको व्यवहार घरेलु बिरालोहरू जस्तै छ - तपाईंलाई थाहा छ, त्यो प्रकारको जो चुपचाप बस्छ र अचानक तपाईंमाथि झम्ट्छ?


ChatGPT जब तपाईंले यसलाई साधारण प्रश्न सोध्नुहुन्छ


हाम्रा बिरालाहरू, साथै एआई, अप्रत्याशित हुन मन पराउँछन्:


  • तपाईंले तिनीहरूलाई उही खाना (वा तथ्याङ्क) दिनुहुन्छ — कहिलेकाहीँ तिनीहरू खान्छन्, कहिलेकाहीँ तिनीहरूले यसलाई बेवास्ता गर्छन्।
  • तपाईंले तिनीहरूलाई प्रतिक्रिया दिन तालिम दिनुहुन्छ, तर तपाईंले तिनीहरूलाई बोलाउँदा कहिलेकाहीं मात्र प्रतिक्रिया जनाउँछन्।
  • बिरालो जति ठूलो र जंगली हुन्छ वा एआई मोडेल जति ठूलो हुन्छ, त्यसको व्यवहारको भविष्यवाणी गर्न त्यति नै गाह्रो हुन्छ।
  • बिहान, बिरालाहरू शान्त हुन सक्छन्; साँझसम्म, तिनीहरू अति सक्रिय हुन्छन् (गतिशील डेटा जस्तै)।
  • बिरालाहरू मैत्रीपूर्ण (निर्धारवादी) हुन सक्छन् तर चेतावनी बिना नै तपाईंलाई खरोंच्न सक्छन् (स्टोकास्टिक)।


तपाईंलाई लाग्न सक्छ कि दृढनिश्चयवाद र स्थिरता भनेको के हो - आउनुहोस् पत्ता लगाऔं।

दृढनिश्चयवाद र स्टोकास्टिकिटी

एउटै इनपुट दिएपछि डिटर्मिनिस्टिक प्रणालीले सधैं उही परिणाम दिन्छ — यदि तपाईं DevOps इन्जिनियर हुनुहुन्छ भने इडम्पोटेंसी सोच्नुहोस्। वास्तविक संसारको उदाहरण तपाईंको बिरालो हुनेछ जसले तपाईंले आफ्नो कचौरामा राख्नुभएको खानाको मात्रा हरेक पटक खान्छ — यो डिटर्मिनिस्टिक हो। तर जब बिरालोले सुँघ्छ र आधा मात्र खान्छ, यो अब डिटर्मिनिस्टिक हुँदैन।


अपेक्षित उत्पादन (खाली कचौरा) बनाम वास्तविक उत्पादन


स्टोकास्टिक प्रक्रियामा अनियमितताको तत्व समावेश हुन्छ: एउटै इनपुटको साथ, परिणाम फरक हुन सक्छ। उदाहरणका लागि, मेसिन लर्निङ मोडेलले प्रायः स्टोकास्टिक एल्गोरिदमहरू प्रयोग गर्दछ, जस्तै स्टोकास्टिक ग्रेडियन्ट डिसेन्ट (SGD) , जसले सम्पूर्ण डेटासेटको सट्टा डेटाको अनियमित भागहरू छनोट गरेर मोडेललाई तालिम दिन्छ।


यी परिभाषाहरूले हाम्रा एआईहरू कहिलेकाहीं किन भ्रमित हुन्छन् र अराजक व्यवहार गर्छन् भनेर पूर्ण रूपमा व्याख्या गर्दैनन्। निम्न सहित अन्य योगदान गर्ने कारकहरू छन्:


  • दृढनिश्चयवाद
  • स्टोकास्टिकिटी
  • राउन्डिङ त्रुटिहरू र फ्लोटिंग-पोइन्ट अंकगणित
  • बहुथ्रेडिङ र समानान्तर गणनाहरू
  • लगातार डेटा अपडेट गर्दै
  • अराजकता र "पुतली प्रभाव"


यदि हामीले अलि नजिकबाट हेर्‍यौं भने, हामी एआई मोडेलहरूको अप्रत्याशित व्यवहारलाई प्रभाव पार्ने अन्य संयन्त्रहरू देख्नेछौं।

स्नायु सञ्जालहरूको एक झलक

तपाईंलाई थाहा होला कि सबैले प्रयोग गर्ने एआईहरू विभिन्न स्नायु नेटवर्क एल्गोरिदमहरूमा निर्भर हुन्छन्। यहाँ केही प्रकारका स्नायु नेटवर्कहरू छन्:


  • पूर्ण रूपमा जडान गरिएको स्नायु सञ्जाल (FCNN): एक क्लासिक वास्तुकला जहाँ प्रत्येक स्नायु अर्को तहको प्रत्येक स्नायुसँग जोडिन्छ।


  • कन्भोलुसनल न्यूरल नेटवर्क (CNN): यी नेटवर्कहरूले कन्भोलुसन वा फिल्टरहरू प्रयोग गर्छन् जसले किनारा, बनावट र आकारहरू जस्ता छवि सुविधाहरूलाई हाइलाइट गर्दछ।


  • पुनरावर्ती स्नायु सञ्जालहरू (RNNs ): यी सञ्जालहरूमा प्रतिक्रिया लूपहरू हुन्छन् जसले तिनीहरूलाई अघिल्ला चरणहरू सम्झन अनुमति दिन्छ (अर्थात्, तिनीहरूले अनुक्रमहरू सम्झन्छन्)।


  • लामो छोटो अवधिको मेमोरी (LSTM): महत्त्वपूर्ण डेटालाई छनौट रूपमा बिर्सने र सम्झने संयन्त्रहरू सहितको RNN हरूको एक परिष्कृत संस्करण।


  • ट्रान्सफर्मरहरू : पाठ प्रशोधनको लागि सबैभन्दा शक्तिशाली वर्ग। तिनीहरूले बहु-हेड ध्यान प्रयोग गर्छन्, जसले गर्दा तिनीहरूलाई सम्पूर्ण सन्दर्भलाई एकैसाथ विचार गर्न अनुमति दिन्छ।


  • जेनेरेटिभ एडभर्सरियल नेटवर्क (GANs): तिनीहरू दुई नेटवर्कहरू मिलेर बनेका हुन्छन्, जसमध्ये एउटाले डेटा उत्पन्न गर्छ र अर्कोले यसको गुणस्तर मूल्याङ्कन गर्छ। तिनीहरूको प्रतिस्पर्धाले राम्रो परिणामहरू निम्त्याउँछ।


  • अटोइन्कोडरहरू : जानकारी कम्प्रेस (इन्कोड) गर्न र त्यसपछि यसलाई पुनर्निर्माण (डिकोड) गर्न डिजाइन गरिएका नेटवर्कहरू।


  • ग्राफ न्यूरल नेटवर्कहरू (GNNs): तिनीहरू नियमित डेटाको सट्टा ग्राफहरू (नोडहरू र किनाराहरू) सँग काम गर्छन्।


सबैभन्दा सामान्य मोडेल, ChatGPT, किन प्रायः भ्रमित हुन्छ भनेर बुझ्न हामीलाई त्यो सबै सन्दर्भ चाहिन्छ।

एआई भ्रम कसरी हुन्छ?

ChatGPT ट्रान्सफर्मर आर्किटेक्चरमा चल्छ, जुन पहिलो पटक २०१७ को पेपर "Attention Is All You Need" मा प्रस्तुत गरिएको थियो। यो त्यही संयन्त्र हो जसले पाठ प्रशोधनमा क्रान्तिकारी परिवर्तन ल्यायो। ट्रान्सफर्मरहरू आत्म-ध्यान संयन्त्रमा काम गर्छन्, जसले तिनीहरूलाई पुरानो आवर्ती तंत्रिका नेटवर्कहरू (LSTM र GRU) जस्ता नजिकका शब्दहरूको सट्टा विश्वव्यापी सन्दर्भलाई विचार गर्न अनुमति दिन्छ। यो मोडेल GPT (जेनेरेटिभ प्रि-ट्रेन्ड ट्रान्सफर्मर) श्रृंखलासँग सम्बन्धित छ, जसको अर्थ हो:


  • पूर्व-प्रशिक्षित: यसलाई सुरुमा ठूलो मात्रामा पाठ (पुस्तकहरू, लेखहरू, वेबसाइटहरू, र कोड) मा प्रशिक्षित गरिएको थियो।
  • जेनेरेटिभ: यसको काम तथ्यहरूलाई वर्गीकृत गर्ने वा निकाल्ने मात्र नभई पाठ उत्पन्न गर्नु हो।


ChatGPT का उत्तरहरू कठोर नियमको सट्टा स्टोकास्टिक प्रक्रियाबाट उत्पन्न हुन्छन्। यसले पाठहरू कण्ठ गर्दैन वा पुनरुत्पादन गर्दैन तर सम्भाव्य मोडेल प्रयोग गरेर प्रतिक्रियाहरू उत्पन्न गर्दछ।

सम्भाव्य प्रक्रियाको रूपमा शब्द भविष्यवाणी

जब ChatGPT ले जवाफ दिन्छ, यसले एकल सही शब्द छान्दैन तर सम्भाव्यता वितरण गणना गर्छ।


P(wi|w1, w2, ..., wi-1), जहाँ:

  • "wi" — वाक्यको अर्को शब्द

w1, w2, ..., wi-1 — अघिल्ला शब्दहरू

  • P(wi|w1, ..., wi-1) — अर्को शब्द "wi" हुने सम्भावना


उदाहरणका लागि, यदि तपाईंले सोध्नुभयो भने, "आज कुन दिन हो?" ChatGPT मा फरक सम्भावनाहरू हुन सक्छन्:


  • “सोमबार” — P=०.७
  • “बुधबार” — P=०.२
  • “४२” — P=०.०००१


यसले प्रायः उच्चतम सम्भाव्यता भएको शब्द छनौट गर्नेछ, तर जेनेरेसन तापक्रम (अनियमितता नियन्त्रण गर्ने प्यारामिटर) को कारणले गर्दा, यसले कहिलेकाहीं सन्दर्भको आधारमा कम सम्भावित विकल्प छनौट गर्न सक्छ।

सन्दर्भ प्रभाव र जानकारी बिर्सनु

ChatGPT ले सीमित सन्दर्भ विन्डोसँग काम गर्छ, जसको अर्थ यसले अन्तिम NN टोकनहरू मात्र "सम्झन्छ"। GPT-4 को लागि, सन्दर्भ विन्डो लगभग १२८k टोकनहरू (पाठको लगभग ३०० पृष्ठ) हो। यदि महत्त्वपूर्ण जानकारी यस सन्दर्भ बाहिर छ भने, यसले:


  • विवरणहरू बिर्सनुहोस् (सन्दर्भ क्लिपिङ प्रभाव)
  • मेकअप जानकारी (स्टोकास्टिक प्रक्रिया)


तैपनि, तपाईंले पक्का छ कि छैन भनेर सोधेपछि ChatGPT ले प्रायः आफ्नो उत्तर सच्याउन सक्छ। यद्यपि, यदि तपाईंले पक्का छ कि छैन भनेर सोध्नुभयो भने ChatGPT ले प्रायः आफ्नो उत्तर सच्याउन सक्छ।

एआई कहिलेकाहीं आफूलाई सच्याउछ, तर किन?

जब तपाईंले ChatGPT लाई सोध्नुहुन्छ, "के तपाईं निश्चित हुनुहुन्छ?" यसले शंका भएको ठाउँमा नयाँ सन्दर्भ प्रयोग गरेर आफ्नो उत्तरको पुनर्विश्लेषण गर्छ। यसको परिणामस्वरूप:


  • उत्तर सम्भाव्यताहरूको पुन: गणना गर्दै।
  • यदि कुनै विकल्प छ भने, त्यसलाई अझ बढी व्यावहारिक बनाउने।


यो प्रक्रियालाई बायेसियन सम्भाव्यताद्वारा व्याख्या गर्न सकिन्छ।


P(A|B) = P(B|A)P(A) / P(B), जहाँ:


  • P(A|B) — तपाईंको अनुवर्ती प्रश्न B लाई विचार गर्दा, उत्तर A सही छ भन्ने सम्भावना।

  • P(B|A) — तपाईंले सुरुमा ChatGPT सही थियो कि थिएन भनेर सोध्नुभएको सम्भावना।

  • P(A) — ChatGPT को उत्तरको प्रारम्भिक सम्भाव्यता।

  • P(B) — तपाईंले सोध्नुभएको समग्र सम्भाव्यता।


तपाईंको लागि धेरै जानकारी छ? दिमाग धेरै तातो छ? कल्पना गर्नुहोस् कि एआई पनि ठूलो मात्रामा जानकारीले अभिभूत हुन्छ।

ओभरफिटिंग र कोलाहलपूर्ण डेटाका कारण त्रुटिहरू

ChatGPT को तालिममा ठूलो मात्रामा टेक्स्ट डेटा प्रवाह हुन्छ, जसमा आवाज वा विरोधाभासी जानकारी समावेश हुन्छ, जस्तै:


  • केही स्रोतहरूले पृथ्वी गोलो छ भन्छन् भने अरूले यसलाई समतल छ भनी दाबी गर्छन्।


  • एआईले सधैं कुन जानकारी सत्य हो भनेर निर्धारण गर्न सक्दैन जब यो फरक-फरक सम्भावनाहरूसँग देखा पर्दछ।


ChatGPT ले विरोधाभासी डेटा प्रशोधन गर्ने तरिका यस्तो हुन्छ


यी मोडेल भ्रमका उदाहरणहरू हुन्, जुन ChatGPT को तौलहरू कडा तर्कको सट्टा सम्भाव्य शब्द संघहरूमा प्रशिक्षित भएकाले हुन्छन्।

निष्कर्ष

यसबाट हामीले के सिक्न सक्छौं भन्ने कुरा यहाँ छ। ChatGPT यसबाट भ्रमित हुन्छ:


  • सम्भावनावादी रूपमा भविष्यवाणी गर्छ, निर्धारणात्मक रूपमा होइन।

  • सीमित मेमोरी छ (सन्दर्भ विन्डो)।

  • प्रश्न सोध्दा सम्भाव्यताहरूको पुन: गणना गर्छ।

  • आवाज र विरोधाभासहरू समावेश गर्ने प्रशिक्षण डेटा छ।


यो एकदमै सीधा छ। आशा छ तपाईं थाक्नुभएको छैन। यदि थाक्नुभएको छ भने, यो राम्रो संकेत हो किनभने यसको अर्थ तपाईं आलोचनात्मक रूपमा सोचिरहनुभएको छ, जुन हामीले AI सँग काम गर्दा गर्नुपर्छ।

L O A D I N G
. . . comments & more!

About Author

Alexander Simonov HackerNoon profile picture
Alexander Simonov@alexandersimonov
Alexander Simonov is the Deputy DevOps Practice Lead at Coherent Solutions. He has written bylines for DZone, The New Stack, and is a 2024 DevOps Dozen Award honoree, recognized by DevOps.com.

ह्याङ्ग ट्यागहरू

यो लेख मा प्रस्तुत गरिएको थियो...