लामो समयसम्म, आईटी विशेषज्ञहरूले संसारमा कुनै वास्ता नगरी काम गरे। तिनीहरूले सहज रूपमा सफ्टवेयर विकास, निर्माण र प्रयोग गरे। त्यसपछि एक्लोपनको युग आयो, र अचानक, तिनीहरू बोर भए (अवश्य पनि, यो वास्तविक घटनाहरूको एक चंचल रूप हो)। आईटी मानिसहरू घरमै बसेर उनीहरूको काम सम्हाल्न सक्ने कुरा सिर्जना गर्न चाहन्थे: नियमित प्रश्नहरूको जवाफ दिनुहोस्, उत्कृष्ट अवतारहरू उत्पन्न गर्नुहोस्, र मिनेटमा विशाल मात्रामा डेटा विश्लेषण गर्नुहोस्। तिनीहरूले एक शानदार ठाउँमा यात्रा गर्ने सपना देखे, र त्यसैले, तपाईंले अनुमान लगाउनुभयो, तिनीहरूले एआईमा क्रान्तिकारी परिवर्तन ल्याए।
एआई अहिले काम गरिरहेको छ, उत्तरहरू प्रदान गर्दैछ, र जीवन सुधार गर्दैछ। यो जतिसुकै कुशल सहायक भए पनि, एआई सही सन्दर्भमा प्रयोग गर्दा मात्र साँच्चै प्रभावकारी हुन्छ।
हामी छवि र भिडियो उत्पादनदेखि स्टक बजार पूर्वानुमान र क्रिप्टोकरेन्सी विश्लेषणसम्म, एआई अनुप्रयोगहरूमा द्रुत प्रगति देखिरहेका छौं। तैपनि, एआईले हामीले नसोध्ने जानकारी प्रदान गर्न सक्छ वा स्पष्ट रूपमा गलत जवाफहरू प्रदान गर्न सक्छ। यसको व्यवहार घरेलु बिरालोहरू जस्तै छ - तपाईंलाई थाहा छ, त्यो प्रकारको जो चुपचाप बस्छ र अचानक तपाईंमाथि झम्ट्छ?
हाम्रा बिरालाहरू, साथै एआई, अप्रत्याशित हुन मन पराउँछन्:
तपाईंलाई लाग्न सक्छ कि दृढनिश्चयवाद र स्थिरता भनेको के हो - आउनुहोस् पत्ता लगाऔं।
एउटै इनपुट दिएपछि डिटर्मिनिस्टिक प्रणालीले सधैं उही परिणाम दिन्छ — यदि तपाईं DevOps इन्जिनियर हुनुहुन्छ भने इडम्पोटेंसी सोच्नुहोस्। वास्तविक संसारको उदाहरण तपाईंको बिरालो हुनेछ जसले तपाईंले आफ्नो कचौरामा राख्नुभएको खानाको मात्रा हरेक पटक खान्छ — यो डिटर्मिनिस्टिक हो। तर जब बिरालोले सुँघ्छ र आधा मात्र खान्छ, यो अब डिटर्मिनिस्टिक हुँदैन।
स्टोकास्टिक प्रक्रियामा अनियमितताको तत्व समावेश हुन्छ: एउटै इनपुटको साथ, परिणाम फरक हुन सक्छ। उदाहरणका लागि, मेसिन लर्निङ मोडेलले प्रायः स्टोकास्टिक एल्गोरिदमहरू प्रयोग गर्दछ, जस्तै स्टोकास्टिक ग्रेडियन्ट डिसेन्ट (SGD) , जसले सम्पूर्ण डेटासेटको सट्टा डेटाको अनियमित भागहरू छनोट गरेर मोडेललाई तालिम दिन्छ।
यी परिभाषाहरूले हाम्रा एआईहरू कहिलेकाहीं किन भ्रमित हुन्छन् र अराजक व्यवहार गर्छन् भनेर पूर्ण रूपमा व्याख्या गर्दैनन्। निम्न सहित अन्य योगदान गर्ने कारकहरू छन्:
यदि हामीले अलि नजिकबाट हेर्यौं भने, हामी एआई मोडेलहरूको अप्रत्याशित व्यवहारलाई प्रभाव पार्ने अन्य संयन्त्रहरू देख्नेछौं।
तपाईंलाई थाहा होला कि सबैले प्रयोग गर्ने एआईहरू विभिन्न स्नायु नेटवर्क एल्गोरिदमहरूमा निर्भर हुन्छन्। यहाँ केही प्रकारका स्नायु नेटवर्कहरू छन्:
सबैभन्दा सामान्य मोडेल, ChatGPT, किन प्रायः भ्रमित हुन्छ भनेर बुझ्न हामीलाई त्यो सबै सन्दर्भ चाहिन्छ।
ChatGPT ट्रान्सफर्मर आर्किटेक्चरमा चल्छ, जुन पहिलो पटक २०१७ को पेपर "Attention Is All You Need" मा प्रस्तुत गरिएको थियो। यो त्यही संयन्त्र हो जसले पाठ प्रशोधनमा क्रान्तिकारी परिवर्तन ल्यायो। ट्रान्सफर्मरहरू आत्म-ध्यान संयन्त्रमा काम गर्छन्, जसले तिनीहरूलाई पुरानो आवर्ती तंत्रिका नेटवर्कहरू (LSTM र GRU) जस्ता नजिकका शब्दहरूको सट्टा विश्वव्यापी सन्दर्भलाई विचार गर्न अनुमति दिन्छ। यो मोडेल GPT (जेनेरेटिभ प्रि-ट्रेन्ड ट्रान्सफर्मर) श्रृंखलासँग सम्बन्धित छ, जसको अर्थ हो:
ChatGPT का उत्तरहरू कठोर नियमको सट्टा स्टोकास्टिक प्रक्रियाबाट उत्पन्न हुन्छन्। यसले पाठहरू कण्ठ गर्दैन वा पुनरुत्पादन गर्दैन तर सम्भाव्य मोडेल प्रयोग गरेर प्रतिक्रियाहरू उत्पन्न गर्दछ।
जब ChatGPT ले जवाफ दिन्छ, यसले एकल सही शब्द छान्दैन तर सम्भाव्यता वितरण गणना गर्छ।
P(wi|w1, w2, ..., wi-1), जहाँ:
w1, w2, ..., wi-1 — अघिल्ला शब्दहरू
उदाहरणका लागि, यदि तपाईंले सोध्नुभयो भने, "आज कुन दिन हो?" ChatGPT मा फरक सम्भावनाहरू हुन सक्छन्:
यसले प्रायः उच्चतम सम्भाव्यता भएको शब्द छनौट गर्नेछ, तर जेनेरेसन तापक्रम (अनियमितता नियन्त्रण गर्ने प्यारामिटर) को कारणले गर्दा, यसले कहिलेकाहीं सन्दर्भको आधारमा कम सम्भावित विकल्प छनौट गर्न सक्छ।
ChatGPT ले सीमित सन्दर्भ विन्डोसँग काम गर्छ, जसको अर्थ यसले अन्तिम NN टोकनहरू मात्र "सम्झन्छ"। GPT-4 को लागि, सन्दर्भ विन्डो लगभग १२८k टोकनहरू (पाठको लगभग ३०० पृष्ठ) हो। यदि महत्त्वपूर्ण जानकारी यस सन्दर्भ बाहिर छ भने, यसले:
तैपनि, तपाईंले पक्का छ कि छैन भनेर सोधेपछि ChatGPT ले प्रायः आफ्नो उत्तर सच्याउन सक्छ। यद्यपि, यदि तपाईंले पक्का छ कि छैन भनेर सोध्नुभयो भने ChatGPT ले प्रायः आफ्नो उत्तर सच्याउन सक्छ।
जब तपाईंले ChatGPT लाई सोध्नुहुन्छ, "के तपाईं निश्चित हुनुहुन्छ?" यसले शंका भएको ठाउँमा नयाँ सन्दर्भ प्रयोग गरेर आफ्नो उत्तरको पुनर्विश्लेषण गर्छ। यसको परिणामस्वरूप:
यो प्रक्रियालाई बायेसियन सम्भाव्यताद्वारा व्याख्या गर्न सकिन्छ।
P(A|B) = P(B|A)P(A) / P(B), जहाँ:
P(A|B) — तपाईंको अनुवर्ती प्रश्न B लाई विचार गर्दा, उत्तर A सही छ भन्ने सम्भावना।
P(B|A) — तपाईंले सुरुमा ChatGPT सही थियो कि थिएन भनेर सोध्नुभएको सम्भावना।
P(A) — ChatGPT को उत्तरको प्रारम्भिक सम्भाव्यता।
P(B) — तपाईंले सोध्नुभएको समग्र सम्भाव्यता।
तपाईंको लागि धेरै जानकारी छ? दिमाग धेरै तातो छ? कल्पना गर्नुहोस् कि एआई पनि ठूलो मात्रामा जानकारीले अभिभूत हुन्छ।
ChatGPT को तालिममा ठूलो मात्रामा टेक्स्ट डेटा प्रवाह हुन्छ, जसमा आवाज वा विरोधाभासी जानकारी समावेश हुन्छ, जस्तै:
यी मोडेल भ्रमका उदाहरणहरू हुन्, जुन ChatGPT को तौलहरू कडा तर्कको सट्टा सम्भाव्य शब्द संघहरूमा प्रशिक्षित भएकाले हुन्छन्।
यसबाट हामीले के सिक्न सक्छौं भन्ने कुरा यहाँ छ। ChatGPT यसबाट भ्रमित हुन्छ:
सम्भावनावादी रूपमा भविष्यवाणी गर्छ, निर्धारणात्मक रूपमा होइन।
सीमित मेमोरी छ (सन्दर्भ विन्डो)।
प्रश्न सोध्दा सम्भाव्यताहरूको पुन: गणना गर्छ।
आवाज र विरोधाभासहरू समावेश गर्ने प्रशिक्षण डेटा छ।
यो एकदमै सीधा छ। आशा छ तपाईं थाक्नुभएको छैन। यदि थाक्नुभएको छ भने, यो राम्रो संकेत हो किनभने यसको अर्थ तपाईं आलोचनात्मक रूपमा सोचिरहनुभएको छ, जुन हामीले AI सँग काम गर्दा गर्नुपर्छ।