चित्र दर्शाता है कि मूल्यांकन का एक ढाल बनाने के लिए विशिष्ट विशेषताओं को भार प्रदान करके मात्रात्मक खुलेपन के निर्णयों को कैसे कार्रवाई योग्य मीट्रिक्स में बदला जा सकता है।
इस ब्लॉग में, हम AI खुलेपन की जटिलताओं में गहराई से उतरते हैं, इस बात पर ध्यान केंद्रित करते हैं कि ओपन सोर्स सिद्धांत ब्लूमज़ेड और लामा 2 जैसे बड़े भाषा मॉडल (LLM) पर कैसे लागू होते हैं - या लागू नहीं होते हैं। इस लेख के अंत तक, आप ओपन सोर्स लाइसेंसिंग के ऐतिहासिक संदर्भ, AI में "खुलेपन" को परिभाषित करने में मौजूदा चुनौतियों और "ओपन-वाशिंग" की घटना को समझेंगे, जो उपभोक्ताओं और डेवलपर्स दोनों को गुमराह कर रही है। हम एक व्यापक मूल्यांकन ढांचा भी पेश करते हैं जो ओपन सोर्स AI डेफ़िनेशन (OSAID) को अन्य फ़्रेमवर्क से पूरक अंतर्दृष्टि के साथ एकीकृत करता है ताकि आपको AI मॉडल के बारे में अधिक सूचित निर्णय लेने में मदद मिल सके। अंत में, हम किसी भी "ओपन सोर्स" बड़े भाषा मॉडल के लिए पारदर्शिता को मात्रात्मक रूप से मापने के लिए समग्र निर्णय विकसित करने के लिए कार्रवाई योग्य सर्वोत्तम प्रथाओं के साथ निष्कर्ष निकालेंगे।
व्यापक रूप से स्वीकृत परिभाषाओं के पूरक विकल्पों का पता लगाना भी सहायक है। जैसा कि हम चर्चा करेंगे, कुछ दृष्टिकोण - जिसमें हाल के विश्लेषण शामिल हैं - सुझाव देते हैं कि ओपन सोर्स एआई डेफ़िनेशन (OSAID) जैसे ढाँचे अतिरिक्त आयामों से लाभान्वित होते हैं, विशेष रूप से वे डेटा पारदर्शिता जैसे मुद्दों को कैसे संबोधित करते हैं। मॉडल ओपननेस फ्रेमवर्क और ओपन साइंस सिद्धांतों में इसकी जड़ें एक पूरक परिप्रेक्ष्य प्रदान करती हैं जो एआई ओपननेस के मूल्यांकन के लिए एक अतिरिक्त मार्गदर्शक के रूप में काम कर सकती हैं। हम अभी भी इस क्षेत्र में विनियामक अनुपालन के शुरुआती दिनों में हैं।
AI की दुनिया जटिल और तेज़ी से विकसित हो रही है, जो अक्सर ओपन-सोर्स सिद्धांतों को उनकी सीमाओं तक धकेलती है। इन बारीकियों को समझना उन डेवलपर्स, शोधकर्ताओं और उपभोक्ताओं के लिए महत्वपूर्ण है जो यह सुनिश्चित करना चाहते हैं कि AI सिस्टम न केवल अभिनव हों बल्कि पारदर्शी, नैतिक और जवाबदेह भी हों। "ओपन-वाशिंग" के उदय के साथ - जहाँ AI मॉडल को गलत तरीके से ओपन सोर्स के रूप में विपणन किया जाता है - इन दावों का मूल्यांकन करने के लिए एक मजबूत ढांचा होना पहले से कहीं अधिक महत्वपूर्ण है। इस ज्ञान से लैस होकर, आप ऐसे सूचित निर्णय ले सकते हैं जो AI विकास में खुलेपन और पारदर्शिता के वास्तविक मूल्यों के अनुरूप हों।
यह समझने के लिए कि हम कहाँ जा रहे हैं, यह जानना ज़रूरी है कि हम कहाँ पहुँचे हैं। ओपन सोर्स आंदोलन 1980 के दशक में मालिकाना सॉफ़्टवेयर के बढ़ते प्रभुत्व के खिलाफ़ विद्रोह से पैदा हुआ था, जब फ्री सॉफ़्टवेयर फ़ाउंडेशन (FSF) ने GNU जनरल पब्लिक लाइसेंस (GPL) की शुरुआत की थी। यह लाइसेंस एक गेम-चेंजर था, जिसने उपयोगकर्ताओं को सॉफ़्टवेयर का उपयोग करने, संशोधित करने और साझा करने की स्वतंत्रता की गारंटी दी - अनिवार्य रूप से डेवलपर्स और उपयोगकर्ताओं के हाथों में शक्ति वापस ला दी।
1990 के दशक के उत्तरार्ध में, ओपन सोर्स इनिशिएटिव (OSI) की स्थापना ओपन सोर्स डेफ़िनेशन (OSD) के अनुरूप लाइसेंसों को प्रमाणित करके ओपन सोर्स सॉफ़्टवेयर को बढ़ावा देने और संरक्षित करने के लिए की गई थी। OSD ने यह कानून बनाया कि किसे "ओपन सोर्स" कहा जा सकता है और किसे नहीं, यह सुनिश्चित करते हुए कि इस शब्द का दुरुपयोग न किया जाए या उसका दुरुपयोग न किया जाए।
एआई की दुनिया में प्रवेश करें, जहाँ खुले और बंद सिस्टम के बीच की रेखाएँ और भी धुंधली हो जाती हैं। बड़े भाषा मॉडल (LLM), जैसे कि GPT-3 या इसके उत्तराधिकारी, इस बात के प्रमुख उदाहरण हैं कि कैसे "ओपन सोर्स" AI परिदृश्य में एक भ्रामक शब्द हो सकता है। LLM परिष्कृत AI सिस्टम हैं जो मानव जैसा टेक्स्ट बनाने के लिए विशाल डेटासेट पर प्रशिक्षित होते हैं। इन मॉडलों ने अनुवाद से लेकर रचनात्मक लेखन तक कई तरह के कार्य करने की अपनी क्षमता के कारण महत्वपूर्ण रुचि और निवेश को बढ़ावा दिया है। हालाँकि, इन मॉडलों की प्रभावशाली क्षमताओं के बावजूद, "खुलेपन" की अवधारणा अक्सर बारीकी से जांच करने पर कम पड़ जाती है।
शोध पत्र "रीथिंकिंग ओपन सोर्स जेनरेटिव एआई: ओपन-वाशिंग एंड द ईयू एआई एक्ट" में, अपने विश्लेषण में, शोधकर्ता डॉ. लिसेनफेल्ड और उनकी टीम ने ब्लूमज़ेड और लामा 2, दो प्रमुख एलएलएम की तुलना एआई में खुलेपन की अलग-अलग डिग्री के उदाहरण के रूप में की है। यह तुलना जेनरेटिव एआई मॉडल पर ओपननेस मैट्रिक्स को लागू करने के तरीके का एक व्यावहारिक प्रदर्शन प्रस्तुत करती है:
ब्लूमज़ेड एक ऐसे मॉडल का प्रतिनिधित्व करता है जो वास्तव में ओपन सोर्स के सिद्धांतों को अपनाता है, तथा एआई में पारदर्शिता और सुलभता के लिए उच्च मानक स्थापित करता है।
इसके विपरीत, लामा 2 "ओपन-वाशिंग" की अवधारणा का उदाहरण है, जहां खुलेपन के सिद्धांतों को पूरी तरह से पूरा किए बिना ओपन-सोर्स का लेबल लागू किया जाता है।
उपलब्धता : इसके विपरीत, लामा 2 अपना स्रोत कोड उपलब्ध नहीं कराता है। मॉडल को चलाने के लिए केवल स्क्रिप्ट ही साझा की जाती हैं, और एलएलएम डेटा का अस्पष्ट वर्णन किया जाता है, जिसमें कॉर्पोरेट प्रीप्रिंट में सीमित विवरण दिए जाते हैं। बेस मॉडल वेट तक पहुंच प्रतिबंधित है, जिसके लिए सहमति फॉर्म की आवश्यकता होती है, और निर्देश ट्यूनिंग के लिए उपयोग किए जाने वाले डेटा का खुलासा नहीं किया जाता है, जिससे पारदर्शिता सीमित हो जाती है।
दस्तावेज़ीकरण : लामा 2 के लिए दस्तावेज़ीकरण न्यूनतम है, स्रोत कोड स्वयं खुला नहीं है। आर्किटेक्चर का वर्णन कम विस्तार से किया गया है, कॉर्पोरेट वेबसाइटों और एकल प्रीप्रिंट में बिखरा हुआ है। ब्लूमज़ेड के विपरीत, लामा में इसके प्रशिक्षण डेटासेट, निर्देश ट्यूनिंग और फ़ाइन-ट्यूनिंग प्रक्रियाओं के व्यापक दस्तावेज़ीकरण का अभाव है।
एक्सेस और लाइसेंसिंग : लामा 2 एक गोपनीयता-विरोधी साइनअप फ़ॉर्म के पीछे उपलब्ध है, और इसका लाइसेंसिंग मेटा के अपने सामुदायिक लाइसेंस के तहत संभाला जाता है। यह लाइसेंस ब्लूमज़ के रेल की तुलना में कम सख्त है, जिसमें उत्पन्न सामग्री को कैसे दर्शाया जाता है, इसके लिए कम बार है, जिससे संभावित रूप से भ्रामक अनुप्रयोगों के लिए जगह बनी रहती है।
ब्लूमज़ेड और लामा 2 के बीच तुलना उनके खुलेपन के दृष्टिकोण में स्पष्ट अंतर को उजागर करती है। ब्लूमज़ेड एक ऐसे मॉडल का एक प्रमुख उदाहरण है जो वास्तव में ओपन सोर्स के सिद्धांतों को अपनाता है, इसके कोड, डेटा और दस्तावेज़ीकरण में पारदर्शिता के साथ। इसके विपरीत, लामा 2 "ओपन-वाशिंग" का उदाहरण है, जहाँ मॉडल को ओपन सोर्स के रूप में लेबल किया जाता है, लेकिन वास्तविक खुलेपन के अधिकांश पहलुओं में कम पड़ता है, जिसमें केवल मॉडल वज़न प्रतिबंधात्मक शर्तों के तहत सुलभ होते हैं। यह तुलना AI में खुलेपन की अधिक सूक्ष्म समझ की आवश्यकता और खुलेपन के सतही दावों पर भरोसा करने के बजाय मानदंडों के एक व्यापक सेट के आधार पर मॉडल का मूल्यांकन करने के महत्व को रेखांकित करती है।
"ओपन-वाशिंग" किसी ऐसी चीज़ पर ओपन-सोर्स लेबल लगाने की प्रथा है जो वास्तव में खुली नहीं है। एआई की दुनिया में, ओपन-वाशिंग बहुत प्रचलित है, जिसमें कंपनियाँ अपने एआई सिस्टम के छोटे-छोटे हिस्से पेश करती हैं जबकि सबसे महत्वपूर्ण घटकों को ताला लगाकर रखती हैं।
शोध पत्र में एआई में ओपन-वाशिंग के गंदे विवरणों पर गहराई से चर्चा की गई है, तथा कुछ प्रमुख चुनौतियों पर प्रकाश डाला गया है:
समग्र खुलापन: AI में खुलापन एक ऐसी अवधारणा नहीं है जो सभी के लिए एक जैसी हो। यह कई टुकड़ों वाली एक पहेली है, और प्रत्येक टुकड़ा सिस्टम की समग्र पारदर्शिता में योगदान देता है। हालाँकि, अक्सर कंपनियाँ केवल कुछ टुकड़ों को ही जारी करती हैं, जिससे खुलेपन की भ्रामक भावना पैदा होती है। शोध ग्रेडिएंट ओपननेस की अवधारणा को प्रस्तुत करता है, जिसमें इस बात पर जोर दिया गया है कि AI में खुलेपन को बाइनरी अवस्था के बजाय एक स्पेक्ट्रम के रूप में देखा जाना चाहिए। AI सिस्टम के विभिन्न घटक - स्रोत कोड, डेटा, मॉडल - अलग-अलग डिग्री तक खुले हो सकते हैं, और प्रत्येक घटक का व्यक्तिगत रूप से मूल्यांकन करना महत्वपूर्ण है। इस ग्रेडिएंट को समझकर, हम AI सिस्टम के वास्तविक खुलेपन का बेहतर मूल्यांकन कर सकते हैं और आंशिक पारदर्शिता से गुमराह होने से बच सकते हैं।
चयनात्मक खुलापन: कुछ AI मॉडल को सिर्फ़ इतना खुलापन देकर जारी किया जाता है कि वे काम कर सकें - आमतौर पर मॉडल का वज़न - लेकिन डेटा और प्रशिक्षण प्रक्रिया जैसे महत्वपूर्ण घटक मालिकाना हक के बने रहते हैं। यह चयनात्मक खुलापन पारदर्शिता का एक अधूरा प्रयास है जो फ़ायदे से ज़्यादा नुकसान करता है। केवल आंशिक पहुँच प्रदान करके, कंपनियाँ सार्थक सहयोग और समझ के लिए आवश्यक पूर्ण पारदर्शिता प्रदान किए बिना खुलेपन का दावा कर सकती हैं।
विनियामक खामियाँ: यूरोपीय संघ का एआई अधिनियम, एक सुविचारित विनियामक ढांचा, अनजाने में खुले लाइसेंस के तहत जारी किए गए एआई मॉडल को विस्तृत दस्तावेज़ीकरण आवश्यकताओं को दरकिनार करने की अनुमति देकर खुलेपन को बढ़ावा दे सकता है। यह खामी एआई सिस्टम की बाढ़ ला सकती है जो केवल नाम के लिए "खुले" हैं, जिनमें बहुत कम या कोई वास्तविक पारदर्शिता नहीं है। जबकि ऐसे विनियमों के पीछे का उद्देश्य खुलेपन को बढ़ावा देना है, सावधानीपूर्वक कार्यान्वयन और निगरानी के बिना, उनका उपयोग बिना किसी तथ्य के खुलेपन का भ्रम पैदा करने के लिए किया जा सकता है।
जूलिया फेराओली ने भी अपने ब्लॉग पोस्ट में ओपन-वाशिंग के मुद्दे पर बात की है, जिसमें उन्होंने कहा है, "समस्या का मूल यह है कि 'ओपन सोर्स' जैसे शब्दों को उन बड़ी कंपनियों के एजेंडे में फिट करने के लिए खींचा और पुनर्परिभाषित किया जा रहा है, जिनकी दिलचस्पी वास्तविक पारदर्शिता और सहयोग से ज़्यादा मार्केटिंग में है।" यह अंतर्दृष्टि इन भ्रामक दावों को दूर करने के लिए एक मज़बूत मूल्यांकन ढांचे की ज़रूरत को पुष्ट करती है।
हाल ही में चर्चाओं में पेश किया गया मॉडल ओपननेस फ्रेमवर्क पारदर्शिता के लिए ओपन साइंस-संरेखित दृष्टिकोण प्रदान करके इनमें से कुछ अंतर्दृष्टियों का पूरक है। जबकि ओपन सोर्स एआई डेफ़िनेशन (OSAID) एक ठोस आधार प्रदान करता है, क्षेत्र में कई लोग - जिनमें कुछ शोधकर्ता भी शामिल हैं - का मानना है कि यह पर्याप्त नहीं हो सकता है, खासकर जब डेटा पारदर्शिता की बात आती है। मॉडल ओपननेस फ्रेमवर्क, तुलनात्मक रूप से, एक अधिक कठोर बेंचमार्क सेट करता है, जो न केवल कोड की खुलेपन पर बल्कि ओपन साइंस मूल्यों के अनुरूप डेटासेट, कार्यप्रणाली और प्रशिक्षण प्रक्रियाओं की उपलब्धता पर भी जोर देता है।
ग्रेडिएंट ओपननेस के साथ विस्तार
OSAID पर आधारित, ग्रेडिएंट ओपननेस की अवधारणा मूल्यांकन प्रक्रिया में सूक्ष्मता जोड़ती है। AI सिस्टम के प्रत्येक घटक - सोर्स कोड, डेटा, मॉडल - का व्यक्तिगत रूप से मूल्यांकन करके, हम पारदर्शिता और खुलेपन के वास्तविक स्तर को बेहतर ढंग से समझ सकते हैं।
इस शोध पत्र में शोध से प्राप्त प्रमुख अंतर्दृष्टियां प्रस्तुत की गई हैं:
लाइसेंसिंग समायोजन की चुनौतियाँ: पारंपरिक ओपन सोर्स लाइसेंस सॉफ्टवेयर के लिए डिज़ाइन किए गए थे, न कि AI की जटिल, बहुआयामी प्रकृति के लिए। पेपर में तर्क दिया गया है कि AI द्वारा प्रस्तुत अद्वितीय चुनौतियों का समाधान करने के लिए नई लाइसेंसिंग रणनीतियों की आवश्यकता है। इन लाइसेंसों को यह सुनिश्चित करना चाहिए कि न केवल स्रोत कोड बल्कि डेटा, मॉडल और पैरामीटर भी ओपन सोर्स सिद्धांतों के अंतर्गत आते हैं। लाइसेंसिंग के लिए यह समग्र दृष्टिकोण AI युग में ओपन सोर्स आंदोलन की अखंडता को बनाए रखने के लिए महत्वपूर्ण है।
नैतिक विचार: तकनीकी खुलेपन से परे, यह पेपर एआई विकास और परिनियोजन में नैतिक विचारों के महत्व पर भी प्रकाश डालता है। यह बताता है कि एआई सिस्टम में निष्पक्षता, जवाबदेही और पारदर्शिता सुनिश्चित करना न केवल एक तकनीकी चुनौती है, बल्कि एक नैतिक अनिवार्यता भी है। एआई विकास के नैतिक आयाम को खुलेपन की किसी भी चर्चा में शामिल किया जाना चाहिए, क्योंकि जिम्मेदारी के बिना पारदर्शिता से काफी नुकसान हो सकता है।
एक व्यावहारिक दृष्टिकोण: शोधकर्ताओं ने समग्र लाइसेंस के तहत भी श्रेणीबद्ध विश्वसनीयता स्थापित करने के लिए कुछ उचित तरीकों की रूपरेखा तैयार की है। ओपन सोर्स एआई डेफ़िनेशन (OSAID) को इन गहन जानकारियों के साथ एकीकृत करके, हम AI सिस्टम का आकलन करने के लिए एक अधिक मज़बूत ढाँचा बना सकते हैं। यह दृष्टिकोण AI मॉडल के अधिक सूक्ष्म और व्यापक मूल्यांकन की अनुमति देता है, यह सुनिश्चित करते हुए कि वे खुलेपन के तकनीकी और नैतिक मानकों दोनों को पूरा करते हैं।
AI खुलेपन में सबसे अधिक सूक्ष्म चुनौतियों में से एक LLM संस्करण का मुद्दा है। पारंपरिक सॉफ़्टवेयर पैकेजों के विपरीत, जहाँ संस्करण अपडेट आमतौर पर अच्छी तरह से प्रलेखित और पारदर्शी होते हैं, LLM ऐसे अपडेट से गुजर सकते हैं जो अपारदर्शी होते हैं, जिससे उपयोगकर्ता इस बारे में अंधेरे में रह जाते हैं कि क्या बदला है। पारदर्शिता की यह कमी ऑपरेटिंग सिस्टम अपडेट को बिना यह जाने इंस्टॉल करने के समान है कि क्या संशोधित किया गया है - सिवाय इसके कि, LLM के मामले में, दांव यकीनन और भी अधिक हैं।
ओएस तुलना: कल्पना करें कि आप अपने कंप्यूटर पर एक ऑपरेटिंग सिस्टम इंस्टॉल कर रहे हैं और नियमित रूप से अपडेट प्राप्त कर रहे हैं। आम तौर पर, आप एक चेंजलॉग देखने की उम्मीद करेंगे, जिसमें विस्तार से बताया जाएगा कि क्या ठीक किया गया है, क्या सुधार किया गया है या क्या जोड़ा गया है। यह पारदर्शिता उपयोगकर्ताओं के लिए उनके सिस्टम की स्थिति को समझने के लिए महत्वपूर्ण है। अब, एक LLM पर विचार करें जिसे बिना किसी पारदर्शिता के लगातार अपडेट किया जा रहा है। उपयोगकर्ता खुद को ऐसे मॉडल के साथ काम करते हुए पा सकते हैं जो उन परिवर्तनों की किसी भी स्पष्ट समझ के बिना सूक्ष्म या महत्वपूर्ण तरीकों से बदल गया है। पारदर्शिता की यह कमी खराब प्रदर्शन से लेकर नैतिक चिंताओं तक के मुद्दों को जन्म दे सकती है, क्योंकि मॉडल अप्रत्याशित तरीकों से व्यवहार कर सकता है। तुलना AI मॉडल का उपयोग करने से जुड़े जोखिमों को उजागर करती है जो अपने अपडेट के बारे में पारदर्शी नहीं हैं, स्पष्ट और सुलभ संस्करण जानकारी की आवश्यकता पर जोर देते हैं।
अपारदर्शी अपडेट के जोखिम: पारदर्शिता के बिना, उपयोगकर्ता अपने द्वारा उपयोग किए जा रहे AI सिस्टम पर पूरी तरह से भरोसा नहीं कर सकते। जिस तरह आप बिना यह जाने कि क्या बदला गया है, OS अपडेट इंस्टॉल नहीं करेंगे, उसी तरह अपारदर्शी अपडेट से गुजरने वाले LLM पर भरोसा करना जोखिम भरा है। यह विशेष रूप से उच्च-दांव वाले वातावरण में चिंताजनक है जहाँ AI का उपयोग निर्णय लेने की प्रक्रियाओं के लिए किया जाता है जो वास्तविक जीवन को प्रभावित करते हैं। यदि कोई LLM अपडेट नए पूर्वाग्रहों को पेश करता है या महत्वपूर्ण कार्यक्षमता को हटाता है, तो परिणाम गंभीर हो सकते हैं। पारदर्शिता की कमी न केवल उपयोगकर्ता के भरोसे को कम करती है बल्कि महत्वपूर्ण नैतिक और परिचालन जोखिम भी उठाती है।
इन चुनौतियों से निपटने में मदद के लिए, हम एक व्यापक मूल्यांकन ढांचा पेश करते हैं जो ओपन सोर्स एआई डेफ़िनेशन (OSIAID) की ताकत को हाल के शोध से गहन अंतर्दृष्टि के साथ जोड़ता है। इस ढांचे का उद्देश्य एआई सिस्टम की खुलेपन का आकलन करने के लिए एक अधिक मजबूत तरीका प्रदान करना है।
OSIAID एक आधार के रूप में: ओपन सोर्स AI परिभाषा यह समझने के लिए एक ठोस आधार प्रदान करती है कि ओपन-सोर्स AI सिस्टम क्या होता है। यह पारदर्शिता, पहुँच और नैतिक उपयोग के लिए स्पष्ट मानदंड निर्धारित करता है, यह सुनिश्चित करता है कि AI मॉडल खुलेपन के न्यूनतम मानक को पूरा करते हैं। OSIAID का पालन करके, डेवलपर्स और उपयोगकर्ता यह विश्वास कर सकते हैं कि AI मॉडल खुलेपन और पारदर्शिता के बुनियादी मानकों को पूरा करता है।
ग्रेडिएंट ओपननेस के साथ विस्तार: OSIAID पर आधारित, ग्रेडिएंट ओपननेस की अवधारणा मूल्यांकन प्रक्रिया में सूक्ष्मता जोड़ती है। AI सिस्टम के प्रत्येक घटक- स्रोत कोड, डेटा, मॉडल- का व्यक्तिगत रूप से मूल्यांकन करके, हम पारदर्शिता और खुलेपन के वास्तविक स्तर को बेहतर ढंग से समझ सकते हैं। ये आपके अपने संगठन की जोखिम उठाने की क्षमता और ढांचे के संकेतक हो सकते हैं या संगठनों के बीच मानकीकृत हो सकते हैं। यह दृष्टिकोण AI मॉडल के अधिक विस्तृत और सटीक मूल्यांकन की अनुमति देता है, उन क्षेत्रों की पहचान करता है जहां खुलापन मजबूत है और जहां इसे सुधार की आवश्यकता हो सकती है।
नैतिक और कानूनी निहितार्थों को संबोधित करना: इस ढांचे में नैतिक और कानूनी विचारों को भी शामिल किया गया है, जिससे यह सुनिश्चित होता है कि AI सिस्टम न केवल तकनीकी रूप से खुले हैं बल्कि व्यापक सामाजिक मूल्यों और कानूनी आवश्यकताओं के साथ भी संरेखित हैं। इन विचारों को एकीकृत करके, ढांचा यह सुनिश्चित करता है कि खुलापन केवल तकनीकी पारदर्शिता के बारे में नहीं है, बल्कि नैतिक और कानूनी मानकों को पूरा करने के बारे में भी है जो AI विकास में महत्वपूर्ण हैं।
जूलिया फेराओली का स्पष्ट परिभाषाओं की आवश्यकता और ओपन सोर्स के सिद्धांतों के प्रति प्रतिबद्धता पर जोर इस दृष्टिकोण के साथ प्रतिध्वनित होता है। वह लिखती हैं, "ओपन सोर्स समुदाय को अपने मूल्यों पर अडिग रहना चाहिए, यह सुनिश्चित करना चाहिए कि किसी भी विचलन को आलोचनात्मक जांच और पारदर्शिता की मांग के साथ पूरा किया जाए।" इन प्रथाओं को उस आवश्यकता को पूरा करने के लिए डिज़ाइन किया गया है, जो AI सिस्टम के मूल्यांकन के लिए एक मजबूत और व्यापक ढांचा प्रदान करता है।
चूंकि एआई विनियमन का परिदृश्य लगातार विकसित हो रहा है, इसलिए विनियामक विकास के बारे में जानकारी रखना और उससे जुड़े रहना महत्वपूर्ण है। यूरोपीय संघ एआई अधिनियम और इसी तरह के ढांचे एआई खुलेपन और पारदर्शिता के भविष्य को आकार देने में महत्वपूर्ण भूमिका निभाएंगे। इन चर्चाओं को समझकर और उनमें भाग लेकर, आप यह सुनिश्चित करने में मदद कर सकते हैं कि विनियामक ढांचे एआई में पारदर्शिता और जवाबदेही को प्रभावी ढंग से बढ़ावा दें।
AI की दुनिया जटिल, अव्यवस्थित और चुनौतियों से भरी है, जिसे संभालने के लिए ओपन सोर्स आंदोलन को मूल रूप से डिज़ाइन नहीं किया गया था। लेकिन इसका मतलब यह नहीं है कि हमें पारदर्शिता, सहयोग और खुलेपन के आदर्शों को छोड़ देना चाहिए। इसके बजाय, हमें अनुकूलन, विकास और यह सुनिश्चित करने की आवश्यकता है कि ओपन सोर्स AI अभी भी परिभाषा को फिट करने के लिए आवश्यक चार स्वतंत्रताओं का प्रतिनिधित्व करता है।
जैसे-जैसे हम इस नई दुनिया में आगे बढ़ रहे हैं, ओपन सोर्स समुदाय, विनियामक निकायों और एआई डेवलपर्स के बीच सहयोग महत्वपूर्ण होगा। ओपन-वाशिंग की चुनौतियों का समाधान करके, लाइसेंसिंग के प्रति हमारे दृष्टिकोण पर पुनर्विचार करके और मजबूत विनियामक ढांचे को अपनाकर, हम एक ऐसा एआई इकोसिस्टम बना सकते हैं जो न केवल अभिनव हो बल्कि नैतिक और जवाबदेह भी हो।
एआई यहाँ रहने के लिए है, और यह सुनिश्चित करना हमारे ऊपर है कि यह व्यापक भलाई के लिए काम करे। अंत में, मैं आपको इस महत्वपूर्ण कार्य के शोधकर्ताओं से सीधे इस महत्वपूर्ण विचार के साथ छोड़ता हूँ:
"शायद यह कोई संयोग नहीं है कि सार्वजनिक रूप से वित्त पोषित शोधकर्ता खुलेआम धोखाधड़ी को उजागर करने में अग्रणी भूमिका निभा रहे हैं: कॉर्पोरेट हितों के प्रति आबद्ध न होकर और एआई को बढ़ावा देने के लिए प्रोत्साहन के बिना, हम एक कदम पीछे हट सकते हैं और बता सकते हैं कि बड़ी तकनीक क्या कर रही है - और उन्हें जवाबदेह ठहराने के लिए रचनात्मक तरीके तैयार कर सकते हैं।" डॉ. लिसेनफेल्ड।
यह शोध दल यूरोपीय संघ के एआई अधिनियम से संबंधित कई पहलों में सक्रिय रूप से शामिल है, विशेष रूप से इस बात पर ध्यान केंद्रित करते हुए कि एआई दस्तावेज़ीकरण में "पर्याप्त रूप से विस्तृत सारांश" व्यवहार में क्या होगा। यह कार्य मोज़िला फ़ाउंडेशन और ओपन फ़्यूचर फ़ाउंडेशन के सहयोग से किया जा रहा है। टीम प्रौद्योगिकी मूल्यांकन पर अपने अकादमिक कार्य को भी जारी रख रही है और इस वर्ष के अंत में एक नई वेबसाइट जारी करने की योजना बना रही है जो खुलेपन के मूल्यांकन के लिए एक सार्वजनिक संसाधन के रूप में काम करेगी, जिससे ये उपकरण व्यापक जनता के लिए अधिक सुलभ हो जाएँगे। इस पहल का उद्देश्य कंपनियों को एआई में पारदर्शिता के लिए जवाबदेह ठहराने के लिए स्पष्ट मानक और रूपरेखा प्रदान करना है।
ओपन सोर्स AI परिभाषा (OSAID) अभी भी सार्वजनिक समीक्षा और प्रतिक्रिया के लिए खुली है। यदि आप ओपन सोर्स AI के भविष्य को आकार देने में भाग लेना चाहते हैं, तो आप वर्तमान मसौदे पर टिप्पणियाँ यहाँ प्रस्तुत कर सकते हैं। परिभाषा का अंतिम संस्करण 2024 में होने वाले ऑल थिंग्स ओपन (ATO) सम्मेलन में घोषित किया जाएगा। अधिक अपडेट के लिए बने रहें क्योंकि समुदाय ओपन AI विकास के लिए इस महत्वपूर्ण ढांचे को परिष्कृत करना जारी रखता है।
दिन के अंत में, यदि आप इन एलएलएम का उपयोग करके एक परिकलित जोखिम लेने जा रहे हैं, तो आपको उस जोखिम को मापने की आवश्यकता है। मुझे उम्मीद है कि यह आपको ऐसा करने के कुछ तरीके बताता है, और मैं निश्चित रूप से चाहता हूं कि यदि आपके पास कोई मात्रात्मक मीट्रिक या ऊपर दिए गए समाधानों में सुधार या सामान्य रूप से इस विषय पर कोई प्रश्न है, जिसे मैं यहां कवर नहीं कर पाया, तो आप मुझसे संपर्क करें ।