क्या चैटजीपीटी हनीमून अवधि समाप्त हो गई है?
चैटजीपीटी ने पिछले साल अपनी रिलीज़ के बाद से दुनिया में तहलका मचा दिया है। हालाँकि, एक हालिया सर्वेक्षण में यह पाया गया
चैटजीपीटी के बारे में कंपनियां उदासीन क्यों हो रही हैं?
ऐसा नहीं है कि उन्हें इसकी क्षमताओं पर संदेह है. इसके बजाय, वे संभावित साइबर सुरक्षा जोखिमों के बारे में चिंतित हैं।
जेनरेटिव एआई उपकरण हर इंटरैक्शन से सीखने के लिए डिज़ाइन किए गए हैं। जितना अधिक डेटा आप उन्हें खिलाएंगे, वे उतने ही अधिक स्मार्ट हो जाएंगे। बहुत अच्छा लगता है, है ना?
लेकिन डेटा कहां जाता है, इसे कौन देखता है और इसका उपयोग कैसे किया जाता है, इसके संबंध में एक अस्पष्ट क्षेत्र है।
इन गोपनीयता संबंधी चिंताओं के कारण इतालवी डेटा-सुरक्षा प्राधिकरण को इसका सामना करना पड़ा
व्यवसायों के लिए, चिंता यह है कि चैटजीपीटी उपयोगकर्ता द्वारा सबमिट की गई जानकारी ले सकता है, उससे सीख सकता है, और संभावित रूप से इसे अन्य उपयोगकर्ताओं के साथ भविष्य की बातचीत में फिसलने दे सकता है।
चैटजीपीटी के लिए ओपनएआई के दिशानिर्देशों से संकेत मिलता है कि उपयोगकर्ता डेटा की समीक्षा की जा सकती है और सिस्टम को परिष्कृत करने के लिए इसका उपयोग किया जा सकता है। लेकिन डेटा गोपनीयता के लिए इसका क्या मतलब है?
उत्तर स्पष्ट नहीं है और यही चिंता का कारण है।
साइबरहेवन अध्ययन में पाया गया कि 1 जून तक, 10.8% श्रमिकों ने काम पर चैटजीपीटी का उपयोग किया, जिसमें 8.6% ने कंपनी की जानकारी दर्ज की। चिंताजनक आँकड़ा यह है कि 4.7% कर्मचारियों ने चैटजीपीटी में गोपनीय जानकारी दर्ज की है।
और चैटजीपीटी जिस तरह से काम करता है, उसके कारण पारंपरिक सुरक्षा उपायों की कमी है। अधिकांश सुरक्षा उत्पाद फ़ाइलों को साझा या अपलोड होने से बचाने के लिए डिज़ाइन किए गए हैं। लेकिन ChatGPT उपयोगकर्ता सामग्री को कॉपी करके अपने ब्राउज़र में पेस्ट करते हैं।
अब, OpenAI ने एक ऑप्ट-आउट विकल्प जोड़ा है। उपयोगकर्ता अनुरोध कर सकते हैं कि उनके डेटा का उपयोग आगे के प्रशिक्षण के लिए न किया जाए।
लेकिन ऑप्ट-आउट डिफ़ॉल्ट सेटिंग नहीं है. इसलिए, जब तक उपयोगकर्ता जागरूक नहीं होते और सक्रिय कदम नहीं उठाते, उनकी बातचीत का उपयोग एआई को प्रशिक्षित करने के लिए किया जा सकता है।
चिंताएँ यहीं नहीं रुकतीं।
भले ही आप बाहर निकलें, आपका डेटा अभी भी सिस्टम से गुजरता है। और जबकि OpenAI उपयोगकर्ताओं को आश्वासन देता है कि डेटा को जिम्मेदारी से प्रबंधित किया जाता है, ChatGPT
यह जोखिम भी है कि कुछ गलत हो जाए।
21 मार्च, 2023 को, OpenAI ने चैटजीपीटी को एक गड़बड़ी के कारण बंद कर दिया , जिसमें विभिन्न उपयोगकर्ताओं के नामों के साथ चैट इतिहास को गलत शीर्षक दिया गया था। यदि इन शीर्षकों में निजी या संवेदनशील विवरण होते, तो अन्य चैटजीपीटी उपयोगकर्ताओं ने उन्हें देखा होता। बग ने कुछ चैटजीपीटी प्लस ग्राहकों के व्यक्तिगत डेटा को भी उजागर कर दिया।
पहला बड़ा चैटजीपीटी डेटा लीक इस साल की शुरुआत में हुआ और इसमें तकनीकी दिग्गज सैमसंग शामिल था। ब्लूमबर्ग के अनुसार, संवेदनशील आंतरिक स्रोत कोड था
इस तरह के रिसाव के गंभीर प्रभाव हो सकते हैं।
और यह सिर्फ सैमसंग नहीं था। तकनीकी उद्योग के एक अन्य दिग्गज अमेज़ॅन की अपनी चिंताएँ थीं। कंपनी
यदि चैटजीपीटी के पास अमेज़ॅन का स्वामित्व डेटा है, तो उसे अनजाने में इसे प्रतिस्पर्धियों तक पहुंचाने से कौन रोक रहा है?
जेनेरेटिव एआई टूल के तेजी से विकास और अपनाने से नियामक संस्थाओं को मुश्किलों का सामना करना पड़ रहा है। उत्तरदायित्वपूर्ण उपयोग के संबंध में सीमित दिशानिर्देश हैं।
तो, यदि एआई के कारण डेटा उल्लंघन होता है, तो कौन जिम्मेदार है - उपकरण का उपयोग करने वाली कंपनी, कर्मचारी, या एआई प्रदाता?
OpenAI में
इससे कंपनियों पर जोखिम बढ़ता है। स्पष्ट नियमों के बिना, उन पर सर्वोत्तम कार्रवाई का निर्णय लेने का दायित्व छोड़ दिया जाता है। यही कारण है कि कई लोग अब अधिक झिझकने लगे हैं।
जब नई प्रौद्योगिकियों को तैनात करने की बात आती है, तो व्यवसाय अक्सर तकनीकी नेताओं की ओर देखते हैं। यदि कोई तकनीकी दिग्गज कोई नया नवाचार अपनाता है, तो इसे अक्सर अन्य कंपनियों के लिए भी इसे अपनाने की हरी झंडी के रूप में देखा जाता है।
इसलिए, जब माइक्रोसॉफ्ट जैसी प्रभावशाली कंपनी किसी तकनीक के संबंध में मिश्रित संकेत पेश करती है, तो इसका प्रभाव पूरे उद्योगों में महसूस किया जाता है।
एक ओर, Microsoft ने जेनरेटिव AI टूल के उपयोग पर आपत्ति व्यक्त की है। जनवरी में, माइक्रोसॉफ्ट ने कर्मचारियों को चैटजीपीटी के साथ 'संवेदनशील डेटा' साझा न करने की चेतावनी दी थी।
लेकिन माइक्रोसॉफ्ट प्रौद्योगिकी के अपने संस्करण, एज़्योर चैटजीपीटी का भी समर्थन करता है। यह पुनरावृत्ति कॉर्पोरेट उपयोगकर्ताओं के लिए एक सुरक्षित और अधिक नियंत्रित वातावरण का वादा करती है।
यह कदम सवाल उठाता है: क्या Azure ChatGPT वास्तव में उन जोखिमों से प्रतिरक्षित है जो Microsoft ने व्यापक जेनरेटिव AI परिदृश्य में बताए हैं? या क्या यह व्यवसायों को Microsoft के पारिस्थितिकी तंत्र के भीतर बने रहने के लिए एक रणनीतिक पैंतरेबाज़ी है?
किसी भी नई तकनीक का मूल्यांकन करते समय, व्यवसाय अक्सर संभावित लाभ और संभावित नुकसान के बीच रस्साकशी में फंस जाते हैं।
चैटजीपीटी के साथ, कंपनियां प्रतीक्षा करो और देखो का दृष्टिकोण अपनाती दिख रही हैं।
जैसे-जैसे प्रौद्योगिकी और उसके नियम विकसित होते हैं, आशा है कि एक सुरक्षित, अधिक पारदर्शी उपयोग स्थापित किया जा सकता है।
अभी के लिए, चैटजीपीटी थोड़ी सी कोडिंग सहायता और सामग्री के लिए बहुत अच्छा है। लेकिन मैं मालिकाना डेटा के मामले में इस पर भरोसा नहीं करूंगा।