-Daniel Bass
एआई एजेंटों के उपयोग के माध्यम से एप्लिकेशन प्रदर्शन में सुधार करना एक बहुत ही आम अभ्यास बन रहा है - चाहे यह उद्योग भर में हाईप या वास्तविक उपयोग मामलों के कारण हो।
हालांकि, इन एआई एजेंटों को अक्सर अत्यधिक संवेदनशील डेटा तक पहुंच की आवश्यकता होती है, जिससे महत्वपूर्ण सुरक्षा जोखिम आते हैं. मानकीकृत पहुंच नियंत्रण समाधानों के बिना, विकास समूह अक्सर सुरक्षा उपायों को शून्य से बनाते हैं-वे मामलों का नेतृत्व करते हैं जहांएआई सहायक संवेदनशील रोगी जानकारी का खुलासा करते हैंकई एजेंसियों को संदिग्ध किया जा रहा हैत्वरित इंजेक्शन हमले.
इस संदर्भ में एआई एजेंटों की रक्षा उतनी ही महत्वपूर्ण हो रही है जितनी एआई एजेंटों की क्षमताएं हैं - यदि नहीं तो अधिक।
इस समस्या को हल करने के लिए, हमअनुमति देंकुछ समय के लिए एक संरचित सुरक्षा दृष्टिकोण पर काम कर रहे हैं जिसे मैं आज आपको पेश करना चाहता हूं:
चार-परीमीटर फ्रेम
यह विधि आईए एजेंटों की रक्षा के लिए एक व्यापक रणनीति प्रदान करती हैFine-grained एक्सेस नियंत्रण, अनुपालन सुनिश्चित करना, और संभावित हमले वेक्टरों को कम करना. इससे पहले कि मैं समाधान में प्रवेश करूं, चलो समस्या स्थान के बारे में अधिक बात करते हैं।
समस्या: संवेदनशील डोमेन में एआई सुरक्षा जोखिम
पारंपरिक एप्लिकेशन सुरक्षा उपायों और एक्सेस नियंत्रण तंत्र कम होते हैं जब AI एजेंटों को संभालने की बात आती है जबकि पारंपरिक एक्सेस नियंत्रण सिस्टम जैसेरोल आधारित पहुंच नियंत्रण (RBAC)स्टैटिक अनुमतिओं को प्रबंधित करने में उत्कृष्ट, वे एआई प्रतिक्रियाओं की गतिशील प्रकृति के साथ संघर्ष करते हैं। पारंपरिक अनुप्रयोगों के विपरीत जहां इनपुट नक्शे के लिए पूर्वानुमान योग्य आउटपुट और एक्सेस पैटर्न अच्छी तरह से परिभाषित हैं, एआई प्रत्येक पूछताछ के लिए अद्वितीय उत्तर उत्पन्न करता है।
एआई सिस्टम डेटा तक पहुंचने का तरीका भी सुरक्षा मानकों के अनुरूप नहीं होता है। सटीक और उपयोगी प्रतिक्रियाएं प्रदान करने के लिए, एआई एजेंटों को विभिन्न डेटा स्रोतों और ज्ञान आधारों तक व्यापक पहुंच की आवश्यकता होती है. क्लासिक आरबीएसी इस आवश्यकता के लिए बहुत कठोर साबित होता है - आप बस स्थैतिक अनुमतिएं प्रदान नहीं कर सकते हैं जब डेटा आवश्यकताएं संदर्भ के आधार पर बदल जाती हैं।संपत्ति आधारितएक दृष्टिकोण जो गतिशील पहुंच निर्णय ले सकता है।
एक और चिंता यह है कि एआई सिस्टम द्वारा पेश किए गए नए हमले वेक्टर हैं। पारंपरिक सुरक्षा उपायों को तत्काल इंजेक्शन हमलों, मॉडल निकासी प्रयासों, या डेटा विषाक्तता हमलों को संभालने के लिए डिज़ाइन नहीं किया गया था।
समाधान एक व्यापक सुरक्षा फ्रेम के रूप में आता है जो चार आवश्यक परिधि के आसपास बनाया गया है -
समाधान: चार पारिस्थितिक ढांचे
चूंकि एआई अनुप्रयोग मानक सॉफ्टवेयर से अलग हैं कि वे इनपुट को कैसे संसाधित करते हैं, डेटा प्राप्त करते हैं, कार्रवाई करते हैं, और आउटपुट उत्पन्न करते हैं, इसलिए वे अद्वितीय सुरक्षा जोखिम भी पेश करते हैं. इन चुनौतियों को हल करने के लिए, हमें एक संरचित सुरक्षा दृष्टिकोण की आवश्यकता है जो एआई बातचीत के हर चरण में पहुंच नियंत्रण लागू करता है. और यही बिल्कुल यही है जो मैं यहां दिखाना चाहता हूं:
केFour-Perimeter Frameworkपहचान की जागरूकता को मजबूत करने के लिए,एआई लाइफ साइकिल के दौरान अच्छी तरह से अनुमोदितयह सुरक्षा सीमाओं को पेश करता है जो यह नियंत्रित करता है कि कौन से डेटा एआई मॉडल तक पहुंच सकते हैं, वे किस ऑपरेशन को पूरा कर सकते हैं, और उनकी प्रतिक्रियाओं को कैसे सत्यापित किया जाता है।
फ्रेम चार भागों से बना है:
- के
- प्रिंट फ़िल्टरिंग - सुनिश्चित करें कि केवल सत्यापित, सुरक्षित इनपुट एआई मॉडल तक पहुंचते हैं। के
- RAG डेटा संरक्षण – बाहरी ज्ञान स्रोतों तक एआई पहुंच को नियंत्रित करना। के
- सुरक्षित बाहरी पहुंच – बाहरी उपकरणों के साथ बातचीत करते समय एआई एजेंट अधिकारों को परिभाषित करना। के
- प्रतिक्रिया लागू करना - अनुपालन जाँच लागू करना और एआई द्वारा उत्पन्न आउटपुट को फ़िल्टर करना। के
लागू करने सेfine-grained access control (FGA)इन सिद्धांतों को पार करते हुए, एजेंट रहते हैंsecure, auditable, and compliant- उनकी लचीलापन और कार्यक्षमता को बलिदान किए बिना।
FGA कहाँ से आता है?
जैसा कि पहले उल्लेख किया गया है, आरबीएसी जैसी पारंपरिक एक्सेस नियंत्रण विधियों ने एआई के गतिशील, संदर्भ निर्भर व्यवहार को संभालने में विफल रहते हैं. यह वहां है जहां फिन-ग्रेड ऑफ़रलिंग (एफजीए) खेल में आता है, विशेष रूप से गुण-आधारित एक्सेस नियंत्रण (एबीएसी) और रिश्ते-आधारित एक्सेस नियंत्रण (रेबीएसी) के माध्यम से:
- के
- ABAC for Prompt Filtering AI मॉडल गैर संरचित इनपुट को संसाधित करते हैं, जिससे पारंपरिक सुरक्षा नियमों को लागू करना मुश्किल हो जाता है। के
- के
- RAG Data Protection Retrieval-Augmented Generation (RAG) के लिए ReBAC एआई मॉडल को वेक्टर डेटाबेस से जानकारी निकालने की अनुमति देता है. ReBAC उपयोगकर्ताओं, डेटा स्रोतों और एआई एजेंटों के बीच संबंधों को परिभाषित करके इस सेटिंग में सुरक्षा को मजबूत करने का एक प्राकृतिक तरीका प्रदान करता है। के
ABAC और ReBAC का संयोजन करके, एआई अनुप्रयोगों को लचीला, नीति-आधारित पहुंच नियंत्रण तंत्र प्राप्त होते हैं जो मैन्युअल हस्तक्षेप की आवश्यकता के बिना अलग-अलग एआई कार्यप्रवाहों को अनुकूलित करते हैं।
एक कदम-दर-चरण कार्यान्वयन कैसा दिखता है?
आइए एक व्यावहारिक कार्यान्वयन के माध्यम से चलते हैं ताकि हम देख सकें किFour-Perimeter Framework in actionइस उदाहरण से एक एजेंट को सुरक्षित किया जाता हैvalidating prompts, enforcing data protection, restricting external access, and moderating responsesलेवलअनुमति दें AI Access Controlहर कदम पर एकीकरण।
अनुमति दें1. Implement Prompt Filtering
पहला सुरक्षा परिधि एआई इनपुट को मॉडल तक पहुंचने से पहले सत्यापित करने और स्वच्छ करने पर केंद्रित है. हम एआई मॉडल तक पहुंचने से पहले प्रिम्प्ट पर संरचित इनपुट प्रबंधन और एक्सेस नीतियों को लागू कर सकते हैं:
- के
- प्राधिकरण नियंत्रण तत्काल सत्यापन पाइपलाइन में सम्मिलित होते हैं, जिससे अनधिकृत डेटा एआई आउटपुट को प्रभावित करने से रोकता है। के
- भूमिका, गुण और रिश्ते-आधारित पहुंच नियंत्रण लागू किए जाते हैं, यह सुनिश्चित करते हुए कि केवल अनुमोदित मापदंड एआई को पारित किए जाते हैं। के
- किसी भी नीति के उल्लंघन को रिकॉर्ड किया जाता है और वास्तविक समय में अवरुद्ध किया जाता है, जो पहुंच निर्णयों का एक ऑडिट योग्य ट्रैक बनाए रखता है। के
यहां अनुरोधों को फ़िल्टर करने के तीन तरीके हैं - सबसे आसान से सबसे उन्नत तक:
- के
- टोकन वैलिडिंग - सरल चेक के लिए एक कुशल विधि जैसे कि प्रिंट लंबाई या सिस्टम में चलने वाले इनपुट की सामान्य अनुमति। के
- पैटर्न मेलिंग - इस विधि में, अनुमति चेक प्रिंट टेक्स्ट में पैटर्न की जांच करता है. उदाहरण के लिए, जांचें कि पैटर्न एक SQL पूछताछ या कोड उदाहरण से मेल खाता है या नहीं. के
- एआई वर्गीकरण - इस सूची में सबसे उन्नत विधि, एआई वर्गीकरण एक समर्पित सिस्टम वर्गीकरण का उपयोग करके स्पॉट का विश्लेषण करने के लिए एआई का उपयोग करता है, इसे एक संरचित इनपुट में वर्गीकृत करता है जिसे अनुमति जांच में सटीक रूप से विश्लेषण किया जा सकता है। के
Prompt Filtering with PydanticAI
प्रभावी प्रिंट फ़िल्टरिंग के कार्यान्वयन को सर्वोत्तम रूप से प्रदर्शित करने के लिए, यहां PydanticAI उपकरणों का उपयोग करने का एक उदाहरण है AI एजेंटों के लिए उपयोगकर्ता इनपुट फ़िल्टर करने के लिए. PydanticAI एक एजेंट फ्रेमवर्क है जो Python के प्रसिद्ध Pydantic पुस्तकालय और इसके स्थैतिक टाइपिंग क्षमताओं का लाभ उठाता है और इसे एक संरचित एआई फ्रेमवर्क में बदलता है जो गैर संरचित डेटा को संभालता है।
निम्नलिखित GitHub रिकॉर्डर में PydanticAI के लिए फ्रेमवर्क का एक पूर्ण कार्यान्वयन होता है:github.com / अनुमति / अनुमति
@financial_agent.tool
async def validate_financial_query(
ctx: RunContext[PermitDeps],
query: FinancialQuery,
) -> bool:
"""Key checks:
- User has explicitly opted in to AI financial advice
- Consent is properly recorded and verified
- Classifies if the prompt is requesting advice
Args:
ctx: Context containing Permit client and user ID
query: The financial query to validate
Returns:
bool: True if user has consented to AI advice, False otherwise
"""
try:
# Classify if the prompt is requesting advice
is_seeking_advice = classify_prompt_for_advice(query.question)
permitted = await ctx.deps.permit.check(
# The user object with their attributes
{
"key": ctx.deps.user_id,
},
# The action being performed
"receive",
# The resource being accessed
{
"type": "financial_advice",
"attributes": {"is_ai_generated": is_seeking_advice},
},
)
if not permitted:
if is_seeking_advice:
return "User has not opted in to receive AI-generated financial advice"
else:
return "User does not have permission to access this information"
return True
except PermitApiError as e:
raise SecurityError(f"Permission check failed: {str(e)}")
2. Enforce Data Protection –
इसके बाद हम सुरक्षितretrieval-augmented generation (RAG)यह सुनिश्चित करने के लिए कि एआई मॉडल केवल एक्सेस कर सकते हैंauthorized knowledge sourcesयह एआई कार्य प्रवाह के भीतर उपयोगकर्ता के नाम पर एआई एजेंट डेटा के अच्छी तरह से फ़िल्टरिंग के माध्यम से प्राप्त किया जा सकता है:
- के
- सूक्ष्म-आधारित नीति परिष्कृत प्रश्न फ़िल्टरिंग को नीति इंजन में सक्षम करने के लिए रिश्ते-आधारित पहुंच नियंत्रण जैसे उन्नत डेटा फ़िल्टरिंग मॉडल का उपयोग करती है। के
- एआई एजेंटों से जुड़े वेक्टर और ग्राफ़ स्रोतों में मेटाडेटा होता है जो इंजन को अनियमित पूछताछ को संभालने में मदद कर सकता है, इसे केवल अनुमतिित डेटा शामिल करने के लिए फ़िल्टर करता है। के
- हर बार जब एजेंट RAG ज्ञान आधार से डेटा प्राप्त करता है, तो यह उपयोगकर्ता की अनुमति के अनुसार परिणाम फ़िल्टर करता है। के
जब एजेंट अनुप्रयोग आरएजी फ़िल्टरिंग करता है, तो यह निम्नलिखित तरीकों में से एक का उपयोग करता है:
- के
- FilterObjects – इस विधि में, ग्राफ़ अनुप्रयोग RAG से सभी प्रासंगिक डेटा प्राप्त करता है और फिर इसे उपयोगकर्ता अनुमतिओं के लिए फ़िल्टर करता है. इस फ़ंक्शन का लाभ यह है कि यह नीति इंजन को अस्थिर रखता है और RAG डेटा के बारे में अनजान है. के
- GetUserPermissions - इस विधि में, एजेंट RAG को एक गैर संरचित पूछताछ प्रदान करता है. RAG फिर GetUserPermissions फ़ंक्शन को कॉल करता है, गैर संरचित RAG पूछताछ के लिए एक फ़िल्टर पूछताछ जोड़ता है. यह अनुमति देता है कि पूछताछ केवल उन संसाधनों पर फ़िल्टर किया जा सकता है जिन तक उपयोगकर्ता पहुंच सकता है. के
RAG Data Protection with Langchain
लंगचेन, प्रसिद्ध एआई अनुप्रयोग फ्रेमवर्क, अपने रिट्रिवर घटक के लिए जाना जाता है जो कस्टम रिट्रिवरों में महान समर्थन प्रदान करते हैं जिन्हें किसी भी प्रकार के डेटा स्रोत के साथ इकट्ठा किया जा सकता है, सुरक्षित आरएजी के कार्यान्वयन को आसान बनाता है।SelfQueryRetriever
, आप सामान्य RAG को एक के साथ लपेट सकते हैंGetUserPermissions
PermitSelfQueryRetriever का एक उदाहरण यहाँ है जो उपयोगकर्ता, कार्य और RAG संसाधनों के प्रकार को एलएलएम के लिए परिणामों को फ़िल्टर करने के लिए प्राप्त करता है:
# 1. Build a small in-memory vector store
embeddings = OpenAIEmbeddings()
vectorstore = FAISS.from_documents(docs, embedding=embeddings)
# 2. Initialize the PermitSelfQueryRetriever
retriever = PermitSelfQueryRetriever(
api_key=os.getenv("PERMIT_API_KEY", ""),
pdp_url=os.getenv("PERMIT_PDP_URL"),
user=USER,
resource_type=RESOURCE_TYPE,
action=ACTION,
llm=embeddings,
vectorstore=vectorstore,
enable_limit=False,
)
निम्नलिखित भंडारण में लैंगचेन के लिए ढांचे के पूर्ण कार्यान्वयन शामिल हैं:https://github.com/permitio/langchain-permit के बारे में
3. Secure External Access –
एआई एजेंट अक्सर बाहरी एपीआई, सेवाओं और स्वचालन उपकरणों के साथ बातचीत करते हैं. बिना उचित पहुंच नियंत्रण के, वे अनधिकृत कार्यों को निष्पादित करने का जोखिम उठाते हैं. इस प्रकार, हमें यह सुनिश्चित करना होगा कि एआई-आधारित संचालन मशीन पहचान नीतियों के आधार पर प्रतिबंधित हैं. यहां यह कैसे प्राप्त किया जा सकता है:
- के
- एमसीपी जैसे मॉडल का उपयोग करना, जो एक सर्वर-क्लाइंट मॉडल को परिभाषित करता है जहां एआई एजेंट बाहरी सेवाओं के साथ बातचीत करते हैं, एआई बाहरी पहुंच (उदाहरण के लिए, डेटाबेस, एपीआई, भुगतान प्रणालियों) के लिए सुरक्षा को सक्षम करने में एक महान कदम है। के
- एआई एक्शन इन्फ्रास्ट्रक्चर एक्शन स्तर पर अधिकृत जांच करने के लिए Permit.io जैसे एक सेवा का उपयोग कर सकता है, यह जांच कर सकता है कि कौन अनुरोध करता है और वे क्या कार्य करना चाहते हैं। के
- डेवलपर्स आईए एजेंटों को मशीन पहचान प्रदान करने में सक्षम हैं, केवल पूर्व-अनुमोदित कार्यों के लिए उनकी क्षमताओं को सीमित करते हुए। के
जबकि जीपीटी और प्राकृतिक भाषा इंटरफेस नई नहीं हैं, उन्हें उपयोगकर्ताओं के नाम पर कार्य करने की अनुमति देना कई इंजीनियरों के साथ मुकाबला करने वाली एक अपेक्षाकृत नई चुनौती है।
- के
- प्रत्यक्ष पहुंच सुरक्षा - सबसे सरल स्तर. एक उपयोगकर्ता एक एचआई एजेंट को एक ऑपरेशन, जैसे कि एक एचटीटीपी कॉल करने के लिए कहता है. एचआई एजेंट जानता है कि क्या ऑपरेशन की अनुमति है, वर्तमान संदर्भ और उपयोगकर्ता को ध्यान में रखते हुए। के
- एजेंट-एजेंट संचार - इस अगले स्तर पर, हमें पहचानों और अनुमतिओं के एक कास्टिंग प्रवाह की आवश्यकता होती है जो एजेंटों को खुद को कम से कम विशेषाधिकार के सिद्धांत के आधार पर कार्य करने की अनुमति देता है। के
- एक्सेस अनुरोध प्रवाह - बाहरी एक्सेस का सबसे रोमांचक स्तर तब होता है जब एआई एजेंट को एक मानव उपयोगकर्ता से सीधे एक्सेस का अनुरोध करने की आवश्यकता होती है जब वह एक ऑपरेशन करना चाहता है। के
MCP, Human-in-the-Loop, and External Access
मॉडल संदर्भ प्रोटोकॉल एंथ्रोपिक द्वारा पेश किया गया एक नया प्रोटोकॉल है, जो एआई एजेंटों को सक्रिय कार्यों को करने की अनुमति देने की समस्या को हल करता है और बाहरी पहुंच को सुरक्षित करने के लिए सबसे बड़ा सक्षमकर्ता के रूप में कार्य करता है।
निम्नलिखित उदाहरण में, हम एक एमसीपी सर्वर को दिखाते हैं जो मनुष्यों को चक्र में लाकर पहुंच अनुरोध प्रवाहों को प्रबंधित करने का तरीका जानता है और अनुमतिओं के लिए अनुरोध करने के लिए Permit.io के एपीआई का उपयोग करता है।
आप यहां एमसीपी एक्सेस अनुरोध सर्वर के लिए पूर्ण कोड उदाहरण देख सकते हैं:https://github.com/permitio/permit-mcp के बारे में
@mcp.tool()
async def request_access(username: str, resource: str, resource_name: str) -> dict:
"""
Initiate access request call to a specific resource in the system
Args:
username: The username of the person requesting access
resource: The resource type the user is request access for
resource_name: The name of the restaurant to request access for
"""
login = await permit.elements.login_as({ "userId": slugify(username), "tenant": "default"})
print(login)
url = f"https://api.permit.io/v2/facts/{PROJECT_ID}/{ENV_ID}/access_requests/{ELEMENTS_CONFIG_ID}/user/{slugify(username)}/tenant/default"
payload = {
"access_request_details": {
"tenant": "default",
"resource": resource,
"resource_instance": resource_name['id'],
"role": "viewer",
},
"reason": f"User {username} requests role 'viewer' for {resource_name}"
}
headers = {
"authorization": "Bearer YOUR_API_SECRET_KEY",
"Content-Type": "application/json",
}
async with httpx.AsyncClient() as client:
await client.post(url, json=payload, headers=headers)
return "Your request has been sent. Please check back later."
4. Validate AI Responses –
अंतिम परिधि एआई द्वारा उत्पन्न प्रतिक्रियाओं पर सामग्री मॉडरेटिंग और अनुपालन को लागू करती है. यह एक कार्य प्रवाह बनाकर किया जा सकता है जो एआई आउटपुट वितरित करने से पहले नीति-आधारित फ़िल्टरिंग लागू करता है:
- के
- एजेंट एप्लिकेशन में एक अनुमति चेक जोड़ा जा सकता है, जो उपयोगकर्ता को वास्तव में प्रतिक्रिया प्राप्त करने से पहले श्रृंखला के प्रत्येक चरण में नीति लागू करने की अनुमति देता है। के
- संयुक्त डेटा सत्यापन और अधिकृत कार्यप्रवाह यह सुनिश्चित करते हैं कि केवल सत्यापित और अनुमति दिए गए डेटा आगे बढ़ सकते हैं। के
- उपयोगकर्ताओं को वापस आने वाली प्रतिक्रिया को पूर्व-निर्धारित सीमाओं के आधार पर संपादित किया जा सकता है, जिससे डेटा को मास्क करने या उपयोग की सीमाओं के बारे में उपयोगकर्ता को सूचित करने की अनुमति मिलती है। के
Response Filtering with Langflow
निम्नलिखित उदाहरण में, हम Langflow का उपयोग करते हैं, एक दृश्य-न-कोड एआई अनुप्रयोग संपादक, एक अनुमति जाँच घटक बनाने के लिए जो उपयोगकर्ता के लिए किसी भी चैट प्रतिक्रिया से पहले स्थित है. LangFlow के अनुकूल प्रवाह मॉडलिंग क्षमताओं का उपयोग करके, आप आसानी से एक और घटक जोड़ सकते हैं जो वापस किए गए प्रतिक्रियाओं में अवांछित विवरणों को masks.इस रिकॉर्डसुरक्षित Langflow अनुप्रयोगों के लिए आवश्यक सभी एक्सेस कंट्रोल घटक शामिल हैं।
निष्कर्ष
एआई सिस्टम उद्योगों के भीतर अनुप्रयोगों में तेजी से एकीकृत हो रहे हैं, लेकिन पारंपरिक सॉफ्टवेयर की तुलना में उनकी सुरक्षा फ्रेमवर्क कम विकसित हैं. बिना उचित पहचान-जागरूक पहुंच नियंत्रण के, एआई एजेंट संवेदनशील डेटा को प्रकट करने, अनधिकृत ऑपरेशन चलाने और अनुपालन दिशानिर्देशों से परे प्रतिक्रियाएं उत्पन्न करने का जोखिम उठाते हैं।
चार-पेरिमेटर फ्रेमवर्क हर चरण में एआई कार्य प्रवाहों को सुरक्षित करने के लिए एक संरचित तरीका प्रदान करता है - प्रमोटर की सत्यापन से और रिकॉर्डिंग-आउट जनरेटिंग (आरएजी) डेटा की रक्षा से, एआई-आधारित बाहरी कार्यों को नियंत्रित करने और प्रतिक्रिया अनुपालन को लागू करने तक।
शून्य से एक्सेस कंट्रोल का निर्माण करने के बजाय, Permit.io के एआई एक्सेस कंट्रोल PydanticAI, LangChain, MCP और LangFlow के साथ एकीकरण टीमों को सीधे अपने एआई अनुप्रयोगों में सुरक्षा को एकीकृत करने की अनुमति देता है - विकास कार्य प्रवाह को बाधित किए बिना।यहां खुद की कोशिश करें.
हालांकि, यह क्षेत्र अभी भी अपेक्षाकृत नया है, और आईआई एजेंटों को सुरक्षित करने के लिए सर्वोत्तम प्रथाएं अभी भी विकसित हो रही हैं. चार पारिमीटर फ्रेमवर्क एक प्रयोगशाला दृष्टिकोण है, और हालांकि यह एक मजबूत नींव प्रदान करता है, मुझे एहसास है कि वास्तविक दुनिया में तैनाती हमेशा आगे की परिष्करण और अनुकूलन की आवश्यकता होती है।
मैं इस ढांचे को बेहतर बनाने के बारे में आपकी प्रतिक्रियाओं, विचारों और विचारों को सुनना चाहता हूं ताकि यह उत्पादन के लिए तैयार एआई सिस्टम के लिए और भी बेहतर हो सके - यहां टिप्पणी करें, या हमारे में मुझे खींचेंSlack समुदाय.