नया इतिहास

एआई एजेंट उत्पादन तैयार नहीं हैं - और एक्सेस नियंत्रण कारण हो सकता है

द्वारा Permit.io12m2025/04/16
Read on Terminal Reader

बहुत लंबा; पढ़ने के लिए

एआई एजेंटों को गतिशील डेटा एक्सेस और नए हमले वेक्टरों के कारण महत्वपूर्ण सुरक्षा चुनौतियों का सामना करना पड़ता है. इस लेख में चार पारिमीटर फ्रेमवर्क प्रस्तुत किया गया है, जो एआई कार्यप्रवाहों को तत्काल फ़िल्टरिंग, आरएजी डेटा संरक्षण, बाहरी एक्सेस नियंत्रण, और आउटपुट सत्यापन के माध्यम से सुरक्षित करता है - एआई सुरक्षा को बढ़ाने के लिए फाइने-ग्रेन एक्सेस नियंत्रण (ABAC और ReBAC) का उपयोग करते हुए।
featured image - एआई एजेंट उत्पादन तैयार नहीं हैं - और एक्सेस नियंत्रण कारण हो सकता है
Permit.io HackerNoon profile picture
0-item

- डेनियल बेस

- डेनियल बेस


आईए एजेंटों के उपयोग के माध्यम से अनुप्रयोग प्रदर्शन में सुधार करना एक बहुत ही आम अभ्यास बन रहा है - चाहे यह उद्योग भर में हाईप या वास्तविक उपयोग मामलों के कारण हो।


These AI agents, however, often require access to highly sensitive data, introducing significant security risks. Without standardized access control solutions, development teams often build security measures from scratch—leading to cases where AI assistants expose sensitive patient information and several AI agents being compromised through sophisticated prompt injection attacks.

AI assistants expose sensitive patient informationsophisticated prompt injection attacks


इस संदर्भ में आईए एजेंटों की रक्षा करना आईए एजेंटों की क्षमताओं के रूप में उतना ही महत्वपूर्ण हो रहा है - यदि नहीं तो अधिक।

To address this problem, we at Permit.io have been working for a while on a structured security approach I wish to introduce to you today:

Permit.io

The Four-Perimeter Framework.

The Four-Perimeter FrameworkThe Four-Perimeter Framework


This method provides a comprehensive strategy for protecting AI agents by implementing fine-grained access control, ensuring compliance, and mitigating potential attack vectors. Before I go into the solution, let’s talk more about the problem space.

fine-grained access control

समस्या: संवेदनशील डोमेन में एआई सुरक्षा जोखिम

Traditional application security measures and access control mechanisms fall short when it comes to handling AI agents. While conventional access control systems like role-based access control (RBAC) excel at managing static permissions, they struggle with the dynamic nature of AI responses. Unlike traditional applications where inputs map to predictable outputs and access patterns are well-defined, AI generates unique responses for each query. This means the access control and input validation techniques we’re used to can’t anticipate all possible outputs.

role-based access control (RBAC)


The way AI systems access data also doesn’t fit security standards. To provide accurate and helpful responses, AI agents need broad access to various data sources and knowledge bases. Classic RBAC proves too rigid for this need - you can’t simply assign static permissions when the data requirements change based on context. This calls for a more sophisticated, attribute-based approach that can make dynamic access decisions.

attribute-based


एक और चिंता यह है कि एआई सिस्टम द्वारा पेश किए गए नए हमले वेक्टर हैं। पारंपरिक सुरक्षा उपायों को तत्काल इंजेक्शन हमलों, मॉडल निकासी प्रयासों, या डेटा विषाक्तता हमलों को संभालने के लिए डिज़ाइन नहीं किया गया था।


सफलता एक व्यापक सुरक्षा फ्रेम के रूप में आता है जो चार आवश्यक परिधि के आसपास बनाया गया है -

सफलता: चार पारिस्थितिक फ्रेमवर्क

जैसे एआई अनुप्रयोग मानक सॉफ्टवेयर से अलग होते हैं कि वे इनपुट को कैसे संसाधित करते हैं, डेटा प्राप्त करते हैं, कार्रवाई करते हैं, और आउटपुट उत्पन्न करते हैं, वे अद्वितीय सुरक्षा जोखिम भी पेश करते हैं. इन चुनौतियों को हल करने के लिए, हमें एक संरचित सुरक्षा दृष्टिकोण की आवश्यकता होती है जो एआई बातचीत के हर चरण में पहुंच नियंत्रण लागू करता है. और यही बिल्कुल यही है जो मैं यहां दिखाना चाहता हूं:


The Four-Perimeter Framework is designed to enforce identity-aware, fine-grained authorization throughout the AI lifecycle. It introduces security boundaries that govern what data AI models can access, what operations they can perform, and how their responses are validated.

चार-पेरिमीटर फ्रेमवर्कfine-grained authorization throughout the AI lifecycle


कारण चार भागों से बना है:


  1. प्रॉम्प्ट फ़िल्टरिंग – केवल सत्यापित, सुरक्षित इनपुट एआई मॉडल तक पहुंचने के लिए सुनिश्चित करें.
  2. RAG डेटा संरक्षण – बाहरी ज्ञान स्रोतों के लिए एआई पहुंच को नियंत्रित करें.
  3. सुरक्षित बाहरी पहुंच – बाहरी उपकरणों के साथ बातचीत करते समय एआई एजेंट अधिकारों को परिभाषित करें.
  4. प्रतिक्रिया लागू करें – अनुपालन जाँच लागू करें और एआई से उत्पन्न आउटपुट फ़िल्टरिंग।
  5. प्रोम्प्ट फ़िल्टरिंग – केवल सत्यापित, सुरक्षित इनपुट एआई मॉडल तक पहुंचने के लिए सुनिश्चित करें।प्रिंट फ़िल्टर
  6. आरएजी डेटा संरक्षण - बाहरी ज्ञान स्रोतों के लिए एआई पहुंच को नियंत्रित करना।RAG डेटा संरक्षण
  7. सुरक्षित बाहरी पहुंच - बाहरी उपकरणों के साथ बातचीत करते समय एआई एजेंट अधिकारों को परिभाषित करना।सुरक्षित बाहरी पहुंच
  8. अनुरोध लागू करना - अनुपालन जाँच लागू करना और एआई से उत्पन्न आउटपुट को फ़िल्टर करना।अनुकूलन प्रतिरोध


    इन क्षेत्रों पर फाइने-ग्रेन एक्सेस कंट्रोल (एफजीए) सिद्धांतों को लागू करके, एआई एजेंट सुरक्षित, ऑडिट योग्य और अनुपालनशील रहते हैं - उनकी लचीलापन और कार्यक्षमता को बलिदान किए बिना।फाइन-ग्रेन एक्सेस कंट्रोल (एफजीए)सुरक्षित, ऑडिट योग्य और अनुपालनशील

    Where Does FGA Come In?

    जैसा कि पहले उल्लेख किया गया है, आरबीएसी जैसे पारंपरिक एक्सेस नियंत्रण विधियों ने एआई के गतिशील, संदर्भ निर्भर व्यवहार को संभालने में विफल रहते हैं।


    एआई मॉडल गैर संरचित इनपुट को संसाधित करते हैं, जिससे पारंपरिक सुरक्षा नियमों को लागू करना मुश्किल हो जाता है।एआई मॉडल गैर संरचित इनपुट को संसाधित करते हैं, जिससे पारंपरिक सुरक्षा नियमों को लागू करना मुश्किल हो जाता है।प्रिंट फ़िल्टरिंग के लिए ABAC


    • RABAC for RAG Data Protection Retrieval-augmented generation (RAG) एआई मॉडल को वेक्टर डेटाबेस से जानकारी निकालने की अनुमति देता है. ReBAC उपयोगकर्ताओं, डेटा स्रोतों और एआई एजेंटों के बीच संबंधों को परिभाषित करके इस सेटिंग में सुरक्षा को मजबूत करने का एक प्राकृतिक तरीका प्रदान करता है।RAG डेटा संरक्षण के लिए ReBAC Retrieval-augmented generation (RAG) एआई मॉडल को वेक्टर डेटाबेस से जानकारी निकालने की अनुमति देता है. ReBAC उपयोगकर्ताओं, डेटा स्रोतों और एआई एजेंटों के बीच संबंधों को परिभाषित करके इस सेटिंग में सुरक्षा को लागू करने का एक प्राकृतिक तरीका प्रदान करता है।RAG डेटा संरक्षण के लिए ReBAC


      ABAC और ReBAC को जोड़कर, एआई अनुप्रयोगों को लचीला, नीति-आधारित पहुंच नियंत्रण तंत्र प्राप्त होते हैं जो मैन्युअल हस्तक्षेप की आवश्यकता के बिना अलग-अलग एआई कार्यप्रवाहों को अनुकूलित करते हैं।

      एक कदम-दर-चरण कार्यान्वयन कैसा दिखता है?

      Let's walk through a practical implementation to see the Four-Perimeter Framework in action. This example secures an AI agent by validating prompts, enforcing data protection, restricting external access, and moderating responses—leveraging Permit.io AI Access Control integrations at each step.

      चार पारिस्थितिक फ्रेमवर्क कार्रवाई मेंविमोटों की पुष्टि करना, डेटा संरक्षण को लागू करना, बाहरी पहुंच को प्रतिबंधित करना और प्रतिक्रियाओं को मॉडरेट करनाPermit.io AI Access ControlPermit.io

      1. Implement Prompt Filtering

      1. Implement Prompt फ़िल्टर

      पहले सुरक्षा परिधि मॉडल तक पहुंचने से पहले एआई इनपुट को सत्यापित करने और स्वच्छ करने पर केंद्रित है. हम एआई मॉडल तक पहुंचने से पहले प्रमोटर पर संरचित इनपुट प्रबंधन और एक्सेस नीतियों को लागू कर सकते हैं:


      • अधिकरण नियंत्रण तत्काल सत्यापन पाइपलाइन में एकीकृत किए जाते हैं, जो अनधिकृत डेटा को आईए आउटपुट को प्रभावित करने से रोकता है।
      • रॉल, गुण और रिश्ते-आधारित पहुंच नियंत्रण लागू किए जाते हैं, यह सुनिश्चित करते हुए कि केवल अनुमोदित पैरामीटर आईए को पारित किए जाते हैं।
      • अधिकार नियंत्रण तत्काल सत्यापन पाइपलाइन में सम्मिलित होते हैं, जिससे अनधिकृत डेटा एआई आउटपुट को प्रभावित करने से रोकता है।
      • रॉल, गुण, और रिश्ते-आधारित पहुंच नियंत्रण लागू किए जाते हैं, यह सुनिश्चित करते हुए कि केवल अनुमोदित मापदंड एआई को पारित किए जाते हैं।
      • सभी नीति उल्लंघनों को रिकॉर्ड किया जाता है और वास्तविक समय में अवरुद्ध किया जाता है, जो पहुंच निर्णयों का एक प्रमाणित ट्रैक बनाए रखता है।


        यहां आमंत्रणों को फ़िल्टर करने के तीन तरीके हैं - सबसे आसान से सबसे उन्नत तक:


        1. टोकन सत्यापन - प्रिंट लंबाई या सिस्टम में चलने वाले इनपुट की सामान्य अनुमति जैसे सरल चेक के लिए एक कुशल विधि। इस विधि में अनुमति चेक फ़ंक्शन टेक्स्टल प्रिंट के संरचित गुणों की जांच करते हैं।
        2. पैटर्न मैचिंग - इस विधि में, अनुमति चेक प्रिंट पाठ में पैटर्न की जांच करता है। जांच, उदाहरण के लिए, यदि पैटर्न एक SQL पूछताछ या कोड उदाहरण के साथ मेल खाता है।
        3. एआई वर्गीकरण - इस सूची में सबसे उन्नत विधि, एआई वर्गीकरण एक समर्पित प्रणाली प्रिंट का उपयोग करके अनुमति चेक
        4. टोकन वैलिडिंग - प्रिंट लंबाई या सिस्टम में चलने वाले इनपुट की सामान्य अनुमति जैसे सरल चेक के लिए एक कुशल विधि।टोकन सत्यापन
        5. पैटर्न मेलिंग - इस विधि में, अनुमति चेक अनुरोध पाठ में पैटर्न की जांच करता है. उदाहरण के लिए, जांचें कि पैटर्न एक SQL पूछताछ या कोड उदाहरण से मेल खाता है.
        6. पैटर्न मेलिंग
        7. आईआई वर्गीकरण - इस सूची में सबसे उन्नत विधि, एआई वर्गीकरण एक समर्पित सिस्टम वर्गीकरण का उपयोग करके स्पॉट का विश्लेषण करने के लिए एआई का उपयोग करता है, इसे एक संरचित इनपुट में वर्गीकृत करता है जिसे अनुमति जांच में सटीक रूप से विश्लेषण किया जा सकता है।AI वर्गीकरण



          प्रिंट फ़िल्टरिंग के साथ PydanticAI

          PydanticAI के साथ तत्काल फ़िल्टरिंग

          प्रभावी प्रिंट फ़िल्टरिंग के कार्यान्वयन को सर्वोत्तम रूप से प्रदर्शित करने के लिए, यहां PydanticAI उपकरणों का उपयोग करने का एक उदाहरण है AI एजेंटों के लिए उपयोगकर्ता इनपुट फ़िल्टर करने के लिए।


          The following GitHub repository contains a full implementation of the framework for PydanticAI: github.com/permitio/permit-pydanticai

          github.com/permitio/permit-pydanticai


           @financial_agent.tool async def validate_financial_query( ctx: RunContext[PermitDeps], query: FinancialQuery, ) -> bool: ""कोई चेक: - उपयोगकर्ता ने स्पष्ट रूप से एआई वित्तीय सलाह के लिए चयन किया है, अन्यथा नकली """ कोशिश करें: # मान्यता सही ढंग से रिकॉर्ड किया गया है और सत्यापित किया गया है - मान्यता है कि परामर्श के लिए परामर्श के लिए परामर्श का अनुरोध कर रहा है Args: ctx: अनुमति ग्राहक और उपयोगकर्ता आईडी अनुरोध: वित्तीय पूछताछ मान्यता प्राप्त करने के लिए अनुमति है Returns: bool: true if user has consented to AI
          @financial_agent.tool
          async def validate_financial_query(
              ctx: RunContext[PermitDeps],
              query: FinancialQuery,
          ) -> bool:
              """Key checks:
              - User has explicitly opted in to AI financial advice
              - Consent is properly recorded and verified
              - Classifies if the prompt is requesting advice
          
              Args:
                  ctx: Context containing Permit client and user ID
                  query: The financial query to validate
          
              Returns:
                  bool: True if user has consented to AI advice, False otherwise
              """
              try:
                  # Classify if the prompt is requesting advice
                  is_seeking_advice = classify_prompt_for_advice(query.question)
          
                  permitted = await ctx.deps.permit.check(
                      # The user object with their attributes
                      {
                          "key": ctx.deps.user_id,
                      },
                      # The action being performed
                      "receive",
                      # The resource being accessed
                      {
                          "type": "financial_advice",
                          "attributes": {"is_ai_generated": is_seeking_advice},
                      },
                  )
          
                  if not permitted:
                      if is_seeking_advice:
                          return "User has not opted in to receive AI-generated financial advice"
                      else:
                          return "User does not have permission to access this information"
          
                  return True
          
              except PermitApiError as e:
                  raise SecurityError(f"Permission check failed: {str(e)}")
          

          2. डेटा संरक्षण को लागू करें –

          2. डेटा संरक्षण को मजबूत करें –

          अगले, हम यह सुनिश्चित करके retrieval-augmented generation (RAG) पूछताछ को सुरक्षित करते हैं कि एआई मॉडल केवल अधिकृत ज्ञान स्रोतों तक पहुंच सकते हैं। रिट्रीव-आउट्यूशन जनरेशन (RAG)अधिकारिक ज्ञान स्रोत


          • फीन-ग्रेनेड नीति उन्नत डेटा फ़िल्टरिंग मॉडल का उपयोग करती है, जैसे रिश्ते-आधारित एक्सेस कंट्रोल, ताकि नीति इंजन को उन्नत पूछताछ फ़िल्टरिंग की अनुमति मिल सके।
          • आईए एजेंटों से जुड़े वेक्टर और ग्राफ़ स्रोतों में मेटाडेटा होते हैं जो इंजन को अस्थिर पूछताछ को संभालने में मदद कर सकते हैं, इसे केवल अनुमति दिए गए डेटा को शामिल करने के लिए फ़िल्टरिंग करते हैं।
          • फीन-ग्रेनेड नीति नीति इंजन के लिए उन्नत प्रश्न फ़िल्टरिंग की अनुमति देने के लिए रिश्ते-आधारित पहुंच नियंत्रण जैसे उन्नत डेटा फ़िल्टरिंग मॉडल का उपयोग करती है।
          • आईए एजेंटों से जुड़े वेक्टर और ग्राफ़ स्रोतों में मेटाडेटा होता है जो इंजन को अस्थिर पूछताछ को संभालने में मदद कर सकता है, इसे केवल अनुमतिित डेटा शामिल करने के लिए फ़िल्टर करता है।
          • सभी बार जब एजेंट RAG ज्ञानबेस से डेटा प्राप्त करता है, तो यह परिणामों को उपयोगकर्ता की अनुमति के अनुसार फ़िल्टर करता है।


            जब एजेंट अनुप्रयोग आरएजी फ़िल्टरिंग करता है, तो यह निम्नलिखित तरीकों में से एक का उपयोग करता है:


            • FilterObjects—इस तरीके से, ग्राफ अनुप्रयोग RAG से सभी प्रासंगिक डेटा प्राप्त करता है और फिर इसे उपयोगकर्ता अनुमतिओं के आधार पर फ़िल्टर करता है. इस फ़ंक्शन का लाभ यह है कि यह नीति इंजन को स्टेटलेस रखता है और RAG डेटा के बारे में नहीं जानता है.
            • GetUserPermissions - इस तरीके में, एजेंट RAG को एक गैर संरचित पूछताछ प्रदान करता है. RAG फिर GetUserPermissions फ़ंक्शन को कॉल करता है, गैर संरचित RAG पूछताछ को एक फ़िल्टर पूछताछ जोड़ता है. यह अनुरोध को केवल उन संसाधनों पर फ़िल्ट
            • FilterObjects—इस विधि में, ग्राफ़ अनुप्रयोग RAG से सभी प्रासंगिक डेटा प्राप्त करता है और फिर इसे उपयोगकर्ता अनुमतिओं के लिए फ़िल्टर करता है।FilterObjects
            • GetUserPermissions - इस विधि में, एजेंट RAG को एक गैर संरचित पूछताछ प्रदान करता है. RAG फिर GetUserPermissions फ़ंक्शन को कॉल करता है, गैर संरचित RAG पूछताछ के लिए एक फ़िल्टर पूछताछ जोड़ता है. यह अनुमति देता है कि पूछताछ केवल उन संसाधनों पर फ़िल्टर किया जा सकता है जिन तक उपयोगकर्ता पहुंच सकता है.
            • GetUserPermissionsGetUserPermissions


              Langchain के साथ RAG डेटा संरक्षण

              Langchain के साथ RAG डेटा संरक्षण

              Langchain, प्रसिद्ध एआई अनुप्रयोग फ्रेमवर्क, अपने रिट्रिवर घटक के लिए जाना जाता है जो कस्टम रिट्रिवरों में महान समर्थन प्रदान करते हैं जिन्हें किसी भी प्रकार के डेटा स्रोत के साथ इकट्ठा किया जा सकता है, सुरक्षित आरएजी के कार्यान्वयन को आसान बनाता है। उदाहरण के लिए, SelfQueryRetriever के साथ, आप एक GetUserPermissions फ़ंक्शन के साथ सामान्य आरएजी को लपेट सकते हैं जो फ़िल्टर किए गए डेटा को पूछताछ में जोड़ देगा. यहाँ PermitSelfQueryRetriever का एक उदाहरण है जो उपयोगकर्ता, कार्रवाई, और आरएजी संसाधनों के प्रकार को एलएलएम के लिए परिणामों को फ़िSelfQueryRetrieverGetUserPermissions

               # 1. एक छोटे से स्मृति में वेक्टर स्टोर embeddings = OpenAIEmbeddings() vectorstore = FAISS.from_documents(docs, embedding=embeddings) # 2. PermitSelfQueryRetriever retriever = PermitSelfQueryRetriever ( api_key=os.getenv("PERMIT_API_KEY", ""), pdp_url=os.getenv("PERMIT_PDP_URL"), user=USER, resource_type=RESOURCE_TYPE, action=ACTION, llm=embeddings, vectorstore=vectorstore, enable_limit=False, 
              # 1. Build a small in-memory vector store embeddings = OpenAIEmbeddings() vectorstore = FAISS.from_documents(docs, embedding=embeddings) # 2. Initialize the PermitSelfQueryRetriever retriever = PermitSelfQueryRetriever( api_key=os.getenv("PERMIT_API_KEY", ""), pdp_url=os.getenv("PERMIT_PDP_URL"), user=USER, resource_type=RESOURCE_TYPE, action=ACTION, llm=embeddings, vectorstore=vectorstore, enable_limit=False, )


              The following repository contains the full implementation of the framework for Langchain: https://github.com/permitio/langchain-permit

              https://github.com/permitio/langchain-permit

              3. सुरक्षित बाहरी पहुंच –

              3. सुरक्षित बाहरी पहुंच –

              आईआई एजेंट अक्सर बाहरी एपीआई, सेवाओं और स्वचालन उपकरणों के साथ बातचीत करते हैं. बिना उचित एक्सेस नियंत्रण के, वे अनधिकृत कार्यों को निष्पादित करने का जोखिम उठाते हैं. इस प्रकार, हमें यह सुनिश्चित करना होगा कि आईआई-आधारित ऑपरेशन मशीन पहचान नीतियों के आधार पर प्रतिबंधित हैं. यहां यह कैसे प्राप्त किया जा सकता है:


              • Using models like MCP, which defines a server-client model where AI agents interact with external services, is a great step in enabling security for AI external access (e.g., databases, APIs, payment systems).
              • The AI action infrastructure can use a service like Permit.io to perform authorization checks at the action level, checking who’s making a request and what action they want to perform.
              • Developers are able to assign machine identities to AI agents, limiting their capabilities to pre-approved functions only.
            • MCP जैसे मॉडल का उपयोग करना, जो एक सर्वर-क्लाइंट मॉडल को परिभाषित करता है जहां एआई एजेंट बाहरी सेवाओं के साथ बातचीत करते हैं, एआई बाहरी पहुंच (उदाहरण के लिए, डेटाबेस, एपीआई, भुगतान प्रणालियों) के लिए सुरक्षा को सक्षम करने में एक महान कदम है।
            • The AI action infrastructure can use a service like Permit.io to perform authorization checks at the action level, checking who’s making a request and what action they want to perform.
            • Permit.io
            • डेवलपर्स एजेंटों को एआई एजेंटों को मशीन पहचान प्रदान करने में सक्षम हैं, केवल पूर्व-अनुमोदित कार्यों पर उनकी क्षमताओं को सीमित करते हुए।


              जबकि जीपीटी और प्राकृतिक भाषा इंटरफ़ेस नई नहीं हैं, उन्हें उपयोगकर्ताओं के नाम पर कार्य करने की अनुमति देना कई इंजीनियरों के साथ एक अपेक्षाकृत नई चुनौती है. हम यहां सुनिश्चित करने के लिए महत्वपूर्ण पहुंच नियंत्रण के तीन अलग स्तरों को नोटिस कर सकते हैं:


              1. Direct access security - सबसे सरल स्तर. एक उपयोगकर्ता एक एआई एजेंट को एक ऑपरेशन, जैसे कि एक एचटीटीपी कॉल करने के लिए कहता है. एआई एजेंट वर्तमान संदर्भ और उपयोगकर्ता को ध्यान में रखते हुए ऑपरेशन की अनुमति है या नहीं की जांच करने के लिए जानता है.
              2. एजेंट-टू-एजेंट संचार - इस अगले स्तर में, हमें पहचान और अनुमतिओं के एक कैस्केडिंग प्रवाह की आवश्यकता होती है जो एजेंटों को खुद को कम से कम विशेषाधिकार के सिद्धांत के आधार पर कार्य करने की अनुमति देता है. इस स्तर पर, हम पहचान - मानव और गैर-मानवीय - के बीच संबंध का उपयोग करने के लिए चाहते हैं
              3. Direct access security - सबसे सरल स्तर. एक उपयोगकर्ता एक एचआई एजेंट को एक ऑपरेशन, जैसे कि एक एचटीटीपी कॉल करने के लिए कहता है. एचआई एजेंट जानता है कि क्या ऑपरेशन की अनुमति है, वर्तमान संदर्भ और उपयोगकर्ता को ध्यान में रखते हुए।Direct Access सुरक्षा
              4. एजेंट-एजेंट संचार - इस अगले स्तर पर, हमें पहचानों और अनुमतिओं के एक कैस्केडिंग प्रवाह की आवश्यकता है जो एजेंटों को खुद को कम से कम विशेषाधिकार के सिद्धांत के आधार पर कार्य करने की अनुमति देता है।एजेंट-टू-एजेंट संचार
              5. अनुरोध प्रवाह - बाहरी पहुंच का सबसे रोमांचक स्तर तब होता है जब एआई एजेंट को एक मानव उपयोगकर्ता से सीधे पहुंच का अनुरोध करने की आवश्यकता होती है जब वह एक ऑपरेशन करना चाहता है।अनुरोध प्रवाह


                MCP, मानव-in-the-Loop और बाहरी पहुंच

                MCP, Human-in-the-Loop, और बाहरी पहुंच

                मॉडल संदर्भ प्रोटोकॉल एक नया प्रोटोकॉल है जिसे एंथ्रोपिक द्वारा पेश किया गया है, जो एआई एजेंटों को सक्रिय कार्यों को करने की अनुमति देने की समस्या को हल करता है और बाहरी पहुंच को सुरक्षित करने के लिए सबसे बड़ा सक्षमकर्ता के रूप में कार्य करता है।


                अगले उदाहरण में, हम एक एमसीपी सर्वर को दिखाते हैं जो मनुष्यों को लॉक में लाकर पहुंच अनुरोध प्रवाहों को प्रबंधित करने का तरीका जानता है और अनुमतिओं के लिए अनुरोध करने के लिए Permit.io के एपीआई का उपयोग करता है।


                You can see the full code example for the MCP access request server here: https://github.com/permitio/permit-mcp

                https://github.com/permitio/permit-mcp


                @mcp.tool() async def request_access(username: str, resource_name: str) -> dict: "" सिस्टम में एक विशिष्ट संसाधन के लिए एक्सेस अनुरोध कॉल शुरू करें Args: उपयोगकर्ता का नाम: एक्सेस संसाधन का अनुरोध करने वाले व्यक्ति का उपयोगकर्ता नाम: उपयोगकर्ता का संसाधन प्रकार resource_name के लिए एक्सेस अनुरोध करता है: रेस्तरां का नाम "" के लिए एक्सेस अनुरोध करने के लिए "{" = await permit.elements.login_as({ "userId": slugify(username), "tenant: "default"} का उपयोगकर्ता नाम: "As_as_as_as_as_as_as_as_as_@mcp.tool()
                async def request_access(username: str, resource: str, resource_name: str) -> dict:
                  """
                  Initiate access request call to a specific resource in the system
                
                  Args:
                    username: The username of the person requesting access
                    resource: The resource type the user is request access for
                    resource_name: The name of the restaurant to request access for
                
                  """
                  
                  login = await permit.elements.login_as({ "userId": slugify(username), "tenant": "default"})
                  print(login)
                  
                  url = f"https://api.permit.io/v2/facts/{PROJECT_ID}/{ENV_ID}/access_requests/{ELEMENTS_CONFIG_ID}/user/{slugify(username)}/tenant/default"
                  payload = {
                      "access_request_details": {
                          "tenant": "default",
                          "resource": resource,
                          "resource_instance": resource_name['id'],
                          "role": "viewer",
                      },
                      "reason": f"User {username} requests role 'viewer' for {resource_name}"
                  }
                  headers = {
                      "authorization": "Bearer YOUR_API_SECRET_KEY",
                      "Content-Type": "application/json",
                  }
                  async with httpx.AsyncClient() as client:
                      await client.post(url, json=payload, headers=headers)
                      return "Your request has been sent. Please check back later."
                

                4. एआई प्रतिक्रियाओं की पुष्टि करें –

                4: एआई प्रतिक्रियाओं को सत्यापित करें –

                अंतिम परिधि एआई उत्पन्न प्रतिक्रियाओं पर सामग्री के मध्यस्थता और अनुपालन को लागू करती है. यह एक कार्य प्रवाह बनाकर किया जा सकता है जो एआई आउटपुट वितरित करने से पहले नीति-आधारित फ़िल्टरिंग लागू करता है:


                • एजेंट एप्लिकेशन में एक अनुमति चेक जोड़ा जा सकता है, जो उपयोगकर्ता को वास्तव में एक जवाब मिलने से पहले श्रृंखला के प्रत्येक चरण में नीति लागू करने की अनुमति देता है।
                • आधारित डेटा सत्यापन और अधिकृतता कार्यप्रवाह यह सुनिश्चित करते हैं कि केवल सत्यापित और अनुमति दिए गए डेटा आगे बढ़ सकते हैं.
                • आधारित सीमाओं के आधार पर संपादित किया जा सकता है, जिससे डेटा का मास्क या उपयोग की सीमाओं के बारे में उपयोगकर्ता को सूचित किया जा सकता है।एजेंट अनुप्रयोग में एक अनुमति चेक जोड़ा जा सकता है, जो उपयोगकर्ता को वास्तव में प्रतिक्रिया प्राप्त करने से पहले श्रृंखला के प्रत्येक चरण में नीति लागू करने की अनुमति देता है।
                • आधारित डेटा सत्यापन और प्राधिकरण कार्यप्रणाली का संयोजन यह सुनिश्चित करता है कि केवल सत्यापित और अनुमति दिए गए डेटा आगे बढ़ सकते हैं।
                • उपचार जो उपयोगकर्ताओं को वापस आता है, इसे पूर्व-निर्धारित सीमाओं के आधार पर संपादित किया जा सकता है, जिससे डेटा को मास्क करने या उपयोग की सीमाओं के बारे में उपयोगकर्ता को सूचित करने की अनुमति मिलती है।



                  Langflow के साथ प्रतिक्रिया फ़िल्टरिंग

                  Langflow के साथ प्रतिक्रिया फ़िल्टरिंग

                  In the following example, we use Langflow, a visual no-code AI applications editor, to create a permissions check component that’s positioned before any chat response to the user. Using LangFlow's friendly flow modeling capabilities, you can easily append another component that masks unwanted details in returned responses. This repository contains all the access control components required for secured Langflow applications.

                  This repository


                  संपादित करें

                  आईआई सिस्टम उद्योगों के भीतर अनुप्रयोगों में तेजी से एकीकृत हो रहे हैं, लेकिन पारंपरिक सॉफ़्टवेयर की तुलना में उनकी सुरक्षा ढांचे अभी भी कम विकसित हैं।


                  हैट-पेरिमेटर फ्रेमवर्क हर चरण में एआई कार्य प्रवाहों को सुरक्षित करने के लिए एक संरचित तरीका प्रदान करता है - प्रमोटर की सत्यापन से और रिकॉर्डिंग-आउट जनरेटिंग (आरएजी) डेटा की रक्षा से, एआई-आधारित बाहरी कार्यों को नियंत्रित करने और प्रतिक्रिया अनुपालन को लागू करने तक।


                  Instead of building access control from scratch, Permit.io’s AI Access Control integrations with PydanticAI, LangChain, MCP, and LangFlow allow teams to embed security directly into their AI applications—without disrupting development workflows. Try it yourself here.

                  Try it yourself here


                  जो कहा गया है, यह क्षेत्र अभी भी अपेक्षाकृत नया है, और आईआई एजेंटों को सुरक्षित करने के लिए सर्वोत्तम प्रथाएं अभी भी विकसित होती हैं. Four-Perimeter Framework एक प्रयोगशाला दृष्टिकोण है, और हालांकि यह एक मजबूत नींव प्रदान करता है, मैं मानता हूं कि वास्तविक दुनिया में तैनाती हमेशा आगे की परिष्करण और अनुकूलन की आवश्यकता होती है।


                  I’d love to hear your feedback, thoughts, and ideas on how to improve this framework to make it even better for production-ready AI systems - comment here, or hit me up in our Slack community.

                  Slack community

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks