-Daniel Bass
ການປັບປຸງຜົນປະໂຫຍດຂອງການນໍາໃຊ້ໂດຍໃຊ້ການນໍາໃຊ້ຜູ້ຊ່ຽວຊານ AI ແມ່ນຖືກນໍາໃຊ້ຢ່າງກວ້າງຂວາງ - ເຊັ່ນດຽວກັນກັບ hype ອຸດສາຫະກໍາຢ່າງກວ້າງຂວາງຫຼືກໍລະນີການນໍາໃຊ້ທີ່ຖືກນໍາໃຊ້ຢ່າງງ່າຍດາຍ. ບໍ່ວ່າຈະ, ມັນຊ່ວຍໃຫ້ອັດຕະໂນມັດ workflows ແລະປັບປຸງປະສົບການຜູ້ໃຊ້ໃນອຸດສາຫະກໍາຕ່າງໆ.
ພວກເຮົາ ກໍາ ລັງເຮັດທຸລະກິດໃນ 2012. ພວກເຮົາແມ່ນບໍລິສັດທີ່ໃຫຍ່ທີ່ສຸດ ສໍາ ລັບຜູ້ໃຫ້ບໍລິການລູກຄ້າຂອງພວກເຮົາ. ພວກເຮົາແມ່ນບໍລິສັດທີ່ໃຫຍ່ທີ່ສຸດ ສໍາ ລັບຜູ້ໃຫ້ບໍລິການລູກຄ້າຂອງພວກເຮົາ.ສະຫນັບສະຫນູນ AI ສະຫນັບສະຫນູນຄວາມຮູ້ສຶກອົບຮົມຄວາມຮູ້ສຶກອົບຮົມແລະຫຼາຍກ່ວາຜູ້ຊ່ຽວຊານ AI ຖືກ compromised ໂດຍການປິ່ນປົວຄວາມປອດໄພຂອງ injectionປະເພດ
ການປົກປັກຮັກສາອຸປະກອນ AI ໃນຂະນະທີ່ນີ້ເປັນສິ່ງທີ່ສໍາຄັນເປັນຄຸນນະສົມບັດຂອງອຸປະກອນ AI ຂອງຕົນເອງ - ຖ້າຫາກວ່າບໍ່ແມ່ນຫຼາຍ.
ສໍາລັບການປິ່ນປົວບັນຫານີ້, ພວກເຮົາມີການອັບໂຫລດພວກເຮົາມີຄວາມຊ່ຽວຊານໃນການປັບປຸງຄວາມປອດໄພທີ່ຖືກສ້າງຕັ້ງຂຶ້ນໃນໄລຍະເວລາທີ່ຂ້າພະເຈົ້າຫວັງວ່າຈະສະເຫນີໃຫ້ທ່ານໃນມື້ນີ້:
The Four-Perimeter Frameworkປະເພດ
ລະບົບ Four-Perimeter
ວິທີການນີ້ສະຫນອງເຫມາະສົມສໍາລັບການປົກປັກຮັກສາ agents AI ໂດຍ implementingການຄວບຄຸມການເຂົ້າເຖິງ Fine Grainຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ, ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ
ຄວາມປອດໄພຂອງ AI ໃນ Domains Sensitive
ລະບົບການຄວບຄຸມຄວາມປອດໄພແລະການຄວບຄຸມຄວາມປອດໄພຂອງອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນອຸປະກອນການຄວບຄຸມການເຂົ້າເຖິງ Role Based (RBAC)ພວກເຮົາ ກໍາ ລັງ ຊອກ ຫາ ຄູ່ ຮ່ວມ ງານ ຂອງ ຊີ ວິດ, buddy ສໍາ ລັບ ສັດ ລ້ຽງ ຫຼື ພຽງ ແຕ່ ຜູ້ ໃດ ຜູ້ ຫນຶ່ງ ຂອງ ທ່ານ ທີ່ ຈະ ວາງ ສາຍ ອອກ ກັບ, ທີ່ ນີ້ ທ່ານ ຈະ ສາ ມາດ ຊອກ ຫາ ໄດ້ ຜູ້ ທີ່ ທ່ານ ກໍາ ລັງ ຊອກ ຫາ ຄູ່ ຮ່ວມ ງານ ຂອງ ຊີ ວິດ.
ວິທີການລະບົບການເຂົ້າເຖິງຂໍ້ມູນຂອງ AI ຍັງບໍ່ເຂົ້າໃຈກັບມາດຕະຖານຄວາມປອດໄພ. ເພື່ອສະຫນອງການຕອບສະຫນັບສະຫນູນທີ່ຖືກຕ້ອງແລະມີປະສິດທິພາບ, ສະຫນັບສະຫນູນ AI ຕ້ອງການເຂົ້າເຖິງການເຂົ້າເຖິງຢ່າງກວ້າງຂວາງກັບອຸປະກອນຕ່າງໆຂອງຂໍ້ມູນແລະພື້ນຖານຄວາມຮູ້. Classic RBAC ມີຄວາມເຂັ້ມແຂງຫຼາຍສໍາລັບຄວາມຕ້ອງການນີ້ - ທ່ານບໍ່ສາມາດພຽງແຕ່ສະຫນັບສະຫນູນໃບອະນຸຍາດສະພາບແວດລ້ອມໃນເວລາທີ່ຄວາມຕ້ອງການຂໍ້ມູນທີ່ແຕກຕ່າງກັນໂດຍທົ່ວໄປ.ປະເພດ Atributeການປິ່ນປົວທີ່ສາມາດເຮັດການຄຸ້ມຄອງການເຂົ້າເຖິງ dynamic.
ການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວຂອງການປິ່ນປົວ.
ການປິ່ນປົວແມ່ນໃນປະເພດຂອງໂຄງສ້າງຄວາມປອດໄພຢ່າງກວ້າງຂວາງທີ່ສ້າງຕັ້ງຂຶ້ນໃນໄລຍະ 4 perimeters ທີ່ສໍາຄັນ -
ການແກ້ໄຂ: ລະບົບ Four-Perimeter
ໃນຂະນະທີ່ອຸປະກອນການທົດສອບຄວາມປອດໄພ (AI) ທີ່ແຕກຕ່າງກັນຈາກຄອມພິວເຕີປົກກະຕິໃນວິທີການປິ່ນປົວ input, retrieve data, execute actions, and generate outputs, ພວກເຮົາມີຄວາມປອດໄພທີ່ແຕກຕ່າງກັນ. ເພື່ອປິ່ນປົວຄວາມປອດໄພທີ່ແຕກຕ່າງກັນ, ພວກເຮົາມີຄວາມປອດໄພທີ່ແຕກຕ່າງກັນທີ່ນໍາໃຊ້ການຄວບຄຸມການເຂົ້າເຖິງໃນທຸກລະດັບຂອງຄວາມປອດໄພຂອງ AI.
ການFour-Perimeter Frameworkມັນຖືກອອກແບບມາເພື່ອສະຫນັບສະຫນູນຄວາມຮູ້ສຶກ identity,ການຢັ້ງຢືນທີ່ດີເລີດໃນໄລຍະປະເພດ lifecycle AIມັນໄດ້ນໍາສະເຫນີແຜ່ນຄວາມປອດໄພທີ່ຄວບຄຸມສິ່ງທີ່ມາດຕະຖານ AI ຂອງຂໍ້ມູນສາມາດເຂົ້າເຖິງ, ການປະຕິບັດທີ່ພວກເຂົາເຈົ້າສາມາດເຮັດ, ແລະວິທີການທີ່ຕອບສະຫນັບສະຫນູນຂອງພວກເຂົາແມ່ນ validated.
ລະບົບການປະກອບດ້ວຍ 4 ສ່ວນ:
- ພາສາລາວ
- ການກັ່ນຕອງ Prompt - ການຮັບປະກັນພຽງແຕ່ການເຂົ້າເຖິງທີ່ຮັບປະກັນ, ການເຂົ້າເຖິງທີ່ປອດໄພກັບມາດຕະຖານ AI. ພາສາລາວ
- RAG Data Protection – ການຄວບຄຸມການເຂົ້າເຖິງ AI ກັບລະບົບຄວາມຮູ້ອື່ນໆ. ພາສາລາວ
- Secure Access External – Defining AI Agent permissions ໃນເວລາທີ່ຕິດຕໍ່ກັບອຸປະກອນອື່ນໆ. ພາສາລາວ
- ການນໍາໃຊ້ການຄວບຄຸມຄວາມປອດໄພແລະ filtrating outputs generated ໂດຍ AI. ພາສາລາວ
ການນໍາໃຊ້fine-grained access control (FGA)ວິທະຍາໄລໃນໄລຍະ perimeter ນີ້, ສະຫນັບສະຫນູນ AIsecure, auditable, and compliant—ໂດຍບໍ່ເສຍຄ່າຄວາມປອດໄພແລະ functionality ຂອງຕົນ.
ຫນ້າທໍາອິດ / FGA Comes In
ວິທີການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນເຊັ່ນ RBAC ແມ່ນບໍ່ສາມາດປິ່ນປົວຜົນປະໂຫຍດທີ່ກ່ຽວຂ້ອງກັບສະພາບແວດລ້ອມທີ່ແຕກຕ່າງກັນຂອງ AI. ນີ້ແມ່ນສະຖານທີ່ທີ່ທີ່ອະນຸຍາດທີ່ແຕກຕ່າງກັນ (Fine-grained authorization, FGA) ມີຜົນປະໂຫຍດ, ລວມທັງການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນ (ABAC) ແລະການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນ (ReBAC):
- ພາສາລາວ
- ABAC for Prompt Filtering AI models process unstructured inputs, ເຮັດໃຫ້ມັນງ່າຍທີ່ຈະນໍາໃຊ້ຄໍາແນະນໍາຄວາມປອດໄພປົກກະຕິ. ABAC solves this by extracting structured attributes from AI prompts and using them in policy-based access decisions. ພາສາລາວ
- ພາສາລາວ
- ReBAC for RAG Data Protection Retrieval-Augmented Generation (RAG) ອະນຸຍາດໃຫ້ມາດຕະຖານ AI ເພື່ອຊອກຫາຂໍ້ມູນຈາກຄອມພິວເຕີ vector. ReBAC ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນ ພາສາລາວ
ໂດຍການເຊື່ອມຕໍ່ ABAC ແລະ ReBAC, ການນໍາໃຊ້ AI ໄດ້ຮັບການຄວບຄຸມການເຂົ້າເຖິງທີ່ເຫມາະສົມ, ການຄວບຄຸມສະພາບແວດລ້ອມທີ່ຄົ້ນຄວ້າສະພາບແວດລ້ອມທີ່ອັບໂຫລດກັບລະດັບການເຮັດວຽກ AI ທີ່ແຕກຕ່າງກັນໂດຍບໍ່ຈໍາເປັນຕ້ອງ intervention manually.
ວິທີການນໍາໃຊ້ Step-by-Step ເປັນຫຍັງ?
ຂໍຂອບໃຈວ່າທ່ານກໍາລັງຊອກຫາຂໍ້ມູນເພີ່ມເຕີມກ່ຽວກັບການນໍາໃຊ້Four-Perimeter Framework in action. ເງື່ອນໄຂນີ້ຈະຊ່ວຍໃຫ້ agent AI ໂດຍvalidating prompts, enforcing data protection, restricting external access, and moderating responsesອັດຕະໂນມັດການອັບໂຫລດ AI Access Controlການເຊື່ອມຕໍ່ໃນແຕ່ລະເລີ່ມຕົ້ນ
ການອັບໂຫລດ1. Implement Prompt Filtering
ພວກເຮົາສາມາດນໍາໃຊ້ການປິ່ນປົວການເຂົ້າລະຫັດທີ່ຖືກສ້າງຕັ້ງຂຶ້ນແລະປະຕິບັດການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າລະຫັດໂດຍບໍ່ມີການເຂົ້າເຖິງ:
- ພາສາລາວ
- ການຄວບຄຸມໃບອະນຸຍາດແມ່ນເຂົ້າໄປໃນ pipe validation prompt, ການປ້ອງກັນຂໍ້ມູນທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດຈາກຜົນປະໂຫຍດຂອງ outputs AI. ພາສາລາວ
- Role, attribute, ແລະການຄວບຄຸມການເຂົ້າເຖິງທີ່ແຕກຕ່າງກັນແມ່ນປະຕິບັດ, ການຮັບປະກັນພຽງແຕ່ parameters approved ຂ້າງຂວາງກັບ AI. ພາສາລາວ
- ການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວການປິ່ນປົວ ພາສາລາວ
ນີ້ແມ່ນ 3 ວິທີການເພື່ອ filtrate prompts - ຈາກທີ່ງ່າຍທີ່ສຸດກັບທີ່ດີທີ່ສຸດ:
- ພາສາລາວ
- ການຢັ້ງຢືນ Token - ວິທີການປະສິດທິພາບສໍາລັບການຢັ້ງຢືນງ່າຍດາຍເຊັ່ນດຽວກັນກັບຄວາມຍາວຂອງການຢັ້ງຢືນຫຼືການຢັ້ງຢືນທົ່ວໄປຂອງການນໍາໃຊ້ input ໃນລະບົບ. Permission check functions in this method examine the structured attributes of textual prompts. ພາສາລາວ
- ການຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢືນຢັ້ງຢືນຢືນຢືນຢັ້ງຢືນຢືນຢັ້ງຢືນຢືນຢືນຢັ້ງຢືນຢືນຢືນຢ ພາສາລາວ
- AI Classification - ວິທີການທີ່ດີທີ່ສຸດໃນລາຍລະອຽດນີ້, AI Classification ໃຊ້ AI ເພື່ອທົດສອບການທົດສອບໂດຍໃຊ້ການທົດສອບລະບົບ dedicated, ປະເພດໃຫ້ມັນເປັນການເຂົ້າເຖິງທີ່ສາມາດໄດ້ຮັບການທົດສອບຢ່າງກວ້າງຂວາງໃນການທົດສອບຄວາມສາມາດ. ພາສາລາວ
Prompt Filtering with PydanticAI
ການນໍາໃຊ້ເຄື່ອງມື PydanticAI ສໍາລັບການກັ່ນຕອງການເຂົ້າລະຫັດຂອງຜູ້ໃຊ້ກັບຜູ້ຊ່ຽວຊານຂອງ AI. PydanticAI ເປັນ framework ຜູ້ຊ່ຽວຊານທີ່ນໍາໃຊ້ຊອບແວ Pydantic ທີ່ມີຊື່ສຽງຂອງ Python ແລະຄຸນນະສົມບັດການເຂົ້າລະຫັດສະດວກຂອງຕົນແລະປ່ຽນແປງມັນເປັນ framework AI structured ທີ່ປິ່ນປົວຂໍ້ມູນທີ່ບໍ່ຖືກສ້າງຕັ້ງ.
repository GitHub ຕໍ່ໄປປະກອບມີການນໍາໃຊ້ທັງຫມົດຂອງ framework ສໍາລັບ PydanticAI:ຊື່ຫຍໍ້ຂອງ : Github
@financial_agent.tool
async def validate_financial_query(
ctx: RunContext[PermitDeps],
query: FinancialQuery,
) -> bool:
"""Key checks:
- User has explicitly opted in to AI financial advice
- Consent is properly recorded and verified
- Classifies if the prompt is requesting advice
Args:
ctx: Context containing Permit client and user ID
query: The financial query to validate
Returns:
bool: True if user has consented to AI advice, False otherwise
"""
try:
# Classify if the prompt is requesting advice
is_seeking_advice = classify_prompt_for_advice(query.question)
permitted = await ctx.deps.permit.check(
# The user object with their attributes
{
"key": ctx.deps.user_id,
},
# The action being performed
"receive",
# The resource being accessed
{
"type": "financial_advice",
"attributes": {"is_ai_generated": is_seeking_advice},
},
)
if not permitted:
if is_seeking_advice:
return "User has not opted in to receive AI-generated financial advice"
else:
return "User does not have permission to access this information"
return True
except PermitApiError as e:
raise SecurityError(f"Permission check failed: {str(e)}")
2. Enforce Data Protection –
ຫຼັງຈາກນັ້ນ, ພວກເຮົາຮັບປະກັນretrieval-augmented generation (RAG)ຄໍາຮ້ອງສະຫມັກໂດຍຮັບປະກັນແບບ AI ສາມາດເຂົ້າເຖິງພຽງແຕ່authorized knowledge sources. ນີ້ສາມາດໄດ້ຮັບໂດຍຜ່ານການກັ່ນຕອງຂະຫນາດນ້ອຍຂອງຂໍ້ມູນຂອງອຸປະກອນ AI ສໍາ ລັບຜູ້ໃຊ້ໃນລະດັບການເຮັດວຽກຂອງ AI:
- ພາສາລາວ
- ການຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງຄຸ້ມຄອງ ພາສາລາວ
- ສະຫນັບສະຫນູນຂອງ Vector ແລະ Graph ທີ່ເຊື່ອມຕໍ່ກັບອຸປະກອນ AI ມີ metadata ທີ່ສາມາດຊ່ວຍໃຫ້ເຄື່ອງປິ່ນປົວການຊອກຫາທີ່ບໍ່ຖືກສ້າງຕັ້ງ, ການກັ່ນຕອງມັນເພື່ອໃຫ້ມີພຽງແຕ່ຂໍ້ມູນທີ່ສາມາດເຂົ້າເຖິງ. ພາສາລາວ
- ໃນເວລາທີ່ອຸປະກອນຊອກຫາຂໍ້ມູນຈາກຄອມພິວເຕີ RAG, ມັນ filtrates ຜົນປະໂຫຍດໂດຍໃບອະນຸຍາດຂອງຜູ້ໃຊ້. ພາສາລາວ
ໃນເວລາທີ່ອຸປະກອນການປະຕິບັດການ filtration RAG, ມັນນໍາໃຊ້ຫນຶ່ງໃນວິທີທີ່ນີ້:
- ພາສາລາວ
- FilterObjects – ໃນປະເພດນີ້, ການນໍາໃຊ້ graph ໄດ້ຊອກຫາທັງຫມົດຂອງຂໍ້ມູນທີ່ກ່ຽວຂ້ອງຈາກ RAG ແລະຫຼັງຈາກນັ້ນ filtrates ມັນ per user permissions. ເງື່ອນໄຂຂອງການເຮັດວຽກນີ້ແມ່ນວ່າມັນເຮັດໃຫ້ເຄື່ອງຄຸ້ມຄອງຄຸ້ມຄອງບໍ່ມີສະຖານທີ່ແລະບໍ່ຮູ້ກ່ຽວກັບຂໍ້ມູນ RAG. ພາສາລາວ
- GetUserPermissions - ໃນວິທີນີ້, ພະນັກງານສະຫນອງ RAG ກັບການຊອກຫາທີ່ບໍ່ແມ່ນສະແຕນເລດ. RAG ຫຼັງຈາກນັ້ນໂທໂທ Function GetUserPermissions, ສະແຕນເລດການຊອກຫາ filter ກັບການຊອກຫາທີ່ບໍ່ແມ່ນສະແຕນເລດ RAG. ນີ້ອະນຸຍາດໃຫ້ການຊອກຫາທີ່ຈະໄດ້ຮັບການກັ່ນຕອງໃຫ້ພຽງແຕ່ຜູ້ໃຊ້ສາມາດເຂົ້າເຖິງ. ພາສາລາວ
RAG Data Protection with Langchain
Langchain, framework appliance AI ທີ່ມີຊື່ສຽງ, ແມ່ນຮູ້ຈັກ (ຍັງ) ສໍາລັບ components retriever ຂອງຕົນທີ່ສະຫນອງສະຫນັບສະຫນູນທີ່ດີທີ່ສຸດໃນ retrievers custom ທີ່ສາມາດໄດ້ຮັບການຕິດຕັ້ງກັບປະເພດໃດໆຂອງອຸປະກອນຂໍ້ມູນ, ເຮັດໃຫ້ການປະຕິບັດຂອງ RAG ຄວາມປອດໄພຢ່າງງ່າຍດາຍ.SelfQueryRetriever
, ທ່ານສາມາດຫຸ້ມຫໍ່ RAG ອັດຕະໂນມັດກັບ aGetUserPermissions
ນີ້ແມ່ນຕົວຢ່າງຂອງ PermitSelfQueryRetriever ທີ່ໃຫ້ຜູ້ໃຊ້, ການປະຕິບັດ, ແລະປະເພດຂອງສະພາບແວດລ້ອມ RAG ເພື່ອກັ່ນຕອງບັນຫາສໍາລັບ LLM:
# 1. Build a small in-memory vector store
embeddings = OpenAIEmbeddings()
vectorstore = FAISS.from_documents(docs, embedding=embeddings)
# 2. Initialize the PermitSelfQueryRetriever
retriever = PermitSelfQueryRetriever(
api_key=os.getenv("PERMIT_API_KEY", ""),
pdp_url=os.getenv("PERMIT_PDP_URL"),
user=USER,
resource_type=RESOURCE_TYPE,
action=ACTION,
llm=embeddings,
vectorstore=vectorstore,
enable_limit=False,
)
ການເກັບຮັກສາທີ່ຜ່ານມາປະກອບມີການປະຕິບັດທັງຫມົດຂອງ framework ສໍາລັບ Langchain:https://github.com/permitio/langchain-permit
3. Secure External Access –
ສະຫນັບສະຫນູນ AI ຂອງພວກເຮົາແມ່ນການເຊື່ອມຕໍ່ກັບ APIs, ການບໍລິການແລະເຄື່ອງມືອັດຕະໂນມັດອື່ນໆ. ໂດຍບໍ່ມີການຄວບຄຸມການເຂົ້າເຖິງທີ່ເຫມາະສົມ, ພວກເຮົາມີຄວາມປອດໄພທີ່ຈະເຮັດວຽກທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ. ດັ່ງນັ້ນ, ພວກເຮົາມີຄວາມຕ້ອງການທີ່ຈະຮັບປະກັນວ່າການເຮັດວຽກທີ່ອະນຸຍາດໂດຍ AI ແມ່ນປົກກະຕິໂດຍລວມທັງຄໍາຮ້ອງສະຫມັກຄອມພິວເຕີ. ນີ້ແມ່ນວິທີທີ່ທ່ານສາມາດເຮັດໄດ້:
- ພາສາລາວ
- ການນໍາໃຊ້ມາດຕະຖານເຊັ່ນ MCP, ທີ່ຄັດເລືອກຕົວແບບ Server-Client ທີ່ຜູ້ຊ່ຽວຊານໃນການຮ່ວມມືກັບການບໍລິການອື່ນໆ, ແມ່ນການເລີ່ມຕົ້ນທີ່ດີທີ່ສຸດໃນການຊ່ວຍເຫຼືອຄວາມປອດໄພສໍາລັບການເຂົ້າເຖິງອຸດສາຫະກໍາອິນເຕີເນັດ (ລັກສະນະ, database, APIs, system of payment). ພາສາລາວ
- ການອຸປະກອນການປະຕິບັດຂອງ AI ສາມາດນໍາໃຊ້ບໍລິການເຊັ່ນ Permit.io ເພື່ອເຮັດການຄວບຄຸມອະນຸຍາດໃນລະດັບການປະຕິບັດ, ການຄວບຄຸມຜູ້ຊອກຫາຄວາມຕ້ອງການແລະສິ່ງທີ່ພວກເຮົາມີຄວາມຕ້ອງການ. ພາສາລາວ
- ຜະລິດຕະພັນສາມາດເຂົ້າລະຫັດຄອມພິວເຕີຂອງເຄື່ອງກັບຜູ້ຊ່ຽວຊານຂອງ AI, limiting their capabilities to pre-approved functions only. ພາສາລາວ
ໃນຂະນະທີ່ GPTs ແລະ interfaces natural language ບໍ່ແມ່ນໃຫມ່, ເພື່ອໃຫ້ພວກເຂົາເຮັດວຽກສໍາລັບຜູ້ໃຊ້ແມ່ນຄວາມຊ່ຽວຊານທີ່ດີທີ່ສຸດຂອງວິສະວະກອນຫຼາຍ. ພວກເຮົາສາມາດຊອກຫາສາມລະດັບທີ່ແຕກຕ່າງກັນຂອງການຄວບຄຸມການເຂົ້າເຖິງທີ່ສໍາຄັນເພື່ອຮັບປະກັນນີ້:
- ພາສາລາວ
- ການປັບປຸງຄວາມປອດໄພຂອງການເຂົ້າເຖິງໄດ້ຢ່າງງ່າຍດາຍ - ປະສິດທິພາບທີ່ງ່າຍທີ່ສຸດ. ຜູ້ໃຊ້ມະນຸດຊອກຫາຜູ້ຊ່ຽວຊານຂອງ AI ເພື່ອປະຕິບັດການ, ເຊັ່ນ: ການໂທ HTTP. ຜູ້ຊ່ຽວຊານຂອງ AI ມີຄວາມສາມາດໃນການກວດສອບວ່າການເຮັດວຽກແມ່ນອະນຸຍາດ, ໃນຂະນະທີ່ຜູ້ຊ່ຽວຊານໃນປັດຈຸບັນແລະຜູ້ຊ່ຽວຊານ. ພາສາລາວ
- ການສົນທະນາ agent-to-agent - ໃນລະດັບຕໍ່ໄປນີ້, ພວກເຮົາມີຄວາມຕ້ອງການຂອງການຂົນສົ່ງລະດັບຂອງ identities ແລະອະນຸຍາດທີ່ອະນຸຍາດໃຫ້ຜູ້ຊ່ຽວຊານທີ່ຈະເຮັດວຽກຂອງພວກເຂົາເຈົ້າໂດຍທົ່ວໄປໃນຖານະເປັນພື້ນຖານຂອງອະນຸຍາດຂະຫນາດນ້ອຍ. ໃນລະດັບນີ້, ພວກເຮົາມີຄວາມຕ້ອງການທີ່ຈະນໍາໃຊ້ຄວາມກ່ຽວຂ້ອງລະຫວ່າງ identities - human ແລະ non-human - ເພື່ອປົນສົ່ງລະດັບທີ່ແຕກຕ່າງກັນຂອງອະນຸຍາດ. ພາສາລາວ
- ອັດຕະໂນມັດອຸປະກອນການຝຶກອົບຮົມການຝຶກອົບຮົມການຝຶກອົບຮົມການຝຶກອົບຮົມ ພາສາລາວ
MCP, Human-in-the-Loop, and External Access
Model Context Protocol ເປັນໂປຼລິກໃຫມ່ທີ່ນໍາສະເຫນີໂດຍ Anthropic, ເຊິ່ງແກ້ໄຂບັນຫາຂອງການຊ່ວຍໃຫ້ຜູ້ຊ່ຽວຊານ AI ເຮັດວຽກ proactive ແລະບໍລິການເປັນປະໂຫຍດທີ່ດີທີ່ສຸດສໍາລັບການປະກັນການເຂົ້າເຖິງພາຍໃນ.
ໃນຕົວຢ່າງທີ່ຜ່ານມາ, ພວກເຮົາສະແດງໃຫ້ເຫັນຜູ້ບໍລິໂພກ MCP ທີ່ຮູ້ວິທີການຄວບຄຸມການປິ່ນປົວຄວາມຕ້ອງການການເຂົ້າເຖິງໂດຍ bringing human into the loop and uses Permit.io’s APIs to ask for permissions.
ທ່ານສາມາດເບິ່ງຕົວຢ່າງລະຫັດທັງຫມົດສໍາລັບ MCP Access Request Server ທີ່ນີ້:https://github.com/permitio/permit-mcp
@mcp.tool()
async def request_access(username: str, resource: str, resource_name: str) -> dict:
"""
Initiate access request call to a specific resource in the system
Args:
username: The username of the person requesting access
resource: The resource type the user is request access for
resource_name: The name of the restaurant to request access for
"""
login = await permit.elements.login_as({ "userId": slugify(username), "tenant": "default"})
print(login)
url = f"https://api.permit.io/v2/facts/{PROJECT_ID}/{ENV_ID}/access_requests/{ELEMENTS_CONFIG_ID}/user/{slugify(username)}/tenant/default"
payload = {
"access_request_details": {
"tenant": "default",
"resource": resource,
"resource_instance": resource_name['id'],
"role": "viewer",
},
"reason": f"User {username} requests role 'viewer' for {resource_name}"
}
headers = {
"authorization": "Bearer YOUR_API_SECRET_KEY",
"Content-Type": "application/json",
}
async with httpx.AsyncClient() as client:
await client.post(url, json=payload, headers=headers)
return "Your request has been sent. Please check back later."
4. Validate AI Responses –
ການນໍາໃຊ້ Perimeter Ultimate ເຮັດໃຫ້ຄວາມປອດໄພແລະຄວາມປອດໄພກ່ຽວກັບການຕອບສະຫນັບສະຫນູນທີ່ຜະລິດໂດຍ AI. ນີ້ສາມາດເຮັດໄດ້ໂດຍການສ້າງການເຮັດວຽກທີ່ນໍາໃຊ້ການຕອບສະຫນັບສະຫນູນທີ່ກ່ຽວຂ້ອງກັບຄໍາຮ້ອງສະຫມັກທີ່ກ່ຽວຂ້ອງກັບຄໍາຮ້ອງສະຫມັກທີ່ກ່ຽວຂ້ອງກັບຄໍາຮ້ອງສະຫມັກ:
- ພາສາລາວ
- ການຄວບຄຸມອະນຸຍາດສາມາດໄດ້ຮັບການເພີ່ມຂຶ້ນໃນຄໍາຮ້ອງສະຫມັກຜູ້ຊ່ຽວຊານ, ເຮັດໃຫ້ການປະຕິບັດການຄຸ້ມຄອງຄໍາຮ້ອງສະຫມັກໃນແຕ່ລະເລີ່ມຕົ້ນຂອງເສັ້ນທາງທີ່ຜ່ານມາທີ່ຜູ້ຊ່ຽວຊານສາມາດໄດ້ຮັບຄໍາຮ້ອງສະຫມັກ. ພາສາລາວ
- ລະບົບການເຮັດວຽກຂອງການຢັ້ງຢືນຂໍ້ມູນແລະການຢັ້ງຢືນອະນຸຍາດໄດ້ຖືກນໍາໃຊ້ຢ່າງກວ້າງຂວາງເພື່ອຮັບປະກັນວ່າພຽງແຕ່ຂໍ້ມູນທີ່ໄດ້ຮັບການຢັ້ງຢືນແລະໄດ້ຮັບການຢັ້ງຢືນອະນຸຍາດສາມາດຜ່ານມາ. ພາສາລາວ
- ການຕອບສະຫນັບສະຫນູນທີ່ຜ່ານມາໃຫ້ຜູ້ໃຊ້ສາມາດໄດ້ຮັບການປັບປຸງໂດຍຜ່ານການປົກກະຕິທີ່ຖືກຕ້ອງ, ດັ່ງນັ້ນມັນສາມາດເຮັດໃຫ້ການກັ່ນຕອງຂໍ້ມູນຫຼືໃຫ້ຂໍ້ມູນຜູ້ໃຊ້ກ່ຽວກັບການປົກກະຕິການນໍາໃຊ້. ພາສາລາວ
Response Filtering with Langflow
ໃນຕົວຢ່າງທີ່ຜ່ານມາ, ພວກເຮົາໄດ້ນໍາໃຊ້ Langflow, Editor Apps AI Visual No-Code, ເພື່ອສ້າງ component ການຄວບຄຸມອະນຸຍາດທີ່ຖືກຕິດຕັ້ງກ່ອນທີ່ການຕອບສະຫນອງການໂທລະສັບມືຖືຂອງຜູ້ໃຊ້. ໂດຍການນໍາໃຊ້ຄວາມສາມາດຂອງການປະມວນຜົນປະໂຫຍດສະດວກຂອງ LangFlow, ທ່ານສາມາດໄດ້ຢ່າງງ່າຍດາຍຕິດຕໍ່ component ອື່ນໆທີ່ກວດສອບລາຍລະອຽດທີ່ບໍ່ຕ້ອງການໃນການຕອບສະຫນອງ.ລະຫັດ QRມີສ່ວນປະກອບການຄວບຄຸມການເຂົ້າເຖິງທັງຫມົດທີ່ຕ້ອງການສໍາລັບການນໍາໃຊ້ Langflow ທີ່ປອດໄພ.
ພາສາລາວ
ລະບົບ AI ແມ່ນເຂົ້າລະຫັດຢ່າງໄວ້ວາງໃຈໃນອຸປະກອນລະຫວ່າງອຸດສາຫະກໍາ, ແຕ່ frameworks ຄວາມປອດໄພຂອງພວກເຂົາແມ່ນບໍ່ມີການພັດທະນາຢ່າງກວ້າງຂວາງ compared to traditional software. Without proper identity-aware access control, AI agents risk exposing sensitive data, executing unauthorized operations, and generating responses that fall outside compliance guidelines.
ລະບົບ Four-Perimeter ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນັບ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ ສະ ຫນູນ
ໃນຂະນະທີ່ການສ້າງການຄວບຄຸມການເຂົ້າເຖິງຈາກທົ່ວໄປ, Integrations AI Access Control ຂອງ Permit.io ກັບ PydanticAI, LangChain, MCP, ແລະ LangFlow ສະຫນັບສະຫນູນຜູ້ຊ່ຽວຊານໃນການເຊື່ອມຕໍ່ຄວາມປອດໄພໂດຍຜ່ານການນໍາໃຊ້ AI ຂອງເຂົາເຈົ້າໂດຍບໍ່ມີການປິ່ນປົວການເຮັດວຽກຂອງການພັດທະນາ.ການທົດສອບທ່ານເອງນີ້ປະເພດ
ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ, ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ, ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈຂອງຂ້າພະເຈົ້າ.
ຂ້າພະເຈົ້າສືບຕໍ່ໄດ້ຮັບການປະທັບໃຈສໍາລັບລູກຄ້າຂອງພວກເຮົາ - ຂ້າພະເຈົ້າຫວັງວ່າຈະໄດ້ເຮັດວຽກຮ່ວມກັບທ່ານອີກເທື່ອຫນຶ່ງ!ບໍລິສັດ Slackປະເພດ