-Daniel Bass
Η βελτίωση της απόδοσης των εφαρμογών μέσω της χρήσης των παραγόντων τεχνητής νοημοσύνης γίνεται πολύ συνηθισμένη πρακτική - είτε λόγω της εκστρατείας σε ολόκληρη τη βιομηχανία είτε πραγματικών χρήσιμων περιπτώσεων χρήσης.
Ωστόσο, αυτοί οι πράκτορες τεχνητής νοημοσύνης συχνά απαιτούν πρόσβαση σε ιδιαίτερα ευαίσθητα δεδομένα, εισάγοντας σημαντικούς κινδύνους ασφαλείας.Χωρίς τυποποιημένες λύσεις ελέγχου πρόσβασης, οι ομάδες ανάπτυξης συχνά δημιουργούν μέτρα ασφαλείας από το μηδέν - οδηγώντας σε περιπτώσεις όπουΟι βοηθοί AI αποκαλύπτουν ευαίσθητες πληροφορίες ασθενώνκαι αρκετοί πράκτορες AI που διακυβεύονται μέσωΣύντομες επιθέσεις με έγκαιρη ένεση. .
Η προστασία των παραγόντων της τεχνητής νοημοσύνης σε αυτό το πλαίσιο γίνεται εξίσου σημαντική με τις δυνατότητες των ίδιων των παραγόντων της τεχνητής νοημοσύνης - αν όχι περισσότερο.
Για την αντιμετώπιση αυτού του προβλήματος, στηνΕπιτρέψτε μουΕργάζομαι εδώ και αρκετό καιρό σε μια δομημένη προσέγγιση ασφάλειας που θέλω να σας παρουσιάσω σήμερα:
Το τετραπεριμετρικό πλαίσιο. .
Το τετραπεριμετρικό πλαίσιο
Αυτή η μέθοδος παρέχει μια ολοκληρωμένη στρατηγική για την προστασία των παραγόντων AI με την εφαρμογήΚαθαρός έλεγχος πρόσβασης, εξασφάλιση της συμμόρφωσης και μείωση των δυνητικών φορέων επίθεσης. Πριν προχωρήσω στην λύση, ας μιλήσουμε περισσότερο για τον χώρο του προβλήματος.
Το πρόβλημα: Κίνδυνοι ασφαλείας AI σε ευαίσθητους τομείς
Τα παραδοσιακά μέτρα ασφαλείας εφαρμογών και οι μηχανισμοί ελέγχου πρόσβασης λείπουν όταν πρόκειται για τη διαχείριση των παραγόντων τεχνητής νοημοσύνης.Ρόλος με βάση τον έλεγχο πρόσβασης (RBAC)Αντίθετα με τις παραδοσιακές εφαρμογές όπου οι εισροές χαρτογραφούν τις προβλέψιμες εξόδους και τα πρότυπα πρόσβασης είναι καλά καθορισμένα, η τεχνητή νοημοσύνη δημιουργεί μοναδικές απαντήσεις για κάθε ερώτημα.
Ο τρόπος με τον οποίο τα συστήματα AI έχουν πρόσβαση στα δεδομένα επίσης δεν ταιριάζει με τα πρότυπα ασφαλείας.Για να παρέχουν ακριβείς και χρήσιμες απαντήσεις, οι πράκτορες AI χρειάζονται ευρεία πρόσβαση σε διάφορες πηγές δεδομένων και βάσεις γνώσεων.Το κλασικό RBAC αποδεικνύεται πολύ άκαμπτο για αυτή την ανάγκη - δεν μπορείτε απλά να εκχωρήσετε στατικά δικαιώματα όταν οι απαιτήσεις δεδομένων αλλάζουν ανάλογα με το πλαίσιο.Με βάση τα χαρακτηριστικάΜια προσέγγιση που μπορεί να κάνει δυναμικές αποφάσεις πρόσβασης.
Μια άλλη ανησυχία είναι οι νέοι φορείς επίθεσης που εισάγουν τα συστήματα τεχνητής νοημοσύνης. τα συμβατικά μέτρα ασφαλείας δεν σχεδιάστηκαν για να χειριστούν επιθέσεις έγκαιρης ένεσης, προσπάθειες εξαγωγής μοντέλων ή επιθέσεις δηλητηρίασης δεδομένων.
Η λύση έρχεται με τη μορφή ενός ολοκληρωμένου πλαισίου ασφαλείας που χτίστηκε γύρω από τέσσερις βασικές περιμέτρους -
Η λύση: Το τετραπεριμετρικό πλαίσιο
Καθώς οι εφαρμογές τεχνητής νοημοσύνης διαφέρουν από το τυπικό λογισμικό στον τρόπο με τον οποίο επεξεργάζονται τις εισροές, ανακτούν δεδομένα, εκτελούν ενέργειες και δημιουργούν εξόδους, εισάγουν επίσης μοναδικούς κινδύνους ασφάλειας.Για να αντιμετωπίσουμε αυτές τις προκλήσεις, χρειαζόμαστε μια δομημένη προσέγγιση ασφάλειας που εφαρμόζει έλεγχο πρόσβασης σε κάθε στάδιο της αλληλεπίδρασης τεχνητής νοημοσύνης.
ΗFour-Perimeter Frameworkέχει σχεδιαστεί για να επιβάλλει την ταυτότητα-συνείδηση,Αδειοδότηση σε όλη τη διάρκεια του κύκλου ζωήςΕισάγει όρια ασφαλείας που διέπουν ποια μοντέλα AI δεδομένων μπορούν να έχουν πρόσβαση, ποιες λειτουργίες μπορούν να εκτελέσουν και πώς επικυρώνονται οι απαντήσεις τους.
Το πλαίσιο αποτελείται από τέσσερα μέρη:
- Πρόσκληση φιλτραρίσματος – εξασφαλίζοντας ότι μόνο επικυρωμένες, ασφαλείς εισροές φθάνουν στα μοντέλα AI.
- RAG Data Protection – έλεγχος της πρόσβασης της τεχνητής νοημοσύνης σε εξωτερικές πηγές γνώσης.
- Ασφαλής εξωτερική πρόσβαση – Ορισμός δικαιωμάτων του πράκτορα AI κατά την αλληλεπίδραση με εξωτερικά εργαλεία.
- Εφαρμογή ελέγχων συμμόρφωσης και φιλτράρισμα των τεχνητής νοημοσύνης που παράγονται.
Με την εφαρμογήfine-grained access control (FGA)Σε αυτές τις περιόδους, οι πράκτορες του AI παραμένουνsecure, auditable, and compliantχωρίς να θυσιάζουν την ευελιξία και τη λειτουργικότητά τους.
Πού μπαίνει η FGA;
Όπως αναφέρθηκε προηγουμένως, οι παραδοσιακές μέθοδοι ελέγχου πρόσβασης όπως το RBAC αποτυγχάνουν να χειριστούν τη δυναμική, εξαρτημένη από το πλαίσιο συμπεριφορά της τεχνητής νοημοσύνης.
- Τα μοντέλα AI επεξεργάζονται μη δομημένες εισροές, γεγονός που καθιστά δύσκολη την εφαρμογή παραδοσιακών κανόνων ασφαλείας.
- Το ReBAC για RAG Data Protection Retrieval-Augmented Generation (RAG) επιτρέπει στα μοντέλα AI να αντλούν πληροφορίες από βάσεις δεδομένων φορέων. Το ReBAC παρέχει έναν φυσικό τρόπο επιβολής της ασφάλειας σε αυτή τη ρύθμιση, καθορίζοντας σχέσεις μεταξύ χρηστών, πηγών δεδομένων και πράκτορες AI. Αντί να εκχωρούν στατικά δικαιώματα, το ReBAC χορηγεί ή αρνείται δυναμικά πρόσβαση με βάση τον τρόπο με τον οποίο τα αντικείμενα δεδομένων σχετίζονται μεταξύ τους – επιτρέποντας δικαιώματα ανάκτησης με γνώση του πλαισίου.
Με τον συνδυασμό των ABAC και ReBAC, οι εφαρμογές AI αποκτούν ευέλικτους μηχανισμούς ελέγχου πρόσβασης που βασίζονται σε πολιτικές και προσαρμόζονται σε διαφορετικές ροές εργασίας AI χωρίς να απαιτείται χειροκίνητη παρέμβαση.
Τι είναι μια εφαρμογή βήμα προς βήμα;
Ας περάσουμε από μια πρακτική εφαρμογή για να δούμε τηνFour-Perimeter Framework in actionΑυτό το παράδειγμα εξασφαλίζει έναν πράκτορα AI απόvalidating prompts, enforcing data protection, restricting external access, and moderating responses—leveraging Επιτρέψτε μου AI Access ControlΕνσωμάτωση σε κάθε βήμα.
Επιτρέψτε μου1. Implement Prompt Filtering
Η πρώτη περίμετρος ασφαλείας επικεντρώνεται στην επικύρωση και την εξυγίανση των εισροών AI πριν φτάσουν στο μοντέλο.
- Οι έλεγχοι εξουσιοδότησης ενσωματώνονται στον αγωγό άμεσης επικύρωσης, αποτρέποντας τα μη εξουσιοδοτημένα δεδομένα από την επίδραση στις εξόδους AI.
- Ο ρόλος, το χαρακτηριστικό και ο έλεγχος πρόσβασης με βάση τη σχέση επιβάλλονται, εξασφαλίζοντας ότι μόνο οι εγκεκριμένες παραμέτρους περνούν στην AI.
- Οποιεσδήποτε παραβιάσεις πολιτικής καταγράφονται και μπλοκάρονται σε πραγματικό χρόνο, διατηρώντας ένα ελεγχόμενο ίχνος αποφάσεων πρόσβασης.
Εδώ είναι οι τρεις μέθοδοι για το φιλτράρισμα των προειδοποιήσεων - από το ευκολότερο στο πιο προηγμένο:
- Επαλήθευση Token - Μια αποτελεσματική μέθοδος για απλούς ελέγχους όπως το μήκος της προειδοποίησης ή η γενική άδεια εκτέλεσης εισερχόμενων στοιχείων στο σύστημα.
- Συμμόρφωση προτύπων - σε αυτή τη μέθοδο, ο έλεγχος δικαιωμάτων εξετάζει τα μοτίβα στο προτεινόμενο κείμενο, για παράδειγμα, ελέγχοντας αν το μοτίβο ταιριάζει με ένα ερώτημα SQL ή ένα παράδειγμα κώδικα.
- Η πιο προηγμένη μέθοδος αυτής της λίστας, η ταξινόμηση της AI χρησιμοποιεί την τεχνητή νοημοσύνη για να αναλύσει την προειδοποίηση χρησιμοποιώντας μια αφιερωμένη προειδοποίηση συστήματος, ταξινομώντας την σε μια δομημένη είσοδο που μπορεί να αναλυθεί με ακρίβεια στον έλεγχο δικαιωμάτων.
Prompt Filtering with PydanticAI
Για να αποδείξετε καλύτερα την εφαρμογή της αποτελεσματικής φιλτραρίσματος κλήσεων, εδώ είναι ένα παράδειγμα χρήσης εργαλείων PydanticAI για να φιλτράρετε τις εισροές χρηστών σε πράκτορες AI. Το PydanticAI είναι ένα πλαίσιο πράκτορα που εκμεταλλεύεται τη διάσημη βιβλιοθήκη Pydantic της Python και τις δυνατότητες στατικής πληκτρολόγησης και το μετατρέπει σε ένα δομημένο πλαίσιο AI που χειρίζεται μη δομημένα δεδομένα.
Το ακόλουθο αποθετήριο GitHub περιέχει μια πλήρη εφαρμογή του πλαισίου για το PydanticAI:github.com/επιτρέψιμο/επιτρέψιμο
@financial_agent.tool
async def validate_financial_query(
ctx: RunContext[PermitDeps],
query: FinancialQuery,
) -> bool:
"""Key checks:
- User has explicitly opted in to AI financial advice
- Consent is properly recorded and verified
- Classifies if the prompt is requesting advice
Args:
ctx: Context containing Permit client and user ID
query: The financial query to validate
Returns:
bool: True if user has consented to AI advice, False otherwise
"""
try:
# Classify if the prompt is requesting advice
is_seeking_advice = classify_prompt_for_advice(query.question)
permitted = await ctx.deps.permit.check(
# The user object with their attributes
{
"key": ctx.deps.user_id,
},
# The action being performed
"receive",
# The resource being accessed
{
"type": "financial_advice",
"attributes": {"is_ai_generated": is_seeking_advice},
},
)
if not permitted:
if is_seeking_advice:
return "User has not opted in to receive AI-generated financial advice"
else:
return "User does not have permission to access this information"
return True
except PermitApiError as e:
raise SecurityError(f"Permission check failed: {str(e)}")
2. Enforce Data Protection –
Στη συνέχεια εξασφαλίζουμεretrieval-augmented generation (RAG)διασφαλίζοντας ότι τα μοντέλα AI μπορούν να έχουν πρόσβαση μόνο σεauthorized knowledge sourcesΑυτό μπορεί να επιτευχθεί μέσω λεπτομερούς φιλτραρίσματος των δεδομένων του πράκτορα AI για λογαριασμό του χρήστη εντός της ροής εργασίας AI:
- Η λεπτομερής πολιτική χρησιμοποιεί προηγμένα μοντέλα φιλτραρίσματος δεδομένων, όπως ο έλεγχος πρόσβασης βάσει σχέσης, για να επιτρέψει την προηγμένη διήθηση ερωτήσεων στη μηχανή πολιτικής.
- Οι πηγές vector και graph που συνδέονται με τους πράκτορες AI έχουν μεταδεδομένα που μπορούν να βοηθήσουν τη μηχανή να χειραγωγήσει το μη δομημένο ερώτημα, φιλτράροντας το για να συμπεριλάβει μόνο επιτρεπόμενα δεδομένα.
- Κάθε φορά που ο πράκτορας λαμβάνει δεδομένα από τη βάση γνώσεων RAG, φιλτράρει τα αποτελέσματα ανάλογα με την άδεια του χρήστη.
Όταν η εφαρμογή του παράγοντα εκτελεί φιλτράρισμα RAG, χρησιμοποιεί μία από τις ακόλουθες μεθόδους:
- FilterObjects—Με αυτή τη μέθοδο, η εφαρμογή γραφήματος λαμβάνει όλα τα σχετικά δεδομένα από το RAG και στη συνέχεια το φιλτράρει ανά δικαιώματα χρήστη.
- GetUserPermissions - Σε αυτή τη μέθοδο, ο πράκτορας παρέχει στο RAG ένα μη δομημένο ερώτημα. Το RAG καλεί στη συνέχεια τη λειτουργία GetUserPermissions, προσθέτοντας ένα ερώτημα φίλτρου στο μη δομημένο ερώτημα RAG. Αυτό επιτρέπει στο ερώτημα να φιλτραριστεί μόνο στους πόρους στους οποίους μπορεί να έχει πρόσβαση ο χρήστης.
RAG Data Protection with Langchain
Το Langchain, το διάσημο πλαίσιο εφαρμογών AI, είναι γνωστό (επίσης) για τα συστατικά του Retriever που παρέχουν μεγάλη υποστήριξη σε προσαρμοσμένα Retrievers που μπορούν να συναρμολογηθούν με οποιοδήποτε είδος πηγής δεδομένων, καθιστώντας την εφαρμογή ασφαλούς RAG εύκολη.SelfQueryRetriever
, μπορείτε να τυλίξετε το συνηθισμένο RAG με έναGetUserPermissions
Εδώ είναι ένα παράδειγμα του PermitSelfQueryRetriever που παίρνει τον χρήστη, την ενέργεια και τον τύπο των πόρων RAG για να φιλτράρει τα αποτελέσματα για το LLM:
# 1. Build a small in-memory vector store
embeddings = OpenAIEmbeddings()
vectorstore = FAISS.from_documents(docs, embedding=embeddings)
# 2. Initialize the PermitSelfQueryRetriever
retriever = PermitSelfQueryRetriever(
api_key=os.getenv("PERMIT_API_KEY", ""),
pdp_url=os.getenv("PERMIT_PDP_URL"),
user=USER,
resource_type=RESOURCE_TYPE,
action=ACTION,
llm=embeddings,
vectorstore=vectorstore,
enable_limit=False,
)
Το ακόλουθο αποθετήριο περιέχει την πλήρη εφαρμογή του πλαισίου για το Langchain:https://github.com/επιτρεπόμενη/langchain-επιτρέπεται
3. Secure External Access –
Οι πράκτορες τεχνητής νοημοσύνης συχνά αλληλεπιδρούν με εξωτερικά API, υπηρεσίες και εργαλεία αυτοματισμού. Χωρίς τον κατάλληλο έλεγχο πρόσβασης, διατρέχουν τον κίνδυνο να εκτελέσουν μη εξουσιοδοτημένες ενέργειες.
- Η χρήση μοντέλων όπως το MCP, το οποίο καθορίζει ένα μοντέλο διακομιστή-πελάτη όπου οι πράκτορες AI αλληλεπιδρούν με εξωτερικές υπηρεσίες, είναι ένα μεγάλο βήμα για την ενεργοποίηση της ασφάλειας για την εξωτερική πρόσβαση AI (π.χ. βάσεις δεδομένων, API, συστήματα πληρωμών).
- Η υποδομή δράσης AI μπορεί να χρησιμοποιήσει μια υπηρεσία όπως το Permit.io για να εκτελέσει ελέγχους εξουσιοδότησης σε επίπεδο δράσης, ελέγχοντας ποιος κάνει ένα αίτημα και ποια ενέργεια θέλουν να εκτελέσουν.
- Οι προγραμματιστές είναι σε θέση να εκχωρήσουν ταυτότητες μηχανών σε πράκτορες AI, περιορίζοντας τις δυνατότητές τους μόνο σε προκαθορισμένες λειτουργίες.
Ενώ τα GPT και οι διεπαφές φυσικής γλώσσας δεν είναι νέα, επιτρέποντάς τους να εκτελούν ενέργειες για λογαριασμό των χρηστών είναι μια σχετικά νέα πρόκληση που πολλοί μηχανικοί αγωνίζονται με.
- Ασφάλεια άμεσης πρόσβασης - το απλούστερο επίπεδο. Ένας χρήστης ζητά από έναν πράκτορα AI να εκτελέσει μια λειτουργία, όπως μια κλήση HTTP. Ο πράκτορας AI ξέρει να ελέγχει αν η λειτουργία επιτρέπεται, λαμβάνοντας υπόψη το τρέχον πλαίσιο και τον χρήστη.
- Επικοινωνία από πράκτορα σε πράκτορα - σε αυτό το επόμενο επίπεδο, χρειαζόμαστε μια κατακερματισμένη ροή ταυτότητας και αδειών που επιτρέπουν στους πράκτορες να εκτελούν τις ίδιες τις ενέργειες με βάση την αρχή του ελάχιστου προνομίου.
- Οι ροές αιτήσεων πρόσβασης - το πιο συναρπαστικό επίπεδο εξωτερικής πρόσβασης είναι όταν ο πράκτορας AI κατανοεί την ανάγκη να ζητήσει πρόσβαση απευθείας από έναν ανθρώπινο χρήστη όταν θέλει να εκτελέσει μια λειτουργία.
MCP, Human-in-the-Loop, and External Access
Το πρωτόκολλο Model Context Protocol είναι ένα νέο πρωτόκολλο που εισήχθη από την Anthropic, το οποίο λύει το πρόβλημα του να επιτρέπεται στους πράκτορες της τεχνητής νοημοσύνης να εκτελούν προληπτικές ενέργειες και χρησιμεύει ως ο μεγαλύτερος διευκολυντής για την εξασφάλιση εξωτερικής πρόσβασης.
Στο παρακάτω παράδειγμα, παρουσιάζουμε έναν διακομιστή MCP που ξέρει πώς να διαχειρίζεται τις ροές αιτήσεων πρόσβασης φέρνοντας ανθρώπους στον κύκλο και χρησιμοποιεί τα API του Permit.io για να ζητήσει δικαιώματα.
Μπορείτε να δείτε το πλήρες παράδειγμα κώδικα για τον διακομιστή αιτήσεων πρόσβασης MCP εδώ:https://github.com/επιλογή/επιλογή-mcp
@mcp.tool()
async def request_access(username: str, resource: str, resource_name: str) -> dict:
"""
Initiate access request call to a specific resource in the system
Args:
username: The username of the person requesting access
resource: The resource type the user is request access for
resource_name: The name of the restaurant to request access for
"""
login = await permit.elements.login_as({ "userId": slugify(username), "tenant": "default"})
print(login)
url = f"https://api.permit.io/v2/facts/{PROJECT_ID}/{ENV_ID}/access_requests/{ELEMENTS_CONFIG_ID}/user/{slugify(username)}/tenant/default"
payload = {
"access_request_details": {
"tenant": "default",
"resource": resource,
"resource_instance": resource_name['id'],
"role": "viewer",
},
"reason": f"User {username} requests role 'viewer' for {resource_name}"
}
headers = {
"authorization": "Bearer YOUR_API_SECRET_KEY",
"Content-Type": "application/json",
}
async with httpx.AsyncClient() as client:
await client.post(url, json=payload, headers=headers)
return "Your request has been sent. Please check back later."
4. Validate AI Responses –
Η τελική περίμετρος επιβάλλει τη μετριοπάθεια του περιεχομένου και τη συμμόρφωση στις απαντήσεις που παράγονται από την τεχνητή νοημοσύνη. Αυτό μπορεί να γίνει με τη δημιουργία μιας ροής εργασίας που εφαρμόζει φιλτράρισμα βάσει πολιτικής πριν από την παράδοση των εξόδων τεχνητής νοημοσύνης:
- Ένας έλεγχος δικαιωμάτων μπορεί να προστεθεί στην εφαρμογή του πράκτορα, επιτρέποντας την επιβολή πολιτικής σε κάθε βήμα της αλυσίδας πριν ο χρήστης λάβει πραγματικά μια απάντηση.
- Οι συνδυασμένες ροές εργασίας επικύρωσης δεδομένων και εξουσιοδότησης εξασφαλίζουν ότι μόνο επικυρωμένα και επιτρεπόμενα δεδομένα μπορούν να προχωρήσουν.
- Η απάντηση που επιστρέφει στους χρήστες μπορεί να επεξεργαστεί με βάση προκαθορισμένους περιορισμούς, επιτρέποντας έτσι την απόκρυψη δεδομένων ή την ειδοποίηση του χρήστη για περιορισμούς χρήσης.
Response Filtering with Langflow
Στο παρακάτω παράδειγμα, χρησιμοποιούμε το Langflow, έναν οπτικό επεξεργαστή εφαρμογών AI χωρίς κώδικα, για να δημιουργήσουμε ένα στοιχείο ελέγχου δικαιωμάτων που τοποθετείται πριν από οποιαδήποτε απάντηση συνομιλίας στον χρήστη. Χρησιμοποιώντας τις φιλικές δυνατότητες μοντελοποίησης ροής του LangFlow, μπορείτε εύκολα να προσθέσετε ένα άλλο στοιχείο που καλύπτει ανεπιθύμητες λεπτομέρειες στις απαντήσεις που επιστρέφονται.Αυτό το αποθετήριοΠεριέχει όλα τα στοιχεία ελέγχου πρόσβασης που απαιτούνται για ασφαλείς εφαρμογές Langflow.
Συμπέρασμα
Τα συστήματα τεχνητής νοημοσύνης ενσωματώνονται γρήγορα σε εφαρμογές σε διάφορες βιομηχανίες, αλλά τα πλαίσια ασφαλείας τους παραμένουν υποανάπτυκτα σε σύγκριση με το παραδοσιακό λογισμικό.Χωρίς τον κατάλληλο έλεγχο πρόσβασης με επίγνωση ταυτότητας, οι πράκτορες τεχνητής νοημοσύνης διατρέχουν τον κίνδυνο να εκθέσουν ευαίσθητα δεδομένα, να εκτελέσουν μη εξουσιοδοτημένες λειτουργίες και να δημιουργήσουν απαντήσεις που δεν εμπίπτουν στις κατευθυντήριες γραμμές συμμόρφωσης.
Το Four-Perimeter Framework προσφέρει έναν δομημένο τρόπο για την εξασφάλιση των ροών εργασίας της τεχνητής νοημοσύνης σε κάθε στάδιο – από την επικύρωση των ειδοποιήσεων και την προστασία των δεδομένων RAG (recovery-augmented generation) έως τον έλεγχο εξωτερικών ενεργειών που βασίζονται στην τεχνητή νοημοσύνη και την επιβολή της συμμόρφωσης με την αντίδραση.
Αντί να οικοδομήσουμε τον έλεγχο πρόσβασης από την αρχή, οι ολοκληρώσεις ελέγχου πρόσβασης AI της Permit.io με το PydanticAI, το LangChain, το MCP και το LangFlow επιτρέπουν στις ομάδες να ενσωματώνουν την ασφάλεια απευθείας στις εφαρμογές AI χωρίς να διαταράσσουν τις ροές εργασίας ανάπτυξης.Δοκιμάστε τον εαυτό σας εδώ. .
Το πλαίσιο τεσσάρων περιφερειών είναι μια πειραματική προσέγγιση και ενώ παρέχει ένα ισχυρό θεμέλιο, αναγνωρίζω ότι οι πραγματικές εφαρμογές απαιτούν πάντα περαιτέρω βελτίωση και προσαρμογή.
Θα ήθελα να ακούσω τα σχόλια, τις σκέψεις και τις ιδέες σας για το πώς να βελτιώσετε αυτό το πλαίσιο για να το κάνετε ακόμα καλύτερο για τα έτοιμα για παραγωγή συστήματα AI - σχολιάστε εδώ, ή χτυπήστε με στο δικό μαςSlack Κοινότητα.