"Tam mums ir nepieciešama vairāku aģentu arhitektūra."
Šie astoņi vārdi ir aizsākuši tūkstošiem uzņēmumu AI projektu, un daudzi no tiem ir lemti neveiksmei. Izstrādes telpās visā Silīcija ielejā un ārpus tās esmu vērojis, kā inženieru komandas steidzas ieviest sarežģītas vairāku aģentu arhitektūras, vispirms neuzdodot pamatjautājumu: vai mums tiešām ir vajadzīga šī sarežģītība?
Sacensībās par izsmalcinātu AI sistēmu izveidi mēs esam aizmirsuši inženierijas principu, kas gadsimtiem ilgi ir vadījis tehnoloģiju: vienkāršākais risinājums, kas darbojas, parasti ir labākais.
Lūk, paradokss: tā kā LLM kļūst spējīgāki, nepieciešamība pēc sarežģītām aģentu arhitektūrām bieži samazinās, nevis palielinās. Tomēr nozare turpina virzīties pretējā virzienā.
Tas nenozīmē, ka vairāku aģentu sistēmām nav savas vietas. Viņi to noteikti dara. Izaicinājums ir zināt , kad šī vieta ir un kad jums ir labāk, izmantojot racionālāku pieeju.
Izvairīsimies no trokšņa un izveidosim praktisku lēmumu sistēmu par to, kad izvietot vairākus specializētus aģentus, nevis investēt vienā spējīgākā aģentā.
Izpratne par vairāku aģentu paradigmu
Vairāku aģentu sistēma (MAS) sastāv no vairākiem AI aģentiem, kas kopīgi strādā, lai veiktu uzdevumus. Katram aģentam ir individuālas īpašības, taču visi darbojas kopīgi, lai sasniegtu vēlamos globālos rezultātus.
Šo aģentu pamatā parasti ir lieli valodu modeļi (LLM), kas izmanto uzlabotas dabiskās valodas apstrādes iespējas.
Tas, kas AI aģentus atšķir no tradicionālajiem LLM, ir viņu spēja:
- Izmantojiet specializētus rīkus un API
- Izstrādāt un izpildīt rīcības plānus
- Atjauniniet viņu atmiņu, kad viņi iegūst jaunu informāciju
- Sazināties un saskaņot ar citiem aģentiem
Šīs sistēmas sola ievērojamas priekšrocības:
- Specializācijas priekšrocība : dažādi aģenti, kas optimizēti konkrētiem uzdevumiem
- Mērogojams intelekts : sarežģītu problēmu sadalīšana pārvaldāmās apakšproblēmās
- Jaunas iespējas : sadarbības potenciāls, kas pārsniedz individuālā aģenta spējas
- Kognitīvā daudzveidība : vairākas spriešanas pieejas, lai atrisinātu sarežģītas problēmas
Tādi rīki kā CrewAI, AutoGen un LangGraph ir padarījuši vairāku aģentu sistēmu izveidi pieejamāku nekā jebkad agrāk. Taču šī pieejamība ir saistīta ar risku: sarežģītas arhitektūras ieviešana vienkārši tāpēc, ka mēs varam, nevis tāpēc, ka mums vajadzētu.
Slēptās sarežģītības nodoklis
Problēma nav tā, ka vairāku aģentu sistēmas nedarbojas, bet gan tajā, ka tām ir ievērojamas slēptās izmaksas:
- Arhitektūras sarežģītība : eksponenciāls sistēmas projektēšanas apsvērumu pieaugums
- Komunikācijas izmaksas : efektīvas, precīzas informācijas apmaiņas nodrošināšana starp aģentiem
- Kļūmju kaskādes riski : kļūdas vienā aģentā, kas ietekmē visu sistēmu
- Murgu atkļūdošana : identificējiet, kur vairāku aģentu darbplūsmās radās kļūda
- Saskaņošanas izaicinājumi : nodrošināt, ka aģenti strādā, lai sasniegtu vienus un tos pašus mērķus, izmantojot saderīgas metodes
- Resursu neefektivitāte : dublēts aprēķins un konteksta koplietošana
Vissvarīgākais ir tas, ka daudzas komandas nenovērtē orķestrēšanas slogu — resursus, kas nepieciešami ne tikai pašu aģentu vadīšanai, bet arī viņu mijiedarbības pārvaldībai un kolektīva virzības nodrošināšanai mērķu sasniegšanai.
Piecas AI pārbūves brīdinājuma zīmes
Kā atpazīt, kad jūsu sistēma no elegantas sarežģītības ir kļuvusi par nevajadzīgu sarežģījumu? Pievērsiet uzmanību šiem sarkanajiem karogiem:
1. Aģentu pievienošana nodrošina minimālus uzlabojumus
Brīdinājuma zīme : katrs jauns aģents, ko pievienojat, samazina veiktspējas pieaugumu, vienlaikus palielinot sistēmas sarežģītību.
Ietekme reālajā pasaulē : pieaugot sarežģītībai, koordinācijas izmaksas bieži vien pārsniedz specializētās priekšrocības, ko sniedz papildu aģenti.
2. Komunikācijas pieskaitāmās izmaksas samazina veiktspēju
Brīdinājuma zīme : jūsu aģenti vairāk laika pavada koordinēšanai, nevis faktisko uzdevumu izpildei.
Ietekme uz reālo pasauli : ziņojumu nodošana, konteksta sinhronizācija un konfliktu risināšana var patērēt ievērojamu daļu sistēmas resursu sarežģītās vairāku aģentu ieviešanā.
3. Sistēmas uzvedība kļūst neizskaidrojama
Brīdinājuma zīme : jūs vairs nevarat skaidri izsekot, kā sistēma ir pieņēmusi konkrētu lēmumu.
Ietekme uz reālo pasauli : tas ir īpaši bīstami regulētajās nozarēs, kur izskaidrojamība bieži vien ir prasība, nevis tikai patīkama funkcija.
4. Testēšana kļūst praktiski neiespējama
Brīdinājuma zīme : Jūs nevarat vispusīgi pārbaudīt visus iespējamos aģenta mijiedarbības scenārijus.
Ietekme uz reālo pasauli : Īpaši gadījumi, kad aģenti nonāk konfliktējošās lēmumu cilpās, bieži parādās tikai pēc izvietošanas, kad reāli lietotāji mijiedarbojas ar sistēmu.
5. Infrastruktūras izmaksas pārsniedz vērtības piegādi
Brīdinājuma zīme : jūsu mākoņdatošanas rēķins pieaug ātrāk nekā sistēmas iespējas.
Ietekme reālajā pasaulē : vairāku aģentu sistēmām bieži ir nepieciešams ievērojami vairāk skaitļošanas resursu nekā salīdzināmām viena aģenta pieejām.
Vairāku aģentu lēmumu koks: praktisks ietvars
Lai palīdzētu orientēties šajos apsvērumos, esmu izstrādājis lēmumu koka sistēmu, pamatojoties uz manu pieredzi, ieviešot AI sistēmas desmitiem uzņēmumu klientu.
Šis lēmumu pieņemšanas koks nodrošina strukturētu pieeju, lai novērtētu, vai jūsu lietošanas gadījumā patiešām ir nepieciešama vairāku aģentu sistēma.
Tiem, kas dod priekšroku vienkāršākai pakāpeniskai pieejai, šeit ir galvenie jautājumi:
1. jautājums : vai uzdevums ir efektīvi sadalāms neatkarīgos apakšuzdevumos?
- Nē → Izmantojiet vienu aģentu
- Jā → Turpināt uz 2. jautājumu
2. jautājums : vai apakšuzdevumiem ir nepieciešamas būtiski atšķirīgas iespējas?
- Nē → Izmantojiet vienu aģentu
- Jā → Turpināt uz 3. jautājumu
3. jautājums : vai apakšuzdevumiem ir nepieciešama bieža saziņa vai kopīgs stāvoklis?
- Jā → Izmantojiet vienu aģentu
- Nē → Turpināt uz 4. jautājumu
4. jautājums : vai horizontālā mērogojamība ir prasība?
- Jā → Izmantojiet vairāku aģentu sistēmu
- Nē → Turpināt uz 5. jautājumu
5. jautājums : Vai liela kļūdu tolerance un robustums ir kritiski svarīgi?
- Jā → Izmantojiet vairāku aģentu sistēmu
- Nē → Turpināt uz 6. jautājumu
6. jautājums : vai jums ir pietiekami daudz attīstības resursu, lai palielinātu sarežģītību?
- Nē → Sāciet ar vienu aģentu
- Jā → Var būt piemērota vairāku aģentu sistēma
Jaunākie Pasaules ekonomikas foruma pētījumi uzsver drošības un pārvaldības apsvērumus vairāku aģentu sistēmām, atzīmējot to īpašo piemērotību uzdevumiem, kuriem nepieciešama decentralizācija un spēcīga kļūdu tolerance.
No teorijas līdz praksei: pareizās ieviešanas izvēle
Apskatīsim, kā mūsu lēmumu ietvars izpaužas kā īstenošana reālajā pasaulē. Tālāk ir sniegts vienkāršots salīdzinājums tam, kā viens un tas pats uzdevums — klientu atsauksmju analīze — izskatītos abās pieejās.
Viena aģenta pieeja: tīra un efektīva
from langchain import LLMChain, PromptTemplate from langchain.llms import OpenAI # Single agent handles everything in one inference llm = OpenAI(model_name="gpt-4") prompt = PromptTemplate( input_variables=["feedback"], template=""" Analyze the following customer feedback: {feedback} 1. Categorize it (product, support, pricing) 2. Determine sentiment (positive, negative, neutral) 3. Extract key issues or suggestions 4. Provide recommended actions Format your response as JSON. """ ) chain = LLMChain(llm=llm, prompt=prompt) analysis = chain.run("I love your product, but customer service is too slow.")
Vairāku aģentu pieeja: kompleksa koordinācija
Turpretim vairāku aģentu sistēmai vienam un tam pašam uzdevumam būtu jādefinē specializēti aģenti kategorizēšanai, noskaņojuma analīzei un problēmu iegūšanai, kā arī koordinators, kas tos visus pārvaldītu, kā rezultātā kods ir 4x sarežģītāks.
Tas lieliski ilustrē mūsu lēmumu koku: uzdevumiem bez skaidrām sadalīšanas priekšrocībām vai īpašām zināšanu prasībām viena aģenta pieeja uzvar vienkāršības, apkopējamības un bieži vien veiktspējas ziņā.
Šķērsošanas punkts: kad vairāku aģentu darbība kļūst tā vērta?
Pastāv teorētisks pārejas punkts, kurā vairāku aģentu sistēmas kļūst rentablākas nekā nepārtraukta viena aģenta uzlabošana:
Šī vizualizācija ilustrē svarīgu principu: vairāku aģentu sistēmām ir augstākas sākotnējās izmaksas, taču tās var labāk mērogot ar sarežģītību . Vienkāršākiem uzdevumiem orķestrēšanas pieskaitāmās izmaksas padara tos neefektīvus, taču, palielinoties problēmas sarežģītībai, specializācijas ieguvumi galu galā var atsvērt šīs izmaksas.
Pamatojoties uz šajā jomā novērotajiem modeļiem, daudzi AI projekti varētu gūt lielāku labumu no viena aģenta sistēmām, nekā parasti tiek pieņemts. Pat tad, ja uzdevumi ir sadalāmi, koordinācijas izmaksas var noliegt vairāku aģentu sistēmu teorētiskās priekšrocības.
Salīdzinošā analīze: viens pret vairākiem aģentiem
Lai gan konkrētie rādītāji atšķirsies atkarībā no lietošanas gadījuma, vispārīgie kompromisi starp pieejām parasti ietver:
Metrika | Viens aģents | Vairāku aģentu |
---|---|---|
Atbildes laiks | Vispār ātrāk | Bieži vien lēnāk koordinācijas dēļ |
Precizitāte | Piemērots integrētiem uzdevumiem | Potenciāli augstāks specializētiem uzdevumiem |
Attīstības laiks | Parasti īsāks | Parasti ilgāk |
Apkopes sarežģītība | Nolaist | Augstāks |
Infrastruktūras izmaksas | Nolaist | Augstāks |
Šie kompromisi ir rūpīgi jāizvērtē atbilstoši jūsu īpašajām prasībām.
Mācīšanās no reālās pasaules sistēmām: sarežģītības gadījumu izpēte
Kā šie principi darbojas praksē? Apskatīsim trīs jomas, kurās inženieriem bija jāatrod saldais punkts starp vienkāršību un vairāku aģentu sarežģītību:
Autonomie transportlīdzekļi: kad drošība prasa vienkāršību
Ir vilinoši iedomāties, ka pašbraucošo automašīnu parki krustojumos sarunājas savā starpā, pilnīgā harmonijā koordinējot saplūšanu un krustojumus. Pētnieki ir ierosinājuši vairāku aģentu koordināciju, lai novērstu satiksmes signālus un samazinātu sastrēgumus.
Realitātes pārbaude: autonomo transportlīdzekļu nozare ir lielā mērā balstījusies uz vienkāršākām, izturīgākām metodēm. Pat Tesla ar savu milzīgo datu priekšrocību saglabā katra transportlīdzekļa lēmumu pieņemšanu patstāvīgi. Kāpēc? Tā kā kritisku lēmumu nosūtīšana, izmantojot saziņas transportlīdzekļu tīklu, rada latentuma un atteices punktus, kur mikrosekundēm ir nozīme. Vienkāršs noteikums — “nesitiet neko” — vājina elegantu aģentu koordināciju, kad uz spēles ir liktas dzīvības.
Kamēr mums nav īpaši uzticamu transportlīdzekļu tīklu, katras automašīnas mākslīgā intelekta saglabāšana lielākoties autonomā ir drošāka un praktiskāka arhitektūra. Mācība: sarežģītas sadarbības stratēģijas neko nenozīmē, ja tās nevar izpildīt reāllaika drošības prasības.
Spēle AI (StarCraft II): Kad sarežģītība ir neizbēgama
No otras puses, dažas vides prasa vairāku aģentu sarežģītību. DeepMind's AlphaStar, kas StarCraft II sasniedza Grandmaster līmeni, ir piemērs tam. StarCraft ir daļēji novērojama, vairāku vienību, reāllaika stratēģijas spēle — būtībā sliktākais scenārijs vienkāršai AI.
AlphaStar risinājums bija apmācīt AI aģentu līgu, kas konkurē un sadarbojas savā starpā. Inženiertehniskās pūles bija milzīgas — apmācības līga 14 dienas darbojās ar specializētu aparatūru, pakļaujot katram aģentam līdzvērtīgu 200 gadu spēļu pieredzi.
Šo pieeju attaisnoja vides neparastā sarežģītība: neviens atsevišķi apmācīts aģents nevarēja apgūt spēli.
Tomēr pat AlphaStar kontrolē visas vienības kā vienu koordinētu vienību faktiskās spēles laikā. Ņemiet vērā: tikai StarCraft mēroga izaicinājumi ir pelnījuši tik sarežģītus risinājumus , un pat tad dizaineri izvietošanas laikā samazināja sarežģītību.
Noliktavas robotika: līdzsvara atrašana
Apsveriet Amazon automatizētās noliktavas, kurās vairāk nekā 350 000 mobilo robotu pārvieto krājumus. Tam varētu pieiet kā aģentu baram, kas katrs pieņem lēmumus lidojumā.
Realitātes pārbaude: Amazon izmanto centralizētas autoparka pārvaldības sistēmas, lai koordinētu savus Kiva robotus. Centrālās "smadzenes" aprēķina optimālos maršrutus un uzdevumus, kas ir vienkāršāk īstenojami un pārbaudāmi, nekā likt robotiem sarunāties savā starpā. Paši roboti ir samērā "mēma" aparatūra, kas seko instrukcijām, nevis neatkarīgi lēmumu pieņēmēji.
Ir izņēmumi — dažas sistēmas izplata lēmumu pieņemšanu mērogojamības dēļ, taču pat tad tās bieži sadala problēmu (piemēram, viens aģents katrā noliktavas zonā), lai samazinātu mijiedarbību. Vadošais princips ir uzticamība un paredzamība: ja vienkāršs algoritms var koordinēt simtiem robotu, nav pamata katram robotam piešķirt dārgu neatkarīgu spriešanas spēju.
Šajos piemēros mēs redzam modeli: viedie arhitekti saskaņo risinājumu sarežģītību ar problēmas sarežģītību. Viņi pievieno aģentus tikai tad, ja uzdevuma prasības pārsniedz vienkāršākas pieejas. Un otrādi, tie agresīvi vienkāršo, kad vien iespējams.
Kad nebūšana gudram ir gudrākais solis
Inteliģentu sistēmu izveides māksla bieži slēpjas zināšanās , kad nevajadzētu pārlieku izstrādāt projektus . Jomā, kurā tiek svinētas progresīvas tehnikas un sarežģītas arhitektūras, ir paradoksāli gudri būt konservatīviem ar sarežģītību.
Iedomājieties daudzsološu AI projektu, kas pārvēršas digitālā Rube Goldberg mašīnā. Startup vēlas izveidot inteliģentu noliktavas savācēju, bet beidzas ar arhitektūru, kurā ir ducis autonomu aģentu: viens navigācijai, viens krājumu pārvaldībai, otrs uzdevumu koordinēšanai, kā arī metaaģents, kas tos visus koordinē.
Katrs aģents darbojas teorētiski, taču praksē sistēma ir lēna, neparedzama un to nav iespējams atkļūdot. Vienkāršs uz kārtulām balstīts skripts būtu varējis paveikt darbu uzticamāk.
Šis nav atsevišķs stāsts — tas ir brīdinošs scenārijs, kas tiek īstenots ikreiz, kad ļaujam mūsu aizraušanās ar sarežģītām mākslīgā intelekta arhitektūrām apsteigt faktiskās vajadzības. Tiecoties pēc sarežģītības, mēs dažkārt ieviešam vairākus aģentus, sarežģītus koordinācijas slāņus un kokam līdzīgas lēmumu plūsmas, kur neviens nebija vajadzīgs.
Apzinātas vienkāršības vērtība
Vairāku aģentu lēmumu koku, sarežģītu koordinācijas protokolu vai dziļu hierarhiju ieviešana var būt intelektuāli apmierinoša, taču tai ir jākalpo skaidram mērķim. Ja jūs varat atrisināt problēmu ar viena aģenta risinājumu, heiristisku vai vienkāršu modeli, tas nenozīmē, ka tas tiek "nomīlēts" — tas ir inženierijas briedums.
Kā man reiz teica mans mentors:
"AI gudrākais risinājums bieži vien ir zināt, kad nevajadzētu būt pārāk gudram."
Pirms pievienojat šo papildu aģentu vai izveidojat jaunu koordinācijas slāni, pajautājiet sev: vai es atrisinu problēmu vai pievienoju jaunas? Izmantojot mūsu izklāstīto lēmumu sistēmu un mācoties no reālajiem panākumiem (un neveiksmēm), varat izvairīties no vairāku aģentu sirēnas dziesmas, ja tā ir nepamatota.
Saglabājiet to pēc iespējas vienkāršāku, bet ne vienkāršāku. Šis līdzsvars — vienkāršība sarežģītības tuvajā pusē — padara AI projektu no pārāk sarežģīta zinātniska eksperimenta par stabilu, uzturējamu risinājumu, kas faktiski nodrošina biznesa vērtību.
Galīgo lēmumu ietvars
Lai to visu apvienotu, šeit ir vienkāršs garīgās kontrolsaraksts, ko izmantoju katrā AI aģenta projektā:
- Vai viens labi izstrādāts aģents ar atbilstošiem rīkiem var tikt galā ar šo uzdevumu?
- Vai ieguvumi no specializētajiem aģentiem pārsniegs koordinācijas izmaksas?
- Vai uzdevums pēc būtības ir sadalīts vai decentralizēts bez iespējamas centrālās kontroles?
- Vai problēma patiešām prasa vairāku mijiedarbīgu aģentu uzvedību?
- Vai esmu izsmēlis vienkāršākas pieejas, pirms apņēmos izmantot vairāku aģentu sarežģītību?
Ja atbildat "nē" uz kādu no pirmajiem četriem jautājumiem vai "nē" uz pēdējo, apsveriet iespēju vienkāršot savu pieeju. Tīra arhitektūra un vienkāršība nav tikai estētiska izvēle; AI gadījumā tie bieži vien ir atšķirība starp projektu, kas darbojas, un projektu, kas sabrūk zem sava svara.
Paraugprakse AI risinājuma pareiza izmēra noteikšanai
Ja esat noteicis savai problēmai piemērotu arhitektūru, tālāk ir sniegta ieviešanas paraugprakse.
Viena aģenta risinājumiem
Izmantojiet rīku izsaukšanu vairāku aģentu vietā Tā vietā, lai izveidotu aģentus, aprīkojiet savu vienu aģentu ar specializētiem rīkiem:
Šī pieeja nodrošina specializācijas priekšrocības bez koordinācijas pieskaitāmām izmaksām.
Uzlabojiet konteksta pārvaldību Koncentrējieties uz to, lai aģentam nodrošinātu pareizo kontekstu:
- Ieviesiet ar izguvi papildinātu ģenerēšanu, lai iegūtu domēna specifiskas zināšanas
- Izmantojiet atmiņas hierarhijas dažādām saglabāšanas stratēģijām
- Izveidojiet skaidras uzvedņu veidnes dažādiem darbības režīmiem
Zināt, kad attīstīties Pārraugiet šīs pazīmes, kas liecina, ka jūsu viena aģenta pieeja varētu sasniegt savas robežas:
- Uzdevuma izpildes laiks kļūst nepieņemami garš
- Konkrētos domēnos palielinās kļūdu līmenis
- Konsekventi tiek sasniegti konteksta loga ierobežojumi
Vairāku aģentu sistēmām
Ja jūsu lēmumu koks norāda, ka jums patiešām ir nepieciešami vairāki aģenti:
- Izvēlieties pareizo arhitektūras modeli
- Hierarhisks : skaidrai uzdevumu hierarhijai ar koordinatoru
- Vienādranga tīkls : autonomiem aģentiem, kuriem nepieciešama adaptīva sadarbība
- Montāžas līnija : secīgām darbplūsmām ar atšķirīgiem posmiem
- Ieviesiet spēcīgu saziņu
- Definējiet strukturētas ziņojumu shēmas visiem starpaģentu sakariem
- Iebūvējiet kļūdu apstrādi un atkopšanu savos sakaru protokolos
- Saglabājiet visaptverošu visu aģentu mijiedarbību reģistrēšanu atkļūdošanai
- Sāciet ar mazu un pakāpenisku mērogu Sāciet ar minimālo nepieciešamo aģentu skaitu, pēc tam:
- Pēc katra jauna aģenta pievienošanas rūpīgi pārbaudiet
- Izmēriet katra papildinājuma ietekmi uz veiktspēju
- Nepievienojiet aģentus, kuru ieguldījumu nevar skaidri izmērīt
- Uzturēt cilvēku uzraudzību Saglabājiet cilvēkus, īpaši kritisku lēmumu pieņemšanā. Tas nodrošina drošības tīklu, kamēr jūsu sistēma attīstās, un palīdz noteikt, kad sistēma kļūst pārāk sarežģīta efektīvai uzraudzībai.
Abos gadījumos atcerieties, ka optimizācija ir nepārtraukts process. Regulāri novērtējiet savu arhitektūru, ņemot vērā mainīgās prasības, un vajadzības gadījumā esiet gatavs vienkāršot.
Secinājums: saprātīgas vienkāršības māksla
"Padariet visu pēc iespējas vienkāršāku, bet ne vienkāršāku." Einšteina diktāts lieliski attiecas uz AI arhitektūru.
Vairāku aģentu sistēmu pievilcība ir nenoliedzama. Specializētu aģentu izredzes sadarboties, lai atrisinātu sarežģītas problēmas, ir aizraujoša mākslīgā intelekta robeža. Tomēr šī sarežģītība rada ievērojamas izmaksas — izstrādes resursos, skaitļošanas prasībās, izskaidrojamībā un uzticamībā.
Elegantākais risinājums reti kad ir vissarežģītākais. Tas ir tas, kurš sasniedz savus mērķus ar atbilstošu izsmalcinātības līmeni. Izmantojot šajā rakstā aprakstīto vairāku aģentu lēmumu koka sistēmu, varat pieņemt pārdomātākus lēmumus par to, kad pieņemt sarežģītību un kad atbalstīt vienkāršību.
Ja rodas šaubas, izmantojiet šo pieeju:
- Sāciet ar vienu spējīgu aģentu ar labi izstrādātiem rīkiem
- Novērtējiet veiktspēju, salīdzinot ar skaidriem mērķiem
- Pārraugiet konkrētus ierobežojumus un vājās vietas
- Mērogot uz vairāku aģentu tikai tad, ja lēmumu koks skaidri norāda, ka tas ir pamatots
Pretojoties impulsam priekšlaicīgi optimizēt arhitektūras eleganci, jūs nodrošināsit izturīgākus risinājumus, kas faktiski atrisina reālas biznesa problēmas. Tātad, kurus AI projektus jūs šobrīd pārlieku sarežģījat? Jūsu lietotāji (un jūsu infrastruktūras rēķins) pateiks jums par godīgumu.
Atsauces
[1] Varia, S. (2023). "Par vairāku aģentu LLM sistēmu koordinācijas izaicinājumiem." arXiv:2312.03034.
[2] Antropisks. (2023). "Konstitucionālais AI: AI atsauksmju nekaitīgums." arXiv: 2212.08073.
[3] DeepMind. (2023). "AlphaStar: Reāllaika stratēģijas spēles StarCraft II apgūšana." Emuārs DeepMind.
[4] Pasaules ekonomikas forums. (2024). "Kā nodrošināt mūsdienu AI aģentu un vairāku aģentu sistēmu drošību." WEF tehniskais īss apraksts.
[5] Xu, D., et al. (2023). "MACS: vairāku aģentu sadarbības sistēmas atbildēm uz jautājumiem." arXiv: 2311.08516.
Par autoru: Es esmu Džejs Thakurs, Microsoft vecākais programmatūras inženieris, kurš pēta AI aģentu transformācijas potenciālu. Apvienojot pieredzes veidošanu un AI risinājumu mērogošanu Microsoft, Amazon un Accenture Labs ar biznesa izglītību no Stenfordas GSB, es piedāvāju unikālu skatījumu uz tehnoloģiju un biznesa krustojumu. Mana misija ir MI demokratizēt, izmantojot pieejamus, ietekmīgus produktus, kas risina reālās pasaules problēmas. Kā lektors, pedagogs un topošais AI ekosistēmu līderis es dalos atziņās par progresīvām tehnoloģijām, tostarp AI aģentiem, GenAI, kvantu skaitļošanu, humanoīdu robotiku un atbildīgu AI izstrādi. Sazinieties ar mani