Sa init ng paunang pagkahumaling sa ChatGPT, nakatanggap ako ng text mula sa isang dating katrabaho. Gusto niyang magbigay ng ideya sa akin. Laging ang isa na nag-e-enjoy sa brainstorming, tumatawag kami at nagsimula siya sa "Remember how you used to always ask me to pull data for you? Paano kung ikaw na lang ang gumawa nito?" At pagkatapos ay nagpatuloy siya sa pagbibigay sa akin ng ideya na libu-libo (sampu-sampung libo?) ng iba pang mga tao ang sabay na nag-iisip: Maaaring gamitin ang mga LLM para sa text-to-SQL upang matulungan ang mga hindi gaanong teknikal na tao na sagutin ang kanilang sariling mga tanong sa data.
I was hooked on the idea, but before diving in head first, I told Lei (now my CTO) that we have to do some validation. Nakipag-ugnayan kami sa mga kaibigan at dating katrabaho mula sa iba't ibang industriya. Nagkaroon ng matinding interes sa totoong "self-service analytics." Alam namin na ito ay magiging mas kumplikado kaysa sa tila, ngunit ang pagkakataon ay masyadong magandang palampasin. Kaya't umalis kami ni Lei sa The Shire at nagsimula sa aming paglalakbay upang lumikha ng aming pananaw:
Ang post na ito ay hindi tungkol sa aming produkto mismo (bagama't, kung mausisa ka, maaari kang magbasa nang higit pa tungkol sa kung paano ang ilan sa mga ideya sa ibaba ay nagpapaalam sa aming kamakailang produkto
Tandaan: Ang paglalakbay na ito ay lubhang kulang sa mga wizard at epic na labanan sa Middle-earth. 🧙
Hindi kami magtatagal sa "bakit" masyadong mahaba. Kung binabasa mo ito, malamang na mapabilang ka sa isa sa dalawang grupo:
Ang pagwawalang-bahala sa pag-aalala sa papel ng mga data analyst at scientist, ang ideya ng isang nakakaalam na AI na makakasagot sa anumang mga tanong tungkol sa data ng isang organisasyon ay mukhang maganda. O hindi bababa sa, ito ay maganda para sa organisasyon at sa mga pinuno ng negosyo nito na ang pagkamalikhain para sa mga bagong paraan ng pagtatanong ay walang hangganan. Ang AI na ito ay maaaring maging solusyon sa paglikha ng "data-driven" na organisasyon kung saan ang bawat lider ay nakasandal sa empirical na ebidensya upang makagawa ng kanilang mga madiskarteng desisyon. At lahat sa isang maliit na bahagi ng gastos na karaniwang aabutin nito. Sa wakas! Maaaring gamitin ng mga organisasyon ang "bagong langis" na narinig nila mula noong 2010.
Ngunit kung ito ay isang mahalagang problema upang malutas at ang AI ay naging napakahusay, bakit walang produkto ang aktwal na nalutas ito hanggang ngayon?
Ang mga kamakailang survey sa industriya ay nagpinta ng isang kumplikadong larawan ng AI adoption sa enterprise.
Ang mga gumagamit ng AI–lalo na sa enterprise–ay may mataas na bar pagdating sa mga inaasahan ng teknolohiya. Sa konteksto ng data analytics at ang self-serve dream, inaasahan namin ang aming AI tooling na:
Nakalulungkot, karamihan sa mga kasalukuyang solusyon ay gumagamit ng tradisyunal na monolithic AI framework, na kadalasang hindi nakakatugon sa mga inaasahan. Sa nakalipas na ilang taon, nagsumikap kami ng Fabi.ai team sa isyung ito. Gumawa kami ng mga prototype para sa enterprise at nag-explore ng maraming opsyon. Sa huli, napagtanto namin na hindi kayang ayusin ni Retrieval Augment Generation (RAG) o fine-tuning ang problemang ito sa kasalukuyang monolitikong balangkas.
Noong sinubukan namin ang diskarteng ito, naging malinaw sa amin ang ilang bagay:
Matapos tingnan ang mga isyung ito, naisip namin kung paano gagawing mas mahusay ang AI sa mga problema. Noon ay naglaro ang mga ahente ng AI at pinatibay ang konseptong ito para sa amin.
Sa sandaling napagmasdan namin ang mga ahenteng balangkas, alam namin na mababago nito ang laro. Bigla naming nadama na maaari naming hayaan ang AI na magpasya kung paano sasagutin ang mga tanong. Maaari itong gumana sa pamamagitan ng mga hakbang at mag-troubleshoot nang mag-isa. Kung nagsusulat ang AI ng SQL query na nawawala ang mga null value sa field na "Uri ng account," maaari nitong i-dry-run ang query, makita ang error, at ayusin ito mismo. Ngunit paano kung maaari nating gawin ito nang higit pa at hayaan ang AI na gumana sa karamihan sa Python at gamitin ang mga LLM? Ngayon, higit pa sa paghila ng data ang ginagawa ng AI. Maaari itong gumamit ng mga pakete ng Python o LLM upang makahanap ng mga outlier, trend, o natatanging insight, na karaniwang kailangan mong hanapin nang manu-mano.
Ngunit mayroon pa rin kaming isang problema: ang magulo na data ng enterprise. Naniniwala kami na malulutas ito ng mga organisasyon sa pamamagitan ng paggamit ng matitinding kasanayan sa data engineering, tulad ng a
Habang lumalaki ang mga kumpanya, pinangangasiwaan nila ang mas maraming data at mas maraming user. Ang ideya ng agent mesh ay nakakatulong na balansehin ang mabilis na paggawa ng desisyon sa kontrol na kailangan para sa pamamahala. Tumutulong ang mga dalubhasang ahente na magtakda ng malinaw na mga hangganan at responsibilidad para sa bawat AI. Gumagawa din sila ng scalable na paraan para makipag-usap ang mga ahente. Dagdag pa, makakatulong sila sa pamamahala ng mga mapagkukunan nang mahusay sa mga koponan at kumpanya.
Ang ideya sa likod ng isang dalubhasang ahente ay ang ahente na ito ay maaari at sasagutin lamang ang mga tanong sa isang napakahigpit na tinukoy na dataset. Halimbawa, maaari kang lumikha at maglunsad ng isang ahente ng AI na sumasagot sa mga tanong tungkol sa mga kampanya sa marketing. O maaari kang bumuo ng isa pa upang sagutin ang mga tanong tungkol sa marketing pipeline, at iba pa.
May isang depekto lang: Kailangang malaman ng mga user kung aling ahente ang pupuntahan para sa kung anong tanong. Parang kailangan mong malaman ang tamang marketing analyst para magtanong ng isang tanong kumpara sa pagtatanong lang ng pangkalahatang tanong. Sa isang pangkalahatang tanong, maaaring idirekta ito ng isang tao sa koponan sa tamang tao. Dito pumapasok ang konsepto ng isang "agent mesh".
Kung mapagkakatiwalaang masasagot ng isang ahente ang mga tanong na partikular sa domain, bakit hindi hayaan ang mga ahente na makipag-usap sa isa't isa? Bakit hindi, halimbawa, ang marketing campaign agent ay direktang magtanong sa pipeline agent kung mas madali nilang masasagot ang isang tanong? Naniniwala kami na dapat itong magawa. Sa katunayan, iniisip namin na sa hinaharap ay magkakaroon ng mga network ng mga ahente na may hierarchical na istraktura. Maaari mong isipin ang isang "Agent ng GTM" na tumatawag sa "Agent sa marketing." Ang ahenteng ito pagkatapos ay parehong tinatawag na "Pipeline agent" at ang "Marketing campaign agent."
Ang ideyang ito ay parang mas pangkalahatang ideya na lumulutang sa paligid ng AI na kilala bilang "
Ang mesh approach na ito ay nag-aalok ng ilang pangunahing bentahe sa isang monolitikong AI (sa isang malinis na semantic layer):
Sa pagtatapos ng araw, ang ideyang ito ng isang mesh ay hindi nobela. Sinasalamin nito ang konsepto ng pinaghalong mga eksperto na ipinakita upang mapabuti ang katumpakan para sa mga LLM. Kinukuha lang nito ang parehong ideya at dinadala ito sa mga ahente ng AI.
Sa Fabi.ai, marami pa tayong mararating habang bumubuo tayo ng analyst Agent mesh. Ngunit, nalampasan na namin ang ilan sa mga malalaking hamon sa teknikal na imprastraktura sa daan.
Ang mga ahente ng data analyst ng AI ay nangangailangan ng isang natatanging arkitektura. Ang disenyong ito ay dapat magbigay-daan sa kanila na gumamit ng Python o LLM upang sagutin ang mga tanong, manatiling naka-sync sa mga pinagmumulan ng data, at magkasya sa mga collaborative na platform, habang nananatiling secure at scalable. Ang bawat ahente ay kailangang gumana sa sarili nitong kernel ng Python, na kailangang mabilis na paikutin pataas o pababa upang mabawasan ang mga gastos at manatiling naka-sync sa source data.
Ang mga arkitektura na hindi nagbibigay ng mga indibidwal na kernel sa bawat ahente ay maaaring magkaroon ng isa sa mga sumusunod na panganib:
Ang hamon ng pagbuo ng ganitong uri ng platform ay isang hamon sa AI dahil isa itong hamon sa DevOps.
Habang pinamamahalaan ng mga kumpanya ng enterprise ang higit pang mga AI application sa kanilang mga operasyon, kailangan nila ng mga dalubhasa at mahusay na pinamamahalaan na mga diskarte. Gumagamit ang agent mesh framework ng mga dalubhasang AI data agent bilang paraan para sa pag-scale ng AI sa data analytics. Ang diskarte na ito ay nagpapanatili ng seguridad, pagiging maaasahan, at pagganap na buo.
Maaaring inaasahan namin na ang AI ay nasa lahat ng dako sa ngayon, na sumasagot sa karamihan ng mga tanong sa data. Ngunit, kung titingnan nating mabuti, ang pag-unlad sa loob lamang ng dalawang taon mula nang ilunsad ang ChatGPT ay kahanga-hanga. Marami pa tayong dapat matutunan sa paglalakbay na ito. Sa aking isipan, gayunpaman, ang mga ahente at mga balangkas ng mesh ng ahente ay magiging susi sa enterprise AI.