Questo articolo è stato scritto in collaborazione con Tim Shea di Super Vision Studio.
Di gran lunga, il caso d'uso più convincente per l'IA generativa non è la sostituzione dei lavoratori umani o l'automazione di flussi di lavoro rigorosamente definiti, ma piuttosto l'aumento notevole delle dimensioni che le persone possono esplorare quando prendono una decisione. In questo modo, gli LLM e i modelli di diffusione sono incredibili partner di brainstorming. Possiamo istruire gli LLM sul dominio di conoscenza che vorremmo che rappresentasse e quindi definire con precisione come vorremmo vedere l'output. Ad esempio, potremmo chiedere:
"Vorrei creare un database delle holding del lusso al dettaglio come VF Corporation, New Guard Group, Only The Brave e LVMH, nonché dei marchi che hanno acquisito di recente. Puoi generare un foglio di calcolo Excel con le seguenti colonne: Holding Company, Brand Name, Acquisition Amount, Acquisition Date, Rationale for Acquiring"
Query di questo tipo sono ormai considerate alla stregua di semplici risultati, un miglioramento notevole rispetto ai motori di ricerca tradizionali che, nell'era dell'intelligenza artificiale generativa, sembrano ormai antiquati.
Tuttavia, alcuni processi decisionali possono essere estremamente complessi. A volte vorremmo essere in grado di modellare il processo decisionale che potrebbe verificarsi tra più personaggi specializzati (come un CEO, un CMO o un CTO) o moduli specializzati (come un connettore API, un parser K1 o un analizzatore SWOT). Nel mondo reale, prenderemmo i risultati di quel foglio di calcolo Excel e li sottoporremmo a una serie di esperti umani. Strateghi, investitori ed esperti di settore interverrebbero. Costruiremmo "cosa succederebbe se" sulle acquisizioni, scaveremmo nei P&L e sogneremmo piani di commercializzazione per potenziali acquisizioni future. Ma grazie ai moderni LLM, ora possiamo creare agenti AI individualizzati in grado di modellare ciascuno di questi comportamenti e simulare di avere una stanza piena di esperti che informano le nostre decisioni.
Quindi, quando abbiamo fondato Super Vision Studio , uno studio di venture capital accelerato dall'intelligenza artificiale incentrato sulla creazione di "Future Brands", ci siamo immediatamente rivolti ai sistemi di intelligenza artificiale multi-agente per modellare i processi decisionali proprietari che chiamiamo il nostro "Super Vision OS". Con esso, possiamo setacciare enormi database aziendali alla ricerca di modelli P&L deboli in cui l'intelligenza artificiale può apportare miglioramenti sproporzionati. Possiamo assegnare agli agenti nel nostro sistema operativo ipotesi su vendita al dettaglio, beni di largo consumo, stampa, intrattenimento o e-commerce. Gli agenti possono elaborare numeri, pontificare e discutere tra loro. Gli agenti possono persino produrre risultati che altri agenti criticano e su cui iterano.
I sistemi multi-agente presentano una serie di vantaggi rispetto alle semplici interfacce di chat LLM: ogni agente nel sistema può essere formato con un'enorme quantità di conoscenze specialistiche
Abbiamo anche una vasta gamma di opzioni pronte all'uso per creare sistemi multi-agente personalizzati come AutoGen, CrewAI e LangChain. Abbiamo scelto AutoGen perché è gratuito, ci sono tonnellate di video introduttivi e forniscono codice di esempio per più architetture multi-agente diverse che possono essere configurate e impilate insieme. AutoGen cataloga un ampio elenco di esempi di ciò che chiama "Conversation Patterns" (come chat a due agenti, chat sequenziale, chat di gruppo e chat nidificata).
Questi modelli, o architetture, sono una parte importante del processo di progettazione del sistema agente. È simile a come si costruisce un team di esperti umani e si predefiniscono le regole di ingaggio tra loro. Progetti diversi possono produrre risultati estremamente diversi.
Il modello più semplice fornito da AutoGen è una Chat a due agenti, in cui definiamo la persona di ogni agente, in cui un agente pone semplicemente all'altro agente la domanda originale del prompt e in cui gli agenti vanno avanti e indietro su un problema per un numero stabilito di volte. È facile da impostare e possiamo leggere ogni interazione all'interno della loro conversazione alla lettera. Il codice di esempio è riportato di seguito:
import os from autogen import ConversableAgent agent__venture_studio_founder = ConversableAgent ( name="Agent__Venture_Studio_Founder", system_message="You are the founder owner of a venture studio with expertise in funding and building technology and retail brands.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, ) agent__business_analyst = ConversableAgent ( name="Agent__Business_Analyst", system_message="You are an expert business analyst with deep expertise in finance, strategy, marketing, and operations.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, ) chat_result = agent__venture_studio_founder.initiate_chat ( agent__business_analyst, message="""I want to identify companies that traditionally have weak P&L's such as thin profit margins, fickle customers, or are high susceptibility to market swings. Our thesis is we want to focus on industries such as Retail, CPG, Print, Entertainment, and e-Commerce so we only want to look at types of companies in those specific industries. We want to choose company types where Generative AI can produce outsized efficiencies to the P&L's. Don't want to consider company types where Generative AI cannot help. """, summary_method="reflection_with_llm", max_turns=2, )
L'output è piuttosto utile e fornisce a noi umani qualche idea su cosa fare dopo. Ma non è significativamente più prezioso del semplice porre la stessa domanda a ChatGPT in un singolo prompt.
Un pattern leggermente più avanzato è una chat sequenziale. In questo caso, abbiamo impostato più chat a due agenti, in cui l'output di ogni chat a due agenti viene passato a più chat a due agenti downstream. Pensa a questo design come a un CEO che affida un compito a un dipendente di livello inferiore, che prende decisioni e poi passa le decisioni attraverso più livelli di approvazione. Il codice di esempio per questo design è riportato di seguito.
# Define the Orchestrator agent__orchestrator = ConversableAgent( name="Agent__Orchestrator", system_message="You coordinate the analysis of an industry by passing tasks to other agents and summarizing their feedback.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the Brainstorm Agent agent__brainstorm_analyst = ConversableAgent( name="Agent__Brainstorm_Analyst", system_message="You analyze the given industry and generate a list of company types with weak P&L models where AI can deliver substantial improvements. Return this list.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the CFO agent__cfo = ConversableAgent( name="Agent__CFO", system_message="You criticize the provided list of company types from a financial POV, identifying weaknesses in margins, capex, opex, inventory, and liquidity. Remove companies that are too risky.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the CTO agent__cto = ConversableAgent( name="Agent__CTO", system_message="You criticize the provided list of company types from a technology POV, identifying risks in tech implementation, cost, complexity, and feasibility. Remove companies that are too risky.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the CMO agent__cmo = ConversableAgent( name="Agent__CMO", system_message="You criticize the provided list of company types from a marketing POV, identifying risks in go-to-market, media costs, and customer acquisition and retention. Remove companies that are too risky.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", )
Questo modello produce un feedback significativamente più mirato e dettagliato ora che è stato esaminato da una schiera di esperti. E sottolinea l'importanza di progettare il sistema di agenti giusto per il compito giusto.
AutoGen fornisce esempi per molti diversi modelli di progettazione, tra cui Group Chats e Nested Chats, ma il campo è incredibilmente nascente, e i potenziali progetti e architetture sono illimitati. Abbiamo esaminato proposte e whitepaper per:\
È un campo affascinante e stiamo sperimentando attivamente nuovi framework e modelli di progettazione per fornire carburante per razzi alle nostre capacità decisionali e operative presso Super Vision Studios. Se questo è un campo interessante per te, contattaci, ci piacerebbe interagire con altri professionisti intelligenti nel campo.
Informazioni su Super Vision Studio
Super Vision è uno studio di venture capital basato sull'intelligenza artificiale, focalizzato sulla creazione di "marchi del futuro".
Per maggiori informazioni, visita