Dieser Artikel wurde gemeinsam mit Tim Shea von Super Vision Studio verfasst.
Der bei weitem überzeugendste Anwendungsfall für Generative AI ist nicht der Ersatz menschlicher Arbeitskräfte oder die Automatisierung streng definierter Arbeitsabläufe, sondern vielmehr die enorme Erweiterung der Dimensionen, die Menschen bei der Entscheidungsfindung erkunden können. In dieser Hinsicht sind LLMs und Diffusionsmodelle unglaubliche Brainstorming-Partner. Wir können LLMs über den Wissensbereich informieren, den sie darstellen sollen, und dann genau definieren, wie wir das Ergebnis sehen möchten. Wir könnten zum Beispiel fragen:
„Ich möchte eine Datenbank mit Luxus-Einzelhandelsholdings wie VF Corporation, New Guard Group, Only The Brave und LVMH sowie den Marken erstellen, die sie kürzlich erworben haben. Können Sie bitte eine Excel-Tabelle mit den folgenden Spalten erstellen: Holdinggesellschaft, Markenname, Erwerbsbetrag, Erwerbsdatum, Begründung für den Erwerb“
Abfragen wie diese gelten heute als Mindestanforderung und stellen eine erstaunliche Verbesserung gegenüber herkömmlichen Suchmaschinen dar, die im Zeitalter der generativen künstlichen Intelligenz mittlerweile altmodisch erscheinen.
Manche Entscheidungsprozesse können jedoch äußerst komplex sein. Manchmal möchten wir in der Lage sein, Entscheidungen zu modellieren, die zwischen mehreren spezialisierten Personen (wie einem CEO, CMO oder CTO) oder spezialisierten Modulen (wie einem API-Connector, K1-Parser oder SWOT-Analysator) stattfinden können. In der realen Welt würden wir die Ergebnisse dieser Excel-Tabelle nehmen und sie durch eine Reihe menschlicher Experten laufen lassen. Strategen, Investoren und Fachexperten würden sich einschalten. Wir würden „Was wäre wenn“-Szenarien für die Übernahmen entwerfen, uns mit den Gewinn- und Verlustrechnungen befassen und uns Markteinführungspläne für mögliche zukünftige Übernahmen ausdenken. Aber dank moderner LLMs können wir jetzt individualisierte KI-Agenten erstellen, die jedes dieser Verhaltensweisen modellieren und simulieren können, dass wir einen Raum voller Experten haben, die unsere Entscheidungen beeinflussen.
Als wir Super Vision Studio gründeten – ein KI-gestütztes Venture-Studio, das sich auf die Schaffung von „Future Brands“ konzentrierte –, wandten wir uns sofort Multi-Agent-KI-Systemen zu, um die proprietären Entscheidungsprozesse zu modellieren, die wir unser „Super Vision OS“ nennen. Damit können wir riesige Geschäftsdatenbanken nach schwachen Gewinn- und Verlustmodellen durchforsten, bei denen KI überproportionale Verbesserungen liefern kann. Wir können den Agenten in unserem OS hypothetische Aufgaben zu Einzelhandel, Verbrauchsgütern, Druck, Unterhaltung oder E-Commerce stellen. Die Agenten können Zahlen verarbeiten, dozieren und miteinander diskutieren. Die Agenten können sogar Ergebnisse produzieren, die von anderen Agenten kritisiert und überarbeitet werden.
Multi-Agenten-Systeme haben eine Reihe von Vorteilen gegenüber einfachen LLM-Chat-Schnittstellen: Jeder Agent im System kann mit einer enormen Menge an Fachwissen geschult werden
Wir haben auch eine große Auswahl an Standardoptionen für die Einrichtung maßgeschneiderter Multi-Agent-Systeme wie AutoGen, CrewAI und LangChain. Wir haben uns für AutoGen entschieden, weil es kostenlos ist, jede Menge Einführungsvideos bietet und Beispielcode für mehrere verschiedene Multi-Agent-Architekturen bietet, die konfiguriert und gestapelt werden können. AutoGen katalogisiert eine umfangreiche Liste mit Beispielen für sogenannte „Konversationsmuster“ (wie Zwei-Agent-Chat, sequentieller Chat, Gruppenchat und verschachtelter Chat).
Diese Muster oder Architekturen sind ein wichtiger Teil des Designprozesses des Agentensystems. Es ist vergleichbar damit, wie Sie ein Team menschlicher Experten zusammenstellen und die Regeln für deren Zusammenarbeit vorab festlegen. Unterschiedliche Designs können völlig unterschiedliche Ergebnisse hervorbringen.
Das einfachste Muster, das AutoGen bietet, ist ein Chat mit zwei Agenten, bei dem wir die Persona jedes Agenten definieren, ein Agent dem anderen einfach die ursprüngliche Frage stellt und die Agenten ein Problem eine festgelegte Anzahl von Malen hin und her besprechen. Es ist einfach einzurichten und wir können jede Interaktion innerhalb ihres Gesprächs wörtlich lesen. Der Beispielcode ist unten:
import os from autogen import ConversableAgent agent__venture_studio_founder = ConversableAgent ( name="Agent__Venture_Studio_Founder", system_message="You are the founder owner of a venture studio with expertise in funding and building technology and retail brands.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, ) agent__business_analyst = ConversableAgent ( name="Agent__Business_Analyst", system_message="You are an expert business analyst with deep expertise in finance, strategy, marketing, and operations.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, ) chat_result = agent__venture_studio_founder.initiate_chat ( agent__business_analyst, message="""I want to identify companies that traditionally have weak P&L's such as thin profit margins, fickle customers, or are high susceptibility to market swings. Our thesis is we want to focus on industries such as Retail, CPG, Print, Entertainment, and e-Commerce so we only want to look at types of companies in those specific industries. We want to choose company types where Generative AI can produce outsized efficiencies to the P&L's. Don't want to consider company types where Generative AI cannot help. """, summary_method="reflection_with_llm", max_turns=2, )
Die Ausgabe ist ziemlich nützlich und gibt uns Menschen einige Ideen, was als nächstes zu tun ist. Aber sie ist nicht wesentlich wertvoller, als ChatGPT einfach dieselbe Frage in einer einzigen Eingabeaufforderung zu stellen.
Ein etwas fortgeschritteneres Muster ist ein sequentieller Chat. In diesem Fall richten wir mehrere Chats mit zwei Agenten ein, wobei die Ergebnisse jedes Chats mit zwei Agenten an mehrere nachfolgende Chats mit zwei Agenten weitergegeben werden. Stellen Sie sich dieses Design so vor, als ob ein CEO eine Aufgabe an einen Mitarbeiter auf niedrigerer Ebene übergibt, der Entscheidungen trifft und diese dann durch mehrere Genehmigungsebenen weiterleitet. Beispielcode für dieses Design finden Sie unten.
# Define the Orchestrator agent__orchestrator = ConversableAgent( name="Agent__Orchestrator", system_message="You coordinate the analysis of an industry by passing tasks to other agents and summarizing their feedback.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the Brainstorm Agent agent__brainstorm_analyst = ConversableAgent( name="Agent__Brainstorm_Analyst", system_message="You analyze the given industry and generate a list of company types with weak P&L models where AI can deliver substantial improvements. Return this list.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the CFO agent__cfo = ConversableAgent( name="Agent__CFO", system_message="You criticize the provided list of company types from a financial POV, identifying weaknesses in margins, capex, opex, inventory, and liquidity. Remove companies that are too risky.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the CTO agent__cto = ConversableAgent( name="Agent__CTO", system_message="You criticize the provided list of company types from a technology POV, identifying risks in tech implementation, cost, complexity, and feasibility. Remove companies that are too risky.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", ) # Define the CMO agent__cmo = ConversableAgent( name="Agent__CMO", system_message="You criticize the provided list of company types from a marketing POV, identifying risks in go-to-market, media costs, and customer acquisition and retention. Remove companies that are too risky.", llm_config={"config_list": [{"model": "gpt-4", "api_key": os.environ["OPENAI_API_KEY"]}]}, human_input_mode="NEVER", )
Dieses Muster führt nun, nachdem es von einer ganzen Reihe von Experten geprüft wurde, zu deutlich gezielterem und detaillierterem Feedback. Und es unterstreicht, wie wichtig es ist, für die richtige Aufgabe das richtige Agentensystem zu entwickeln.
AutoGen bietet Beispiele für viele verschiedene Designmuster, darunter Gruppenchats und verschachtelte Chats, aber das Feld ist unglaublich jung und die möglichen Designs und Architekturen sind grenzenlos. Wir haben uns Vorschläge und Whitepaper für angesehen:\
Es ist ein faszinierendes Feld und wir experimentieren aktiv mit neuen Frameworks und Designmustern, um unsere Entscheidungsfindung und unsere operativen Fähigkeiten bei Super Vision Studios voranzutreiben. Wenn dies ein interessantes Feld für Sie ist, wenden Sie sich bitte an uns. Wir würden uns gerne mit anderen klugen Praktikern auf diesem Gebiet austauschen.
Über Super Vision Studio
Super Vision ist ein KI-gesteuertes Venture-Studio, das sich auf den Aufbau von „Zukunftsmarken“ konzentriert.
Weitere Informationen finden Sie unter