En el calor de la locura inicial de ChatGPT, recibí un mensaje de texto de un ex compañero de trabajo. Quería comentarme una idea. Como siempre le gusta intercambiar ideas, nos pusimos en contacto por teléfono y empezó diciendo: “¿Recuerdas cómo solías pedirme que extrajera datos para ti? ¿Qué pasaría si pudieras hacerlo tú mismo?”. Y luego procedió a presentarme una idea que miles (¿decenas de miles?) de otras personas estaban pensando al mismo tiempo: los LLM se podrían usar para convertir texto a SQL para ayudar a las personas menos técnicas a responder sus propias preguntas sobre datos.
Me enganché con la idea, pero antes de lanzarme de cabeza, le dije a Lei (ahora mi CTO) que teníamos que hacer una validación. Nos pusimos en contacto con amigos y antiguos compañeros de trabajo de varias industrias. Había un gran interés en el "análisis de autoservicio" real. Sabíamos que sería mucho más complicado de lo que parecía, pero la oportunidad parecía demasiado buena como para dejarla pasar. Así que Lei y yo dejamos The Shire y nos embarcamos en nuestro viaje para crear nuestra visión:
Esta publicación no trata sobre nuestro producto en sí (aunque, si tiene curiosidad, puede leer más sobre cómo algunas de las ideas a continuación informaron nuestro trabajo reciente con el producto).
Nota: Este viaje carece lamentablemente de magos y batallas épicas en la Tierra Media. 🧙
No nos extenderemos demasiado en el "por qué". Si estás leyendo esto, es probable que pertenezcas a uno de estos dos grupos:
Dejando de lado la preocupación por el papel de los analistas y científicos de datos, la idea de una IA omnisciente que pueda responder a cualquier pregunta sobre los datos de una organización suena bien. O al menos, suena bien para la organización y sus líderes empresariales, cuya creatividad para encontrar nuevas formas de hacer preguntas no tiene límites. Esta IA podría ser la solución para crear una organización “impulsada por los datos” en la que cada líder se apoye en evidencia empírica para tomar sus decisiones estratégicas. Y todo a una fracción del costo que normalmente costaría. ¡Por fin! Las organizaciones pueden sacar provecho de ese “nuevo petróleo” del que han oído hablar desde 2010.
Pero si este es un problema tan valioso para resolver y la IA se ha vuelto tan buena, ¿por qué ningún producto lo ha resuelto hasta ahora?
Las encuestas recientes de la industria muestran un panorama complejo de la adopción de IA en la empresa.
Los usuarios de IA, especialmente en el ámbito empresarial, tienen expectativas muy altas en lo que respecta a la tecnología. En el contexto del análisis de datos y el sueño del autoservicio, esperamos que nuestras herramientas de IA:
Lamentablemente, la mayoría de las soluciones actuales utilizan un marco de IA monolítico tradicional, que a menudo no cumple con las expectativas. En los últimos años, el equipo de Fabi.ai y yo trabajamos arduamente en este problema. Creamos prototipos para la empresa y exploramos muchas opciones. Al final, nos dimos cuenta de que ni la Generación de Aumentos de Recuperación (RAG) ni el ajuste fino podían solucionar este problema con el marco monolítico actual.
Cuando probamos este enfoque, nos quedaron claras algunas cosas:
Después de analizar estas cuestiones, pensamos en cómo lograr que la IA se adapte mejor a los problemas. Fue entonces cuando los agentes de IA entraron en juego y consolidaron este concepto para nosotros.
En el momento en que vimos los marcos de trabajo de Agentic, supimos que cambiarían las reglas del juego. De repente, sentimos que podíamos dejar que la IA decidiera cómo responder a las preguntas. Podría seguir unos pasos y resolver los problemas por sí sola. Si la IA escribe una consulta SQL que no tiene valores nulos en el campo "Tipo de cuenta", puede ejecutar la consulta en seco, detectar el error y solucionarlo por sí sola. Pero, ¿qué pasaría si pudiéramos llevar esto un paso más allá y dejar que la IA opere principalmente en Python y aproveche los LLM? Ahora, la IA hace más que extraer datos. Puede usar paquetes de Python o LLM para encontrar valores atípicos, tendencias o información única, que normalmente tendría que buscar manualmente.
Pero todavía teníamos un problema: los datos empresariales desordenados. Creíamos que las organizaciones podían resolverlo mediante prácticas sólidas de ingeniería de datos, como un
A medida que las empresas crecen, manejan más datos y tienen más usuarios. La idea de la malla de agentes ayuda a equilibrar la toma de decisiones rápida con el control necesario para la gobernanza. Los agentes especializados ayudan a establecer límites y responsabilidades claros para cada IA. También crean una forma escalable para que los agentes se comuniquen. Además, pueden ayudar a administrar recursos de manera eficiente en todos los equipos y empresas.
La idea detrás de un agente especializado es que este agente puede y solo responderá preguntas sobre un conjunto de datos muy definido. Por ejemplo, puede crear y lanzar un agente de IA que responda preguntas sobre campañas de marketing. O puede crear otro para responder preguntas sobre el flujo de marketing, y así sucesivamente.
Hay un solo defecto: los usuarios necesitan saber a qué agente acudir para cada pregunta. Es como necesitar saber cuál es el analista de marketing adecuado al que hacerle una pregunta en lugar de simplemente hacer una pregunta general. Con una pregunta general, alguien del equipo puede dirigirla a la persona adecuada. Aquí es donde entra en juego el concepto de "malla de agentes".
Si un solo agente puede responder de forma fiable a preguntas específicas de un dominio, ¿por qué no dejar que los agentes hablen entre sí? ¿Por qué, por ejemplo, el agente de la campaña de marketing no puede preguntar directamente al agente del pipeline si puede responder una pregunta con más facilidad? Creemos que debería poder hacerlo. De hecho, creemos que en el futuro habrá redes de agentes con una estructura jerárquica. Podemos imaginar un "agente GTM" que llama al "agente de marketing". Este agente llama entonces tanto al "agente del pipeline" como al "agente de la campaña de marketing".
Esta idea es como una idea más general que circula alrededor de la IA conocida como "
Este enfoque de malla ofrece algunas ventajas clave sobre una IA monolítica (en una capa semántica prístina):
Al final, esta idea de una malla no es novedosa. Refleja el concepto de una combinación de expertos que ha demostrado mejorar la precisión de los LLM. Simplemente se trata de tomar esa misma idea y aplicarla a los agentes de IA.
En Fabi.ai, tenemos un largo camino por recorrer en la creación de una red de agentes analistas, pero ya hemos superado algunos de los grandes desafíos de infraestructura técnica a lo largo del camino.
Los agentes de análisis de datos de IA necesitan una arquitectura única. Este diseño debe permitirles usar Python o LLM para responder preguntas, mantenerse sincronizados con las fuentes de datos y adaptarse a plataformas colaborativas, sin dejar de ser seguros y escalables. Cada agente debe operar en su propio núcleo de Python, que debe activarse o desactivarse rápidamente para reducir costos y mantenerse sincronizado con los datos de origen.
Las arquitecturas que no proporcionan núcleos individuales a cada agente pueden enfrentar uno de los siguientes riesgos:
El desafío de construir este tipo de plataforma es tanto un desafío de IA como de DevOps.
A medida que las empresas gestionan más aplicaciones de IA en sus operaciones, necesitan enfoques especializados y bien gobernados. El marco de trabajo de malla de agentes utiliza agentes de datos de IA especializados como un medio para escalar la IA en el análisis de datos. Este enfoque mantiene intactos la seguridad, la confiabilidad y el rendimiento.
Podríamos haber esperado que la IA estuviera en todas partes a estas alturas, respondiendo a la mayoría de las preguntas sobre datos. Pero, si observamos con atención, el progreso en solo dos años desde que se lanzó ChatGPT es impresionante. Todavía tenemos mucho que aprender en este viaje. Sin embargo, en mi opinión, los agentes y los marcos de malla de agentes serán clave para la IA empresarial.