Estamos a principios de 2025 y es posible que ya estemos presenciando un momento decisivo para la IA tal como la conocemos en los últimos años. ¿Está a punto de cambiar el canon de “más GPU es todo lo que necesitas”?
Qué giro tan inusual de los acontecimientos. En primer lugar, el Proyecto Stargate . La empresa conjunta creada por OpenAI, SoftBank, Oracle y la firma de inversiones MGX tiene como objetivo invertir hasta 500.000 millones de dólares en infraestructura de inteligencia artificial en Estados Unidos hasta 2029.
Arm, Microsoft, Nvidia, Oracle y OpenAI son los socios tecnológicos iniciales clave de lo que se ha denominado “el proyecto Manhattan del siglo XXI”, con el apoyo directo de la administración estadounidense. El presidente Donald Trump lo calificó como “el proyecto de infraestructura de inteligencia artificial más grande de la historia”.
La lista de socios tecnológicos líderes con sede en Estados Unidos en el proyecto y la enorme inversión en lo que ha sido una iniciativa estratégica para Estados Unidos (infraestructura de IA para asegurar el liderazgo en IA) es lo que impulsa el paralelismo con el Proyecto Manhattan.
Los dos fabricantes de chips de IA que aparecen en la lista (Arm y Nvidia) están dirigidos por directores ejecutivos de origen taiwanés. Esto es notable, teniendo en cuenta las tensas relaciones que Taiwán mantiene con China y el hecho de que el Proyecto Stargate es el último de una serie de políticas estadounidenses recientes que apuntan a fortalecer la infraestructura y los conocimientos técnicos de IA nacionales, al tiempo que imponen limitaciones al resto del mundo , principalmente a China.
Sin embargo, nada de eso importó para el mercado, que hizo que las acciones de Nvidia se dispararan una vez más en los últimos dos años con el anuncio del Proyecto Stargate . Pero todo eso fue antes del lanzamiento de DeepSeek R1.
DeepSeek R1 es un nuevo modelo de razonamiento de código abierto, publicado apenas unos días después del anuncio del Proyecto Stargate. El modelo fue desarrollado por la empresa china de inteligencia artificial DeepSeek, que afirma que R1 iguala o incluso supera a ChatGPT o1 de OpenAI en múltiples puntos de referencia clave, pero funciona a una fracción del costo.
Lo destacable de DeepSeek R1 es que se desarrolló en China, a pesar de todas las restricciones que pesan sobre los chips de IA, que tienen como objetivo obstaculizar la capacidad de avanzar en el campo de la IA. ¿Significa eso que la idea convencional, centrada en OpenAI y en los EE. UU., de que “más GPU es todo lo que se necesita” en IA está a punto de cambiar radicalmente ?
La verdad es que, cuando hace unos días organizamos una conversación sobre chips de IA con Chris Kachris, ni el Proyecto Stargate ni DeepSeek R1 habían irrumpido en la escena de la IA. Aunque no previmos conscientemente estos avances, sabíamos que los chips de IA son un tema que merece atención y que Kachris es un experto en el tema.
Se ha convertido en una tradición para Orchestrate all the Things analizar chips de IA y ofrecer ideas de expertos en el campo, y la conversación con Kachris es la última pieza de esta tradición.
Chris Kachris es el fundador y director ejecutivo de InAccel , que ayuda a las empresas a acelerar sus aplicaciones utilizando aceleradores de hardware en la nube de forma más sencilla que nunca. También es un investigador muy citado con más de 20 años de experiencia en FPGA y aceleradores de hardware para aprendizaje automático, procesamiento de redes y procesamiento de datos.
Después de que Intel adquiriera recientemente InAccel , Kachris regresó a la investigación y actualmente trabaja como profesor asistente en el Departamento de Ingeniería Eléctrica y Electrónica de la Universidad de West Attica.
Al preparar el escenario para la conversación con esta noticia oportuna, el comentario inicial de Kachris fue que la innovación en chips de IA es un "deporte caro", por lo que se produce principalmente en la industria y no en el ámbito académico. Al mismo tiempo, sin embargo, señaló que los recursos necesarios no solo se reducen al dinero, sino que también implican talento e ingeniería.
Para Kachris, las políticas estadounidenses han ido por buen camino en cuanto a su objetivo de repatriar a los expertos y hacer que el país sea autosuficiente. Como ciudadano europeo, también pidió que la UE aplique iniciativas similares, al igual que muchas voces que piden que la UE mejore su capacidad de gestión de las GPU . Sin embargo, ¿qué podemos aprender de la experiencia adquirida con DeepSeek?
Según el informe “ Inteligencia artificial generativa en los países BRICS+ ”, a diferencia de otros países BRICS, China utiliza tanto tarjetas gráficas extranjeras (a través de la nube y en sus propios centros de datos) como tarjetas locales fabricadas por empresas chinas.
Actualmente, hay más de 10 empresas en China que están desarrollando sus propias tarjetas gráficas y, según se informa, el proceso de cambio a GPU locales después de usar NVIDIA no es difícil para las empresas chinas.
Parece que para seguir siendo competitivos en la carrera de la IA, los países tendrán que reconsiderar sus opciones, posiblemente copiando las estrategias de China . Kachris coincidió en que China ha estado progresando a pasos agigantados, primero imitando y luego desarrollando técnicas innovadoras propias.
“Pueden combinar y combinar diferentes versiones de GPU y otras unidades de procesamiento para crear un centro de datos o una nube potentes. Esto es muy útil, especialmente si piensas que, en el pasado, había que comprar equipos nuevos cada tres o cuatro años, tal vez”.
"Hoy en día, la innovación es tan rápida que casi todos los años tenemos chips y procesadores más potentes. ¿Tiene sentido tirar a la basura procesadores que tienen uno o dos años? Definitivamente, hay que encontrar una forma de utilizar los recursos, incluso si se trata de recursos heterogéneos. Esto sería mucho más rentable", afirma Kachris.
El costo informado de entrenamiento de DeepSeek R1 es un argumento sólido a favor de este enfoque. Además del entrenamiento en una infraestructura heterogénea, el enfoque de DeepSeek incluyó la reducción de la precisión numérica, la capacidad de lectura de múltiples tokens y la aplicación de una técnica inteligente de mezcla de expertos.
El resultado es una reducción de los costes de formación de 100 millones de dólares a unos 5 millones de dólares y una reducción de las necesidades de hardware de 100.000 GPU a apenas 2.000, lo que hace que el desarrollo de IA sea accesible en las GPU de juegos estándar. Es más, aunque DeepSeek no sea 100% de código abierto ( lo que sea que eso signifique para los LLM ), su proceso se puede replicar.
Los chips de IA y los modelos de IA de código abierto son parte de la capacitación integral en IA pragmática.
Teoría y laboratorios prácticos. Retiro con todo incluido. Cupo limitado.
Haga clic aquí para registrarse en la capacitación sobre inteligencia artificial pragmática
La reacción inmediata a la noticia fue una ola de ventas y las acciones de Nvidia cayeron un 17 % tras la noticia . El mercado ya había comenzado a corregir su rumbo en el momento de escribir este artículo, y tanto las tendencias alcistas como las descendentes eran algo predecibles.
Por un lado, lo que DeepSeek demostró fue que hay mucho margen para mejorar la eficiencia en el entrenamiento de los modelos de IA de mayor rendimiento, lo que socava activamente la creencia popular. Por otro lado, eso no significa que Nvidia no siga siendo el líder , y podemos esperar ver la paradoja de Jevon en acción una vez más .
Nvidia mantuvo el ritmo de innovación en 2024 , anunciando y posteriormente enviando su última arquitectura Blackwell, ampliando su ecosistema y alcanzando múltiples hitos financieros y comerciales. Kachris destacó que Nvidia ya no solo vende chips, sino que ha avanzado hacia la integración vertical de su tecnología NVLink con sus chips en la plataforma DGX .
Pero las GPU de Nvidia no son las únicas en la ciudad. AMD, por su parte, anunció un nuevo acelerador de IA, el Instinct MI325X . Como señaló Kachris, la serie MI300 es muy potente y cuenta con unidades especializadas para acelerar los transformadores, una arquitectura clave para los modelos de lenguaje grande. El crecimiento de AMD supuestamente está impulsado por los productos de IA y de centros de datos .
La gran mayoría de las personas y organizaciones serán usuarios de IA, no desarrolladores de IA. Para ellos, usar o incluso desarrollar aplicaciones de IA no es realmente una cuestión de entrenar su propio modelo, sino más bien de usar o ajustar un modelo previamente entrenado.
Kachris también destacó el progreso de Intel con Gaudi. Sin embargo, a pesar de las altas capacidades de rendimiento de Gaudi 3, Intel parece estar rezagado en términos de participación de mercado, en gran parte debido al software . Al mismo tiempo, Intel está tomando medidas para vender su unidad FPGA, Altera .
Según Kachris, los FPGAs pueden no ser la solución más eficaz para el entrenamiento de la IA, pero tienen mucho sentido para la inferencia, y aquí es donde hay un amplio margen para la competencia y la innovación. Es precisamente en esto (crear una capa de software para trabajar con FPGAs) en lo que estaba trabajando InAccel y lo que llevó a la adquisición por parte de Intel.
Naturalmente, Kachris enfatizó la importancia de la capa de software. Al final del día, incluso si un chip tiene un rendimiento superior, si no es fácil de usar para los desarrolladores a través de la capa de software, eso dificultará su adopción. Nvidia mantiene la ventaja significativa en la capa de software debido a su omnipresente pila CUDA , en la que sigue invirtiendo.
El resto de la industria, liderada por Intel a través de la iniciativa UXL Foundation/OneAPI , está haciendo esfuerzos para ponerse al día. AMD tiene su propia capa de software, ROCm. Pero no se logrará de la noche a la mañana. Como dijo Kachris, la capa de software tiene que permitir el uso de la capa de hardware sin cambiar una sola línea de código.
Nvidia también está intensificando su estrategia de inferencia y software con su marco NIM recientemente lanzado , que parece haber ganado cierta aceptación . La competencia también se está centrando en la inferencia . Hay una variedad de competidores como Groq , Tenstorrent , GraphCore , Cerebras y SambaNova , que compiten por una porción del mercado de inferencia.
Si bien DeepSeek es una muestra destacada de los beneficios de la optimización, no es la única. Kachris participó recientemente en una encuesta exhaustiva y una comparación de la aceleración de hardware de los LLM , muchos de los cuales estaban orientados a la inferencia.
Una forma de hacerlo es a través de las API de proveedores de IA, normalmente OpenAI o Anthropic. Sin embargo, para casos de uso más sofisticados, por razones relacionadas con la privacidad, el cumplimiento normativo, la ventaja competitiva, los requisitos de la aplicación o el coste, los usuarios finales querrán implementar modelos de IA en su propia infraestructura.
Esto puede incluir una amplia gama de entornos, desde locales y en la nube privada hasta el perímetro y el hardware. Especialmente con los LLM, existe incluso la opción de ejecutarlos localmente en máquinas listas para usar . Le preguntamos a Kachris si cree que la implementación local/en el perímetro de los LLM tiene sentido.
Kachris señaló que la inferencia puede funcionar con versiones "reducidas", es decir, cuantificadas, de los modelos de IA. Las investigaciones sugieren que incluso las versiones de 1 bit de los modelos son viables . Kachris señaló que, si bien existen arquitecturas de hardware especializadas, de las que están ampliamente disponibles, las GPU y los FPGA ofrecen el mejor rendimiento, siendo los FPGA más eficientes energéticamente.
En cuanto a los desarrollos futuros, Kachris destacó la computación en memoria como un área a tener en cuenta. La idea principal es poder combinar almacenamiento y computación en la misma unidad, eliminando así la necesidad de transferencia de datos y dando lugar a un mejor rendimiento. Esto se inspira en la forma en que funcionan las redes neuronales biológicas y se conoce como computación neuromórfica.
Hay más áreas de desarrollos dignos de mención, como los chiplets , chips especializados diseñados para la arquitectura del transformador que impulsa los LLM , la tecnología fotónica y los nuevos lenguajes de programación para IA .
En términos de perspectivas a más corto y mediano plazo, y la cuestión de si hay lugar para la innovación en un mundo dominado por Nvidia, Kachris cree que los sistemas integrados y la inteligencia artificial de borde representan una oportunidad para los desafiantes:
“Existen diferentes requisitos y especificaciones en el ámbito de la inteligencia artificial de borde. Creo que hay espacio para la innovación en la inteligencia artificial de borde, por ejemplo, en aplicaciones de video para hospitales o en la conducción autónoma y la aviación.
Creo que va a suceder. Hablemos de las GPU. NVIDIA es líder en GPU, pero faltaban GPU para dispositivos portátiles. Y vimos a una gran empresa, Think Silicon , dar un paso adelante y desarrollar una GPU especializada para pulseras de actividad o relojes inteligentes, y luego fue adquirida por Applied Materials .
La innovación se producirá en áreas que son demasiado pequeñas para empresas como Nvidia o Intel, pero lo suficientemente buenas para empresas más pequeñas que pueden fabricar productos especializados”.
Historias sobre cómo la tecnología, los datos, la inteligencia artificial y los medios se combinan para dar forma a nuestras vidas.
Análisis, ensayos, entrevistas y noticias. Edición media a larga, 1-3 veces al mes.