Vista rápida: Lo que los inversores deberían saber del GTC 2025 de NVIDIA
El gestor de fondos Richard Clode comenta las principales lecciones extraídas de la conferencia anual de tecnología de NVIDIA, un evento clave que destaca el rápido avance de la revolución de la IA, incluidas las oportunidades creadas por la IA agéntica.

5 minutos de lectura
Aspectos destacados:
- Los tokens, no los datos, son el "nuevo petróleo", que impulsa una mayor inteligencia y los ingresos y beneficios que lleva aparejados. Los modelos de razonamiento están posibilitando la IA agéntica al crear nuevos y grandes mercados abordables para la IA.
- El mercado ha malinterpretado las implicaciones de DeepSeek. Las necesidades de cómputo de IA se expanden a un ritmo exponencial con modelos de razonamiento, mientras que las capacidades de IA de China probablemente hayan tocado techo debido a las restricciones impuestas a los semiconductores de EE. UU.
- Los desafíos de potencia de la IA se resolverán mediante la innovación tecnológica, lo que crea oportunidades de inversión en toda la pila tecnológica.
Los tokens son el "nuevo petróleo"
Los datos solían ser el "nuevo petróleo", pero en un mundo de IA generativa donde la creación de datos sintéticos es ilimitada, los tokens son ahora el nuevo recurso de poder. La innovación original del modelo transformador que revolucionó y marcó el comienzo de la era de la IA generativa se asienta en la tokenización. Los tokens son unidades de datos que los modelos de IA procesan durante el entrenamiento y la inferencia, lo que posibilita la predicción, la generación y el razonamiento. Por lo tanto, equivalen a inteligencia y, en última instancia, generarán mayores ingresos y beneficios.
El consejero delegado de NVIDIA, Jensen Huang, hace tiempo que habla de las "fábricas de IA", es decir, centros de datos basados en IA que crean tokens y, por tanto, inteligencia para diseñar mejor los productos, dirigir empresas de manera más eficiente y mejorar la calidad del servicio de atención al cliente. En este contexto, vislumbra un futuro en el que cada empresa tendrá dos tipos de fábricas: manufactureras y matemáticas. NVIDIA, como líder en chips de IA avanzados, está empezando a diseñar los chips del futuro con herramientas de software de Automatización de Diseño Electrónico (EDA) aceleradas por IA, software que recientemente se ha optimizado para trabajar en el lenguaje de programación CUDA de NVIDIA. La compañía también anunció una alianza integral con GM (General Motors) que permitirá a esta última utilizar la IA para facilitar el diseño de automóviles, mejorar la eficiencia y habilitar la conducción autónoma.
IA agéntica: la próxima ola de IA
Continuamos en la fase inicial de la curva de innovación de la IA generativa. La nueva ley de escalamiento que Jensen Huang ha venido señalando es el escalado del tiempo de prueba o los modelos de razonamiento de ideas de largo alcance, que exigen un método de tratamiento de ideas más largo para obtener una respuesta más precisa en lugar de priorizar la velocidad. Estos modelos de razonamiento, introducidos recientemente en el mercado, permiten la IA agéntica. Se trata de una IA con "intervención", en el sentido de que entiende el contexto del problema que se le ha pedido resolver. El avance aquí es que ahora puede razonar y planificar una acción para resolver el problema de una manera multimodal. Eso podría implicar leer un artículo en un sitio web o ver un video y luego tomar simultáneamente varios caminos posibles para resolver el problema; después se verifica la coherencia de las respuestas o se vuelve a vincular esas respuestas con la pregunta. Esto resuelve las dificultades que tenían ChatGPT y otros modelos de inferencia de una sola toma para responder preguntas simples y, desde luego, otras más complejas. La IA agéntica es una inteligencia mayor que permite la próxima ola, desde los copilotos hasta los agentes de IA que pueden completar tareas sin supervisión con un alto grado de precisión y consistencia. La IA agéntica amplía considerablemente el mercado al que se dirige la IA y abre nuevas aplicaciones físicas en este campo, como los humanoides y la conducción autónoma, en las que entran en juego fuerzas del mundo real como la gravedad, la fricción y la "causa y efecto".
Se aclara el malentendido de DeepSeek
Jensen se esforzó por dejar claro que el mercado había malinterpretado por completo las implicaciones del lanzamiento del modelo R1 de DeepSeek a principios de este año. Al comparar una respuesta de DeepSeek con un modelo estándar sin razonamiento de Meta, la respuesta del primero fue más certera pero también precisó 20 veces más tokens y 150 veces más cómputo que Meta. DeepSeek, lejos de indicar menos requisitos de cómputo en lo sucesivo, supuso un "escape" para los modelos de razonamiento, lo que abre un nuevo vector de escalado para los requisitos de cómputo de IA.
NVIDIA también presentó su hoja de ruta hasta 2027, que culmina con su próximo superchip de IA, Rubin Ultra, que multiplicará por más de 400 veces el rendimiento de Hopper. Esto es importante porque las actuales restricciones a la exportación de semiconductores de EE. UU. (destinadas a limitar el acceso de China a semiconductores avanzados y al equipo necesario para producirlos) ponen un techo absoluto a la computación de IA a un nivel de Hopper degradado. En los próximos años, los nuevos modelos chinos de IA se verán limitados por ese techo de cómputo, mientras que a nivel mundial es probable que los modelos de IA se entrenen en una infraestructura de IA que ofrezca un rendimiento exponencialmente mayor. Eso podría indicar que probablemente estemos en un punto relativamente alto en las capacidades de IA de China en relación con el resto del mundo.
Las soluciones full stack resolverán el problema de la potencia de la IA
NVIDIA nunca ha sido solo una compañía de semiconductores, pues una cantidad importante de los aumentos de rendimiento y ahorros de energía generados se han logrado gracias a la innovación en software y redes. Jensen siempre ha hablado de que la IA generativa es un problema de pila completa (full stack) que exige una solución full stack. En su evento GTC, la compañía presentó nuevas innovaciones, como la óptica co-empaquetada y la virtualización de su software Dynamo. Las redes ópticas en clústeres de entrenamiento de IA consumen una gran cantidad de energía al emplear 6 transceptores por GPU, que consumen 30 vatios de energía cada uno, de modo que a medida que los clústeres de entrenamiento escalan, también lo hace el consumo de potencia óptica. Al empaquetar componentes ópticos en los propios conmutadores, NVIDIA afirma que puede proporcionar una eficiencia energética 3,5 veces superior utilizando 4 veces menos láseres. Dynamo es una capa de software de virtualización que optimiza las cargas de trabajo de inferencia mediante la virtualización de las GPU y el reparto de tales cargas, lo que multiplica por 30 veces el rendimiento de la inferencia.
Seguimos creyendo que los retos que implica alcanzar la potencia energética que se precisa para avanzar y ejecutar la IA se resolverán mediante innovación tecnológica. Por consiguiente, se pueden encontrar oportunidades de inversión en toda la pila tecnológica más convincentes que en las compañías de suministros públicos y de infraestructura energética.
IA agéntica: utiliza un razonamiento sofisticado y una planificación iterativa para resolver problemas complejos de varios pasos de forma autónoma. Se utilizan inmensas cantidades de datos procedentes de múltiples fuentes y aplicaciones de terceros para analizar de forma independiente los problemas, desarrollar estrategias y ejecutar tareas.
CUDA: un lenguaje de programación desarrollado por NVIDIA que utiliza Unidades de Procesamiento Gráfico (GPU). Permite que los cálculos se realicen en paralelo al tiempo que ofrece una buena velocidad de navegación. Gracias a CUDA, las GPU de Nvidia pueden realizar tareas informáticas habituales, como el procesamiento de matrices y otras operaciones de álgebra lineal, en lugar de simplemente realizar cálculos gráficos.
DeepSeek: una start-up china de IA y desarrolladora de grandes modelos de lenguaje (LLM) avanzados de código abierto como DeepSeek-V3, un rival clave y una opción menos costosa que ChatGPT de OpenAI y Gemini de Google.
Automatización del diseño electrónico (EDA): una categoría específica de hardware, software, servicios y procesos que utilizan el diseño asistido por ordenador para desarrollar sistemas electrónicos complejos, como placas de circuito impreso, circuitos integrados y microprocesadores. El empaquetamiento denso de elementos en una placa de circuito o un microprocesador requiere diseños sumamente complejos. El software EDA utiliza procesos automatizados y estandarizados que facilitan un desarrollo rápido, al tiempo que minimizan los fallos, defectos y otros errores de diseño.
Solución full stack: se refiere a un enfoque integral para el desarrollo de software que cubre todos los niveles de una aplicación o proyecto. Incluye tanto los componentes front-end como los back-end, así como cualquier otro nivel necesario para que la aplicación funcione plenamente.
GPU: una unidad de procesamiento de gráficos realiza cálculos matemáticos y geométricos complejos que son necesarios para la representación de gráficos y también se utilizan en juegos, creación de contenido y aprendizaje automático.
Inferencia: se refiere al procesamiento de la inteligencia artificial. Mientras que el aprendizaje automático y el aprendizaje profundo remiten al entrenamiento de redes neuronales, la inferencia de la IA aplica conocimientos derivados de un modelo de red neuronal entrenado y lo utiliza para inferir un resultado.
LLM (gran modelo de lenguaje): tipo especializado de inteligencia artificial que se ha entrenado con grandes cantidades de texto para entender contenidos existentes y generar contenidos originales.
Razonamiento de largo alcance: proceso deliberado y prolongado que permite examinar la información y los resultados potenciales mediante el análisis de múltiples perspectivas, teniendo en cuenta las implicaciones a largo plazo y sopesando minuciosamente varios factores antes de llegar a una conclusión.
Inferencia de una sola toma: se refiere al método en el que se proporciona a un modelo un solo ejemplo o mensaje para realizar una tarea. Depende de un solo mensaje bien elaborado para lograr el resultado deseado.
Escalado del tiempo de prueba: enfoque de simulación del lenguaje que utiliza el cálculo adicional del tiempo de prueba para mejorar el rendimiento.
Token: Los tokens de IA son los componentes fundamentales de entrada y salida que utilizan los modelos de lenguaje grandes (LLM). Estas unidades de datos son procesadas por modelos de IA durante el entrenamiento y la inferencia, lo que permite la predicción, la generación y el razonamiento.
Estas son las opiniones del autor en el momento de la publicación y pueden diferir de las opiniones de otras personas/equipos de Janus Henderson Investors. Las referencias realizadas a valores concretos no constituyen una recomendación para comprar, vender o mantener ningún valor, estrategia de inversión o sector del mercado, y no deben considerarse rentables. Janus Henderson Investors, su asesor afiliado o sus empleados pueden tener una posición en los valores mencionados.
La rentabilidad histórica no predice las rentabilidades futuras. Todas las cifras de rentabilidad incluyen tanto los aumentos de las rentas como las plusvalías y las pérdidas, pero no refleja las comisiones actuales ni otros gastos del fondo.
La información contenida en el presente artículo no constituye una recomendación de inversion.
No hay garantía de que las tendencias pasadas continúen o de que se cumplan las previsiones.
Comunicación Publicitaria.
Información importante
Le recomendamos que lea la siguiente información acerca de los fondos relacionados con el presente artículo.