Os cuento aquí los motivos de esta fuerte caída, especialmente en el Nasdaq:
¿𝗤𝘂é 𝗲𝘀 𝗗𝗲𝗲𝗽𝗦𝗲𝗲𝗸?
DeepSeek es una IA creada por Scale AI, una empresa china que afirma que puede entrenar modelos de nivel GPT-4 a un coste que ronda entre 1/20 y 1/45 del habitual, una auténtica locura. Por unos 5-6 millones de dólares han alcanzado un nivel en el que otros gastan más de 100 millones. Están usando nuevas técnicas como MoE (Mixture of Experts), multi-token steps, compresión sofisticada y actualizaciones de Chain of Thought, que supuestamente reducen los requisitos de GPU tanto para el entrenamiento como para la inferencia. Si es cierto, es un cambio total en la carrera armamentística de la IA. Y lo cierto es que, probándolo este fin de semana, me ha parecido bestial la rapidez y la calidad de sus respuestas siendo encima gratuito.
¿𝗣𝗼𝗿 𝗾𝘂é 𝗲𝘀 𝘁𝗮𝗻 𝗶𝗺𝗽𝗼𝗿𝘁𝗮𝗻𝘁𝗲 𝗽𝗮𝗿𝗮 𝗡𝗩𝗜𝗗𝗜𝗔?
El argumento principal de NVIDIA es que todo el mundo está invirtiendo miles de millones en IA, por lo que la demanda de GPU es insaciable. Los grandes márgenes de NVIDIA, muy por encima del 70%, provienen de su ecosistema de software (CUDA, controladores) y hardware de alta gama. Pero si estos nuevos enfoques de código abierto reducen drásticamente la necesidad de esa potencia, entonces surgen las dudas de si las implementaciones de IA están sobreabastecidas. Y si grandes empresas como Meta o Microsoft dicen de repente: "Oye, ya no necesitamos menos GPU", incluso un pequeño recorte en el gasto de capital puede dañar la elevada valoración de NVIDIA.
𝗘𝗹 𝗖𝗶𝘀𝗻𝗲 𝗡𝗲𝗴𝗿𝗼
Por todo esto, algunos consideran que DeepSeek es un posible cisne negro. Si genera una reacción en cadena de dudas sobre el retorno de la inversión en IA o si impulsa a los equipos directivos a reducir el gasto, ello afectará negativamente al crecimiento de NVIDIA. Y, dado que sus acciones tienen un múltiplo altísimo, cualquier desaceleración o presión sobre los márgenes podría hacerla tambalear.
No obstante, algunos sostienen que estas ganancias de eficiencia abaratan el uso de IA, por lo que su uso explotará alimentando igualmente por una mayor demanda de GPU. Aquí es donde entra en juego la paradoja de Jevons: si los menores costes de entrenamiento conducen a una adopción más amplia de la IA, la demanda total de GPU podría, paradójicamente, terminar siendo mayor.
En todo caso, el éxito de DeepSeek pone de relieve la posibilidad de que tal vez no necesitemos gastar más de 200.000 millones de dólares en nuevo hardware al año si podemos acercarnos al rendimiento de GPT-4 gastando una fracción de lo inicialmente estimado.
Todo esto como mínimo a darle una vuelta a cuánto gasto de capital es realmente necesario y si NVIDIA puede mantener unos márgenes que son casi de monopolio.
Y vosotros, ¿cómo lo veis?
Saludos,
X-Trader