por admin » Lun Ene 27, 2025 9:19 pm
Nvidia llama al modelo DeepSeek R1 de China "un excelente avance de la IA"
PUBLICADO EL LUNES 27 DE ENERO DE 2025 A LAS 3:28 P. M. EST ACTUALIZADO HACE 5 HORAS
Kif Leswing
@KIFLESWING
Nvidia llamó al modelo R1 de DeepSeek "un excelente avance de IA", a pesar de la aparición de la startup china que provocó que el precio de las acciones del fabricante de chips cayera un 17 % el lunes.
Los comentarios se producen después de que DeepSeek lanzara R1 la semana pasada, que es un modelo de razonamiento de código abierto que, según se informa, superó a los mejores modelos de empresas estadounidenses como OpenAI.
La declaración de Nvidia indica que ve el avance de DeepSeek como crear más trabajo para las unidades de procesamiento de gráficos del fabricante de chips estadounidense, o GPU.
En este artículo
NVDA
+1,76 (+1,49%)
Jensen Huang, cofundador y director ejecutivo de Nvidia Corp., durante una conferencia de prensa en Taipei, Taiwán, el martes 4 de junio de 2024. Nvidia todavía está trabajando en el proceso de certificación de los chips de memoria de alto ancho de banda de Samsung Electronics Co., un paso final requerido antes de que la compañía coreana pueda comenzar a suministrar un componente esencial para entrenar plataformas de IA.
Annabelle Chih | Bloomberg | Getty Images
Nvidia llamó al modelo R1 de DeepSeek "un excelente avance de IA", a pesar de la aparición de la startup china que provocó que el precio de las acciones del fabricante de chips cayera un 17 % el lunes.
"DeepSeek es un excelente avance de IA y un ejemplo perfecto de Test Time Scaling", dijo un portavoz de Nvidia a CNBC el lunes. "El trabajo de DeepSeek ilustra cómo se pueden crear nuevos modelos utilizando esa técnica, aprovechando modelos ampliamente disponibles y computación que cumple totalmente con el control de exportación".
Los comentarios se producen después de que DeepSeek lanzara R1 la semana pasada, que es un modelo de razonamiento de código abierto que, según se informa, superó a los mejores modelos de empresas estadounidenses como OpenAI. El costo de capacitación autoinformada de R1 fue de menos de 6 millones de dólares, que es una fracción de los miles de millones que las empresas de Silicon Valley están gastando para construir sus modelos de inteligencia artificial.
La declaración de Nvidia indica que ve el avance de DeepSeek como crear más trabajo para las unidades de procesamiento de gráficos del fabricante de chips estadounidense, o GPU.
Leer más cobertura de DeepSeek
La IA DeepSeek de China destrona a ChatGPT en la App Store
DeepSeek se sofere en un ciberataque a gran escala, dice que está limitando los registros
Cómo el nuevo modelo de IA de China, DeepSeek, está amenazando el dominio de Estados Unidos
Nvidia alcanza un nuevo mínimo para la sesión sobre la amenaza del modelo de IA DeepSeek
El rumor en torno al modelo chino de IA DeepSeek provoca una venta masiva de Nasdaq
Pro: Los niveles clave de los gráficos a tener en cuenta en Nvidia y otras acciones tecnológicas en medio de la derrota de DeepSeek
Ver más
"La inferencia requiere un número significativo de GPU NVIDIA y redes de alto rendimiento", agregó el portavoz. "Ahora tenemos tres leyes de escalado: pre-entrenamiento y post-entrenamiento, que continúan, y nueva escala en tiempo de prueba".
Nvidia también dijo que las GPU que DeepSeek utilizó eran totalmente compatibles con la exportación. Eso contrarresta los comentarios del CEO de Scale AI, Alexandr Wang, en CNBC la semana pasada de que creía que DeepSeek utilizaba modelos de GPU Nvidia que están prohibidos en China continental. DeepSeek dice que utilizó versiones especiales de las GPU de Nvidia destinadas al mercado chino.
Los analistas ahora se preguntan si se están desperdiciando inversiones de capital multimillonarias de empresas como Microsoft, Google y Meta para la infraestructura de IA basada en Nvidia cuando se pueden lograr los mismos resultados más baratos.
A principios de este mes, Microsoft dijo que está gastando 80 mil millones de dólares en infraestructura de IA solo en 2025, mientras que el CEO de Meta, Mark Zuckerberg, dijo la semana pasada que la compañía de redes sociales planeaba invertir entre 60 y 65 mil millones de dólares en gastos de capital en 2025 como parte de su estrategia de IA.
"Si los costos de capacitación del modelo demuestran ser significativamente más bajos, esperaríamos un beneficio de costo a corto plazo para la publicidad, los viajes y otras empresas de aplicaciones de consumo que utilizan servicios de IA en la nube, mientras que los ingresos y costos relacionados con la IA de hiperescalador a largo plazo probablemente serían más bajos", escribió el analista de BofA Securities Justin Post en una nota el lunes.
El comentario de Nvidia también refleja un nuevo tema que el CEO de Nvidia, Jensen Huang, el CEO de OpenAI, Sam Altman, y el CEO de Microsoft, Satya Nadella, han discutido en los últimos meses.
Gran parte del auge de la IA y la demanda de GPU Nvidia fueron impulsados por la "ley de escalado", un concepto en el desarrollo de IA propuesto por los investigadores de OpenAI en 2020. Ese concepto sugirió que se podrían desarrollar mejores sistemas de IA ampliando en gran medida la cantidad de computación y datos que se invirtieron en la construcción de un nuevo modelo, requiriendo más y más chips.
Desde noviembre, Huang y Altman se han centrado en una nueva arruga en la ley de escalado, que Huang llama "escalado en tiempo de prueba".
Este concepto dice que si un modelo de IA totalmente entrenado pasa más tiempo usando potencia informática adicional al hacer predicciones o generar texto o imágenes para permitirle "razonar", proporcionará mejores respuestas que si se ejecutara durante menos tiempo.
Las formas de la ley de escalado en tiempo de prueba se utilizan en algunos de los modelos de OpenAI, como o1, así como el innovador modelo R1 de DeepSeek.