La publicación El chip de $20B de NVIDIA podría hacer que ChatGPT parezca lento apareció en BitcoinEthereumNews.com. El gigante de chips NVIDIA se está preparando para presentar un nuevo y poderoso artificialLa publicación El chip de $20B de NVIDIA podría hacer que ChatGPT parezca lento apareció en BitcoinEthereumNews.com. El gigante de chips NVIDIA se está preparando para presentar un nuevo y poderoso artificial

El chip de $20B de NVIDIA podría hacer que ChatGPT parezca lento

2026/03/14 15:29
Lectura de 5 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

El gigante de chips NVIDIA se prepara para presentar un nuevo y potente procesador de inteligencia artificial diseñado para acelerar la forma en que los chatbots y otras herramientas de IA generan respuestas, lo que potencialmente haría que los sistemas actuales como ChatGPT parezcan lentos en comparación.

La nueva plataforma, que se espera debute en la conferencia anual de desarrolladores GTC de NVIDIA, está optimizada para la inferencia de IA, la etapa en la que los modelos entrenados producen respuestas a las consultas de los usuarios. A diferencia de las GPU tradicionales construidas para manejar tanto el entrenamiento como la inferencia, el próximo procesador se enfoca específicamente en ofrecer respuestas más rápidas y eficientes.

El producto, si se lanza, marcará el primer resultado tangible del acuerdo de diciembre que incorporó a los fundadores de Groq, cuya empresa se especializa en hardware de procesamiento de IA de alta velocidad.

A finales del año pasado, NVIDIA supuestamente gastó alrededor de $20 mil millones para licenciar tecnología de la startup de chips Groq y reclutar personal clave, incluido su CEO. Aproximadamente al mismo tiempo, el CEO de NVIDIA, Jensen Huang, dijo a los empleados: "Planeamos integrar los procesadores de baja latencia de Groq en la arquitectura de fábrica de IA de NVIDIA, extendiendo la plataforma para atender una gama aún más amplia de cargas de trabajo de inferencia de IA y en tiempo real".

Ahora, se espera que el nuevo chip de inferencia maneje consultas complejas de IA a alta velocidad, y OpenAI y otros clientes líderes probablemente lo adopten, según The Wall Street Journal. Su informe también mostró que el nuevo chip podría manejar cerca del 10% de la carga de trabajo de inferencia de OpenAI.

El chip estilo Groq usará SRAM, dicen las fuentes

Durante una reciente llamada de resultados, el CEO de NVIDIA insinuó que se presentarán varios productos nuevos en el próximo evento GTC, a menudo descrito como el "Super Bowl de la IA". Comentó: "Tengo algunas grandes ideas que me gustaría compartir con ustedes en GTC".

La mayoría de los analistas están de acuerdo en que el chip estilo Groq podría ser parte de la alineación. También afirmaron que su diseño podría arrojar luz sobre cómo NVIDIA pretende abordar las limitaciones de memoria en la computación de inferencia. Tales plataformas típicamente funcionan con memoria de alto ancho de banda (HBM). Sin embargo, la HBM ha sido difícil de conseguir últimamente.

Los informantes han afirmado que la empresa planea usar SRAM en el chip en lugar de la RAM dinámica asociada con HBM. Idealmente, la SRAM es más accesible y puede mejorar el rendimiento de las cargas de trabajo de razonamiento de IA.

Si se presenta el chip, podría ser un gran paso adelante para la empresa de chips y los modelos entrenados con IA. Sin embargo, hablando sobre su posible lanzamiento, Sid Sheth, fundador y CEO de d-Matrix, proyectó una sombra sobre su desarrollo. Señaló que, si bien NVIDIA sigue siendo el líder claro en el entrenamiento de IA, la inferencia representa un panorama muy diferente. Compartió: "Los desarrolladores pueden recurrir a competidores distintos de NVIDIA porque ejecutar modelos de IA terminados no requiere el mismo tipo de programación que entrenarlos".

Sin embargo, otros gigantes tecnológicos también están avanzando en la computación de inferencia. Meta presentó esta semana cuatro procesadores diseñados para la inferencia, lo que llevó a un inversor de Silicon Valley a decir que la industria puede estar entrando en una fase no dominada por NVIDIA.

Sin embargo, más recientemente, June Paik, director ejecutivo de FuriosaAI, un rival de NVIDIA, comentando sobre el beneficio de la computación de inferencia fácilmente implementable, advirtió que la mayoría de los centros de datos no pueden acomodar las últimas GPU refrigeradas por líquido.

No obstante, a pesar de sus preocupaciones, los analistas del Bank of America esperan que las cargas de trabajo de inferencia representen el 75% del gasto en centros de datos de IA para 2030, cuando el mercado alcance aproximadamente $1.2 billones, frente a aproximadamente el 50% del año pasado. Ben Bajarin, analista tecnológico de Creative Strategies, también afirmó que los centros de datos del futuro no se ajustarán a un modelo único, anticipando que las empresas adoptarán diferentes enfoques para el desarrollo de chips e instalaciones.

Se espera que NVIDIA lance los chips Vera Rubin más adelante en 2026

NVIDIA también lanzó recientemente sus chips de IA de próxima generación, los chips de IA Vera Rubin, anticipando que el auge de las plataformas de IA de razonamiento como DeepSeek impulsará una demanda computacional aún mayor. Afirmó que los chips ayudarían a entrenar modelos de IA más grandes y proporcionarían resultados más sofisticados a una base de usuarios más amplia.

Según Huang, Rubin también llegará al mercado en la segunda mitad de 2026, con una versión "ultra" de gama alta que llegará en 2027.

También explicó que un solo sistema Rubin combinaría 576 GPU individuales en un solo chip. Actualmente, el chip Blackwell de NVIDIA agrupa 72 GPU en su sistema NVL72, lo que significa que Rubin contará con memoria más avanzada.

Fuente: https://www.cryptopolitan.com/nvidias-chip-could-make-chatgpt-look-slow/

Oportunidad de mercado
Logo de Gitcoin
Precio de Gitcoin(GTC)
$0.0943
$0.0943$0.0943
-5.93%
USD
Gráfico de precios en vivo de Gitcoin (GTC)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.