Episodio completo DEL MES:



Instagram Grupo en Telegram


La pausa asiática que afecta a la IA

La pausa asiática que afecta a la IA

Listen on Apple Podcasts

Samsung se prepara para enviar HBM4 tras el Año Nuevo Lunar y acelerar la memoria para IA

Por Félix Riaño @LocutorCo

El 9 de febrero de 2026, las fábricas de semiconductores en Corea del Sur están operando bajo un calendario especial. El Año Nuevo Lunar, conocido localmente como Seollal, se celebrará el 17 de febrero y los feriados oficiales se extenderán del 16 al 18 de febrero. Durante esos días, gran parte de la actividad industrial del país se detendrá o funcionará de forma limitada. En ese contexto, Samsung Electronics ha confirmado que retomará a pleno ritmo la producción justo después del feriado para comenzar los primeros envíos comerciales de su memoria HBM4 a Nvidia. Esta memoria está destinada a los próximos aceleradores de inteligencia artificial de Nvidia y su calendario de producción está directamente condicionado por esta pausa anual, una de las más relevantes del año para la industria tecnológica asiática.

La inteligencia artificial depende de calendarios industriales muy concretos

La inteligencia artificial moderna funciona gracias a centros de datos que procesan enormes volúmenes de información de manera constante. En el núcleo de esos sistemas están los procesadores diseñados por Nvidia, una empresa estadounidense especializada en unidades de procesamiento gráfico, conocidas como GPU. Estos chips destacan por realizar muchos cálculos al mismo tiempo, pero su rendimiento depende directamente de la memoria que los alimenta. High Bandwidth Memory, o HBM, es un tipo de memoria creada para ese propósito. A diferencia de la memoria tradicional, HBM se apila en capas y se coloca muy cerca del procesador, lo que permite mover datos con mayor velocidad y menor consumo energético. La tecnología ha evolucionado por etapas: HBM, HBM2, HBM2E, HBM3, HBM3E y ahora HBM4. Cada generación responde al aumento de demanda provocado por modelos de inteligencia artificial cada vez más grandes. Samsung Electronics ha desarrollado HBM4 usando su proceso DRAM 1c, de sexta generación en la clase de diez nanómetros, junto con una base lógica fabricada con tecnología de cuatro nanómetros.

La transición hacia HBM4 ocurre tras un periodo complejo para Samsung. En la generación anterior, HBM3E, la empresa no logró posicionarse con la misma rapidez que SK hynix, otra compañía surcoreana especializada en memoria. SK hynix consiguió convertirse en el principal proveedor de HBM para Nvidia y capturó la mayor parte de los contratos vinculados al auge de la inteligencia artificial. Micron Technology, fabricante estadounidense de memoria, quedó en una posición secundaria en esta categoría. Mientras la demanda de inteligencia artificial siguió creciendo, la capacidad mundial de fabricación de memoria se volvió un recurso limitado. Este problema se agrava cada año alrededor del Año Nuevo Lunar, cuando fábricas en Corea del Sur, China y otros países asiáticos reducen su actividad durante varios días. Esa pausa afecta cadenas de suministro globales y obliga a planificar con precisión qué se fabrica antes y qué se entrega después del feriado.

Ante esta situación, Samsung ha organizado su calendario para que la producción y los envíos de HBM4 comiencen inmediatamente después del Seollal. En su complejo industrial de Pyeongtaek, uno de los mayores centros de fabricación de semiconductores del mundo, la empresa está ampliando la línea P4 para producir entre cien mil y ciento veinte mil obleas al mes dedicadas a HBM4. Sumadas a otras líneas, el objetivo es alcanzar alrededor de doscientas mil obleas mensuales, una parte relevante de su producción total de DRAM. Los primeros envíos a Nvidia están previstos para la tercera semana de febrero, en línea con los planes de Nvidia para presentar su nueva plataforma de aceleradores de inteligencia artificial, llamada Vera Rubin, durante la conferencia GTC 2026, programada para marzo. Aunque los analistas estiman que SK hynix mantendrá una mayor cuota de suministro, llegar temprano al mercado permite a Samsung reforzar su posición técnica y comercial.

HBM4 introduce mejoras relevantes en eficiencia energética frente a la generación anterior. Esto resulta especialmente importante para centros de datos que operan de forma continua, donde el consumo eléctrico y la refrigeración representan una parte considerable de los costos. Nvidia necesita este tipo de memoria para alcanzar anchos de banda totales superiores a los veinte terabytes por segundo en sus sistemas más avanzados. Sin HBM4, ese nivel de rendimiento no sería viable. Al mismo tiempo, el énfasis de los fabricantes en producir HBM reduce la oferta de memoria convencional para computadores personales y dispositivos móviles, lo que mantiene presión sobre los precios. En este contexto, los fabricantes de memoria ya no influyen solo en componentes, sino en el ritmo general de la innovación tecnológica.
)
A días del Año Nuevo Lunar, Samsung se prepara para activar la producción y los envíos de HBM4 a Nvidia. Esta memoria será una pieza central de los próximos sistemas de inteligencia artificial. El calendario industrial asiático vuelve a marcar el ritmo global. Escucha más historias como esta y sigue Flash Diario en Spotify.


A días del Año Nuevo Lunar, Samsung se alista para enviar HBM4 a Nvidia y acelerar la inteligencia artificial.

📚 Bibliografía

Conviértete en un supporter de este podcast: https://www.spreaker.com/podcast/flash-diario-de-el-siglo-21-es-hoy--5835407/support.

Apoya el Flash Diario y escúchalo sin publicidad en el Club de Supporters

Flash Diario es un informativo de El Siglo 21 es Hoy
Suscríbete gratis en:
YouTube ⬅︎
Spotify ⬅︎
Apple Podcasts ⬅︎
Google News 📰 ⬅︎

February 09, 2026 at 01:00AM

Comentarios

PayPal

Archivo

Mostrar más

Entradas populares de este blog

Resonancias magnéticas en Leticia

Duolingo ahora enseña ajedrez

Órbita polar tripulada