Micron Technology (NASDAQ:MU) ha comenzado a distribuir muestras para clientes de su módulo de memoria de servidor de bajo consumo SOCAMM2 de 256GB, diseñado para satisfacer las crecientes demandas de energía y rendimiento de los centros de datos de IA. Este último módulo representa un avance respecto al lanzamiento anterior de SOCAMM2 de 192GB de Micron, permitiendo hasta 2TB de memoria conectada a CPU mientras usa aproximadamente un tercio de la energía de los módulos registrados DDR5 tradicionales (RDIMMs).
A pesar de esta innovación, las acciones de Micron se mantuvieron en gran medida sin cambios en las primeras operaciones estadounidenses, cayendo ligeramente a $400.42, reflejando la cautela de los inversores ya que la memoria todavía está en fase de muestreo y aún no se ha implementado a gran escala.
Micron Technology, Inc., MU
Ian Finder, jefe de productos de CPU para centros de datos de Nvidia, describió el módulo SOCAMM2 como "habilitador de la próxima generación de CPUs de IA", destacando su impacto potencial en la computación de alto rendimiento (HPC) y las cargas de trabajo de IA generativa. La colaboración entre Micron y Nvidia subraya la importancia de alinear la tecnología de memoria con los requisitos modernos de CPU y GPU para soportar modelos de IA cada vez más grandes.
Brendan Burke, analista de Futurum Research, señaló que la DRAM de bajo consumo conectada a CPU está emergiendo como un nivel de memoria crucial para cargas de trabajo de inferencia, que pueden generar picos repentinos en la demanda y el consumo de energía. Al posicionar la memoria cerca de la CPU, SOCAMM2 ayuda a reducir la latencia y el uso de energía mientras maneja conjuntos de datos masivos requeridos para modelos de IA.
SOCAMM2, que significa módulo de memoria conectado por compresión de contorno pequeño, aprovecha DRAM LPDDR5X típicamente visto en teléfonos inteligentes. Este diseño no solo reduce el consumo de energía sino que también reduce la huella física de la memoria del servidor, ocupando solo un tercio del espacio de RDIMMs comparables.
Las pruebas internas de Micron utilizando un modelo de lenguaje grande Llama 3 70B demostraron una mejora de más de 2.3x en el "tiempo hasta el primer token", una métrica clave para el rendimiento de inferencia de IA.
El diseño monolítico LPDDR5X de 32 gigabits del módulo de 256GB permite que cada CPU de servidor de ocho canales soporte hasta 2TB de memoria de bajo consumo. Este escalado ofrece un notable aumento de capacidad del 33% sobre la iteración anterior de 192GB, haciéndolo atractivo para operadores que buscan tanto densidad como eficiencia energética en centros de datos de IA.
Aunque Micron lidera junto con Samsung y SK hynix en el desarrollo de SOCAMM2 y memoria de alto ancho de banda, la adopción generalizada dependerá de factores como la calificación del cliente, las renovaciones del sistema y el ritmo de estandarización JEDEC. Los analistas advierten que las restricciones de suministro podrían persistir hasta 2027, limitando potencialmente el impacto inmediato del volumen en los ingresos de Micron.
Los resultados del segundo trimestre fiscal de la compañía, esperados el 18 de marzo, proporcionarán a los inversores señales sobre las tendencias de precios y los volúmenes de envío de nuevos productos para centros de datos. Mientras tanto, Micron continúa colaborando con Nvidia y participando en grupos de estándares, posicionando a SOCAMM2 para una posible expansión futura más allá de aplicaciones de IA de alto rendimiento de nicho.
Por ahora, las acciones de Micron se mantienen en gran medida estables, reflejando el equilibrio entre la promesa de la tecnología de memoria de próxima generación y la incertidumbre en torno a su implementación comercial.
La publicación Acciones de Micron (MU); Ligera Disminución a Pesar de la Innovación en Memoria Conectada a CPU de 2TB apareció primero en CoinCentral.

