【Semiconductores】¿Hasta dónde podrá penetrar Micron Technology en Corea del Sur? HBM (Memoria de Alto Ancho de Banda) que impulsa el crecimiento de la industria | 5 acciones en tendencia de EE. UU. de Jun Ishihara | Manekuri, información de inversión de Monex Securities y medios útiles para el dinero.
El rendimiento del aprendizaje y la inferencia de la IA está determinado por la "memoria".
DRAM es memoria de "memoria temporal", NAND es memoria para "almacenamiento a largo plazo"
La DRAM y la NAND de semiconductores son dispositivos de almacenamiento (memoria) que almacenan datos, pero sus usos y características son diferentes. La DRAM es una memoria utilizada para el "almacenamiento temporal" en computadoras y teléfonos inteligentes. Es una "memoria volátil" que mantiene los datos solo mientras la energía está encendida, y los datos se pierden al apagar la energía. Su velocidad de lectura y escritura es rápida, y es un componente importante para aumentar la capacidad de procesamiento.
Por otro lado, NAND es un tipo de memoria utilizada para "almacenamiento a largo plazo", como en unidades USB, teléfonos inteligentes y SSD (unidades de estado sólido). Es una "memoria no volátil" que conserva los datos incluso cuando se apaga la energía, y se utiliza para almacenar datos como fotos, videos y aplicaciones. Aunque la escritura puede tardar un poco de tiempo, su característica principal es la capacidad de almacenar grandes cantidades de datos.
Se dice que, debido a sus características, la DRAM actúa como un "escritorio" que prioriza la velocidad, mientras que el NAND tiene un papel similar a un "cajón" que prioriza el almacenamiento. Samsung Electronics, SK Hynix y la estadounidense Micron Technology [MU] son las tres grandes compañías fabricantes de memoria, y como empresa japonesa, Kioxia Holdings (285A), anteriormente Toshiba Memory, tiene una alta participación en el mercado.
La demanda de memoria, como DRAM y NAND, está volviendo a aumentar debido a la proliferación de la IA generativa (inteligencia artificial) y la nube. En particular, la demanda de HBM (High Bandwidth Memory: memoria de alto ancho de banda) dentro de la DRAM está expandiéndose rápidamente. En el desarrollo de servidores de IA, aumentar la capacidad de almacenamiento y la velocidad de lectura y escritura de la memoria mejora el rendimiento general, en lugar de depender de costosos semiconductores de procesamiento de imágenes de última generación (GPU). En otras palabras, el rendimiento del aprendizaje y la inferencia de la IA depende de la memoria.
HBM que se encuentra en grandes cantidades en la GPU de última generación de NVIDIA [NVDA]
HBM es una tecnología de memoria de próxima generación que apila chips de memoria en dirección vertical, logrando un alto ancho de banda (un amplio canal de datos) que permite velocidades de transferencia de datos más rápidas en comparación con la DRAM convencional, además de tener bajo consumo de energía. Originalmente fue desarrollada para procesar gráficos de alto rendimiento, pero la demanda como aceleradores para IA y HPC (computación de alto rendimiento) y centros de datos está en expansión.
Las GPU de última generación de NVIDIA [NVDA] están equipadas con grandes cantidades de HBM. De hecho, en modelos de IA a gran escala como ChatGPT de OpenAI, las GPU que incorporan HBM son esenciales.
Según la tasa de crecimiento por segmento de producto del "Pronóstico del mercado de semiconductores para la primavera de 2025" publicado por WSTS (Estadísticas del mercado mundial de semiconductores) el 3 de junio, se ha confirmado una vez más que la tasa de crecimiento del mercado de memorias en 2024 será del 79.3%, lo que representa un aumento considerable en comparación con otros productos. Aunque se espera que la tasa de crecimiento se desacelere entre 2025 y 2026, se anticipa que seguirá superando a los analógicos y microcontroladores.
【Figura 1】Evolución de la tasa de crecimiento del mercado de semiconductores por producto
Fuente: Elaborado por el autor a partir de los datos de WSTS
[Gráfico 2] Ventas de DRAM y porcentaje de HBM en 2022, 2023 y 2024 (pronóstico)
Fuente: Elaboración del autor a partir de datos de TrendForce
El que impulsa este crecimiento es HBM. Según la empresa de investigación de mercado TrendForce, se espera que los ingresos del mercado de memorias, que cayeron en 2023, se recuperen nuevamente a los 80 mil millones de dólares en 2024. Las ventas de HBM, que no representaban ni el 10% del total, se han duplicado y se prevé que en 2024 representen el 20% del total. Se considera que el crecimiento de HBM será el motor clave que impulse el crecimiento de toda la industria de semiconductores en el futuro.
La demanda de HBM se está expandiendo rápidamente, ¿la rentabilidad es diez veces mayor que la de DRAM hasta ahora?
Micron Technology, uno de los principales fabricantes de memoria semiconductora, anunció el 25 de junio que sus resultados financieros del tercer trimestre del año fiscal 2025 (marzo a mayo de 2025) mostraron ingresos de 9,310 millones de dólares, un aumento del 37% en comparación con el mismo período del año anterior, y una ganancia neta de 1,885 millones de dólares, lo que representa un aumento de 5.7 veces. Los ingresos de los centros de datos superaron el doble en comparación con el mismo período del año anterior, estableciendo un récord para el trimestre. En particular, el HBM utilizado en servidores de IA alcanzó ventas récord. El HBM es de 5 a 10 veces más rentable que otras DRAM.
【Figura 3】Ingresos y resultado final de Micron
Fuente: Elaboración del autor a partir de los datos financieros
Las ventas por unidad de negocio de Micron Technology, que incluyen HBM y DRAM de gran capacidad para centros de datos, mostraron un aumento del 11% en comparación con el trimestre anterior (un aumento del 97% en comparación con el mismo período del año anterior). Además, debido al aumento de las SSD (unidades de estado sólido: dispositivos de almacenamiento auxiliar que utilizan circuitos integrados) para centros de datos, el almacenamiento aumentó un 45% en comparación con el trimestre anterior (una disminución del 2% en comparación con el mismo período del año anterior).
【Cuadro 4】Ingresos por unidad de negocio de Micron Technology (unidad: millones de dólares)
Fuente: Elaboración del autor a partir de los materiales financieros.
Micron Technology [MU] inicia el envío de muestras de productos de próxima generación, la competencia entre los fabricantes de semiconductores de memoria se intensifica aún más.
Micron Technology ha afirmado que la expansión de la producción en masa de HBM y la hoja de ruta de desarrollo de productos están avanzando sin problemas, y se espera que para finales de 2025 la participación de HBM alcance niveles similares a la participación actual de DRAM en su totalidad. Esto representa un logro más temprano que el plan anterior. Micron actualmente está enviando HBM en grandes cantidades a cuatro clientes, dirigidos tanto a plataformas de GPU (semiconductores para procesamiento de imágenes) como a ASIC (circuitos integrados de aplicación específica), pero también hay movimientos por parte de los clientes para asegurar productos antes de lo habitual.
El CEO de Micron Technology, Sanjay Mehrotra, afirmó que hay una demanda sin precedentes de memoria y almacenamiento de alto rendimiento debido a la IA, y que "estamos en camino de lograr ingresos récord, márgenes de beneficio sólidos y flujo de efectivo libre en el año fiscal 2025. Al mismo tiempo, continuaremos con inversiones disciplinadas para fortalecer el liderazgo tecnológico y la excelencia en la fabricación para satisfacer la creciente demanda de memoria impulsada por la IA."
Se espera que la fuerte demanda de memoria continúe en el cuarto trimestre, con una proyección de ingresos de 10.7 mil millones de dólares (valor medio de la guía), un aumento del 15% en comparación con el trimestre anterior, lo que sería un récord histórico. Las condiciones favorables, como el crecimiento continuo de la IA en los centros de datos, están presentes, y están seguros de que podrán lograr un aumento significativo en los ingresos para el período que finaliza en agosto de 2025.
Micron Technology anunció que a principios de junio comenzó a enviar muestras de su próximo producto de HBM, el "HBM4", a algunos clientes. Se espera que la producción en masa comience en 2026. Se dice que acelera el rendimiento de inferencia en sistemas de LLM (modelos de lenguaje a gran escala). En comparación con el producto actual de Micron Technology para IA, el "HBM3E", se afirma que el rendimiento ha mejorado en más del 60% y la eficiencia energética en un 20%.
Micron Technology ha comenzado la construcción de una avanzada fábrica de empaquetado HBM en Singapur, con el inicio de operaciones previsto para 2026. Se informa que la inversión total asciende a 7,000 millones de dólares. Actualmente, Micron Technology se encuentra en una posición de seguir de cerca a los surcoreanos como SK Hynix y Samsung Electronics, pero ¿hasta dónde podrá avanzar? La competencia entre los fabricantes de memoria semiconductora parece intensificarse aún más en cómo capturar el mercado en expansión orientado a la IA.
Las 5 acciones destacadas de Jun Ishihara
Micron Technology [MU]
Fuente: TradeStation
NVIDIA [NVDA]
Fuente: TradeStation
Amazon.com [AMZN]
Fuente: TradeStation
Alfabeto[GOOGL]
Origen: TradeStation
Microsoft[MSFT]
Fuente: TradeStation
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
【Semiconductores】¿Hasta dónde podrá penetrar Micron Technology en Corea del Sur? HBM (Memoria de Alto Ancho de Banda) que impulsa el crecimiento de la industria | 5 acciones en tendencia de EE. UU. de Jun Ishihara | Manekuri, información de inversión de Monex Securities y medios útiles para el dinero.
El rendimiento del aprendizaje y la inferencia de la IA está determinado por la "memoria".
DRAM es memoria de "memoria temporal", NAND es memoria para "almacenamiento a largo plazo"
La DRAM y la NAND de semiconductores son dispositivos de almacenamiento (memoria) que almacenan datos, pero sus usos y características son diferentes. La DRAM es una memoria utilizada para el "almacenamiento temporal" en computadoras y teléfonos inteligentes. Es una "memoria volátil" que mantiene los datos solo mientras la energía está encendida, y los datos se pierden al apagar la energía. Su velocidad de lectura y escritura es rápida, y es un componente importante para aumentar la capacidad de procesamiento.
Por otro lado, NAND es un tipo de memoria utilizada para "almacenamiento a largo plazo", como en unidades USB, teléfonos inteligentes y SSD (unidades de estado sólido). Es una "memoria no volátil" que conserva los datos incluso cuando se apaga la energía, y se utiliza para almacenar datos como fotos, videos y aplicaciones. Aunque la escritura puede tardar un poco de tiempo, su característica principal es la capacidad de almacenar grandes cantidades de datos.
Se dice que, debido a sus características, la DRAM actúa como un "escritorio" que prioriza la velocidad, mientras que el NAND tiene un papel similar a un "cajón" que prioriza el almacenamiento. Samsung Electronics, SK Hynix y la estadounidense Micron Technology [MU] son las tres grandes compañías fabricantes de memoria, y como empresa japonesa, Kioxia Holdings (285A), anteriormente Toshiba Memory, tiene una alta participación en el mercado.
La demanda de memoria, como DRAM y NAND, está volviendo a aumentar debido a la proliferación de la IA generativa (inteligencia artificial) y la nube. En particular, la demanda de HBM (High Bandwidth Memory: memoria de alto ancho de banda) dentro de la DRAM está expandiéndose rápidamente. En el desarrollo de servidores de IA, aumentar la capacidad de almacenamiento y la velocidad de lectura y escritura de la memoria mejora el rendimiento general, en lugar de depender de costosos semiconductores de procesamiento de imágenes de última generación (GPU). En otras palabras, el rendimiento del aprendizaje y la inferencia de la IA depende de la memoria.
HBM que se encuentra en grandes cantidades en la GPU de última generación de NVIDIA [NVDA]
HBM es una tecnología de memoria de próxima generación que apila chips de memoria en dirección vertical, logrando un alto ancho de banda (un amplio canal de datos) que permite velocidades de transferencia de datos más rápidas en comparación con la DRAM convencional, además de tener bajo consumo de energía. Originalmente fue desarrollada para procesar gráficos de alto rendimiento, pero la demanda como aceleradores para IA y HPC (computación de alto rendimiento) y centros de datos está en expansión.
Las GPU de última generación de NVIDIA [NVDA] están equipadas con grandes cantidades de HBM. De hecho, en modelos de IA a gran escala como ChatGPT de OpenAI, las GPU que incorporan HBM son esenciales.
Según la tasa de crecimiento por segmento de producto del "Pronóstico del mercado de semiconductores para la primavera de 2025" publicado por WSTS (Estadísticas del mercado mundial de semiconductores) el 3 de junio, se ha confirmado una vez más que la tasa de crecimiento del mercado de memorias en 2024 será del 79.3%, lo que representa un aumento considerable en comparación con otros productos. Aunque se espera que la tasa de crecimiento se desacelere entre 2025 y 2026, se anticipa que seguirá superando a los analógicos y microcontroladores.
【Figura 1】Evolución de la tasa de crecimiento del mercado de semiconductores por producto
Fuente: Elaborado por el autor a partir de los datos de WSTS
[Gráfico 2] Ventas de DRAM y porcentaje de HBM en 2022, 2023 y 2024 (pronóstico)
Fuente: Elaboración del autor a partir de datos de TrendForce
El que impulsa este crecimiento es HBM. Según la empresa de investigación de mercado TrendForce, se espera que los ingresos del mercado de memorias, que cayeron en 2023, se recuperen nuevamente a los 80 mil millones de dólares en 2024. Las ventas de HBM, que no representaban ni el 10% del total, se han duplicado y se prevé que en 2024 representen el 20% del total. Se considera que el crecimiento de HBM será el motor clave que impulse el crecimiento de toda la industria de semiconductores en el futuro.
La demanda de HBM se está expandiendo rápidamente, ¿la rentabilidad es diez veces mayor que la de DRAM hasta ahora?
Micron Technology, uno de los principales fabricantes de memoria semiconductora, anunció el 25 de junio que sus resultados financieros del tercer trimestre del año fiscal 2025 (marzo a mayo de 2025) mostraron ingresos de 9,310 millones de dólares, un aumento del 37% en comparación con el mismo período del año anterior, y una ganancia neta de 1,885 millones de dólares, lo que representa un aumento de 5.7 veces. Los ingresos de los centros de datos superaron el doble en comparación con el mismo período del año anterior, estableciendo un récord para el trimestre. En particular, el HBM utilizado en servidores de IA alcanzó ventas récord. El HBM es de 5 a 10 veces más rentable que otras DRAM.
【Figura 3】Ingresos y resultado final de Micron
Fuente: Elaboración del autor a partir de los datos financieros
Las ventas por unidad de negocio de Micron Technology, que incluyen HBM y DRAM de gran capacidad para centros de datos, mostraron un aumento del 11% en comparación con el trimestre anterior (un aumento del 97% en comparación con el mismo período del año anterior). Además, debido al aumento de las SSD (unidades de estado sólido: dispositivos de almacenamiento auxiliar que utilizan circuitos integrados) para centros de datos, el almacenamiento aumentó un 45% en comparación con el trimestre anterior (una disminución del 2% en comparación con el mismo período del año anterior).
【Cuadro 4】Ingresos por unidad de negocio de Micron Technology (unidad: millones de dólares)
Fuente: Elaboración del autor a partir de los materiales financieros.
Micron Technology [MU] inicia el envío de muestras de productos de próxima generación, la competencia entre los fabricantes de semiconductores de memoria se intensifica aún más.
Micron Technology ha afirmado que la expansión de la producción en masa de HBM y la hoja de ruta de desarrollo de productos están avanzando sin problemas, y se espera que para finales de 2025 la participación de HBM alcance niveles similares a la participación actual de DRAM en su totalidad. Esto representa un logro más temprano que el plan anterior. Micron actualmente está enviando HBM en grandes cantidades a cuatro clientes, dirigidos tanto a plataformas de GPU (semiconductores para procesamiento de imágenes) como a ASIC (circuitos integrados de aplicación específica), pero también hay movimientos por parte de los clientes para asegurar productos antes de lo habitual.
El CEO de Micron Technology, Sanjay Mehrotra, afirmó que hay una demanda sin precedentes de memoria y almacenamiento de alto rendimiento debido a la IA, y que "estamos en camino de lograr ingresos récord, márgenes de beneficio sólidos y flujo de efectivo libre en el año fiscal 2025. Al mismo tiempo, continuaremos con inversiones disciplinadas para fortalecer el liderazgo tecnológico y la excelencia en la fabricación para satisfacer la creciente demanda de memoria impulsada por la IA."
Se espera que la fuerte demanda de memoria continúe en el cuarto trimestre, con una proyección de ingresos de 10.7 mil millones de dólares (valor medio de la guía), un aumento del 15% en comparación con el trimestre anterior, lo que sería un récord histórico. Las condiciones favorables, como el crecimiento continuo de la IA en los centros de datos, están presentes, y están seguros de que podrán lograr un aumento significativo en los ingresos para el período que finaliza en agosto de 2025.
Micron Technology anunció que a principios de junio comenzó a enviar muestras de su próximo producto de HBM, el "HBM4", a algunos clientes. Se espera que la producción en masa comience en 2026. Se dice que acelera el rendimiento de inferencia en sistemas de LLM (modelos de lenguaje a gran escala). En comparación con el producto actual de Micron Technology para IA, el "HBM3E", se afirma que el rendimiento ha mejorado en más del 60% y la eficiencia energética en un 20%.
Micron Technology ha comenzado la construcción de una avanzada fábrica de empaquetado HBM en Singapur, con el inicio de operaciones previsto para 2026. Se informa que la inversión total asciende a 7,000 millones de dólares. Actualmente, Micron Technology se encuentra en una posición de seguir de cerca a los surcoreanos como SK Hynix y Samsung Electronics, pero ¿hasta dónde podrá avanzar? La competencia entre los fabricantes de memoria semiconductora parece intensificarse aún más en cómo capturar el mercado en expansión orientado a la IA.
Las 5 acciones destacadas de Jun Ishihara
Micron Technology [MU]
Fuente: TradeStation
NVIDIA [NVDA]
Fuente: TradeStation
Amazon.com [AMZN]
Fuente: TradeStation
Alfabeto[GOOGL]
Origen: TradeStation
Microsoft[MSFT]
Fuente: TradeStation