Tecnologia

La inteligencia artificial está deteniendo la caída de los precios en productos tecnológicos

9179618046.png
Durante más de setenta años, el costo de los componentes digitales mostró una tendencia a la baja.

Fuente: Rodrigo Riquelme/rodrigo_riquelme@eleconomista.com.mx

Austin, Texas. Durante más de setenta años, el costo de los componentes digitales mostró una tendencia a la baja. Memorias, discos duros, procesadores, todo se volvió más accesible año tras año, siguiendo una regularidad que economistas relacionaron con la Ley de Moore. Esta dinámica acaba de romperse.

Drew Schulke, vicepresidente de Gestión de Producto en almacenamiento primario de Dell Technologies, expresa su preocupación inmediata: los componentes que sustentan los sistemas digitales han duplicado su precio respecto al año pasado, sin señales claras de reducción futura, y la causa principal es la inteligencia artificial (IA).

Samsung, SK Hynix y Micron son los fabricantes que dominan prácticamente toda la producción mundial de memoria: DRAM para servidores y computadoras, y NAND para unidades de estado sólido. Los tres producen ambos tipos de memoria.

Según Schulke, cuando la demanda generada por la IA presiona la fabricación de un tipo de componente, esto impacta también al otro, sin posibilidad de separar el efecto.

SK Hynix ha confirmado que toda su producción de DRAM, NAND y memoria de alto ancho de banda está comprometida hasta finales de 2026, en gran medida destinada a Nvidia para sus aceleradores de IA. La iniciativa Stargate de OpenAI, presentada en octubre de 2025, proyecta consumir el 40% del total mundial de DRAM, es decir, alrededor de 900,000 obleas mensuales. Lo que queda para el resto del mercado compite bajo condiciones históricamente escasas.

El inventario global de DRAM se mantiene en solo dos o tres semanas de reserva, mientras que el de NAND alcanza entre tres y cuatro semanas. Ambos niveles son mínimos históricos.

Schulke explicó las implicancias para las empresas que adquirían componentes en el mercado abierto —o mercado spot— en lugar de asegurar el suministro mediante contratos a largo plazo.

En tiempos de abundancia, comprar en el mercado spot es razonable: los precios son bajos y no es necesario comprometerse. Sin embargo, cuando la oferta se reduce, ese mismo mercado se encarece por encima del costo que pagan quienes tienen contratos garantizados.

TRA Podcast Studios

Dell, comentó Schulke, ha priorizado desde 1999 asegurar la continuidad del suministro sobre buscar el menor precio posible. Esta estrategia, conservadora en épocas normales, se revela como la única protección efectiva cuando el mercado se ve afectado.

Dan Stanzione, director ejecutivo del Texas Advanced Computing Center en la Universidad de Texas en Austin, aporta un contexto histórico para entender esta ruptura en la tendencia decreciente del costo del hardware electrónico.

Desde 1947 hasta ahora, el valor del almacenamiento digital descendió sostenidamente. Año tras año, la Ley de Moore representó para la industria una promesa implícita: mayor potencia a menor costo. Esa curva comenzó a romperse alrededor del 2023.

A diferencia del desabastecimiento global de chips entre 2020 y 2023 —causado por interrupciones en las cadenas productivas durante la pandemia— la escasez actual responde a una reasignación estructural hacia productos con márgenes elevados destinados a infraestructura para inteligencia artificial; esto genera falta en los mercados tradicionales tanto empresariales como de consumo.

Hay otra transformación silenciosa que Schulke mencionó y que suele pasar inadvertida en los análisis del mercado: la IA está modificando qué datos valen la pena conservar. Durante décadas las empresas eliminaban grandes volúmenes considerados sin valor comercial —como registros antiguos o datos sin analizar—; ahora esta información se convierte en materia prima potencialmente útil para la IA. Esto incrementa significativamente la demanda por almacenamiento no solo en volumen sino también cambiando qué se guarda y qué se descarta.

Con ironía, Schulke comentó que a él le agrada cuando las compañías almacenan datos y nunca los borran.

En 2024, la mayoría de los datos empresariales ya reside en almacenamiento orientado a objetos; los líderes del sector esperan que esta tendencia siga creciendo. El auge de la IA y los data lakehouses enfocados en esta tecnología acelerarán aún más este proceso durante los próximos años.

Desde el punto de vista del fabricante, Schulke confirmó esta dirección: en cinco años el almacenamiento basado en archivos y objetos ha crecido mucho más que el almacenamiento por bloques. La IA requiere principalmente estos dos primeros tipos para entrenamiento e inferencia; el almacenamiento por bloques —relacionado con bases relacionales— presenta un crecimiento relativo menor.

Una paradoja notable surgida en ambas entrevistas es que la misma tecnología que encarece los componentes también está siendo empleada para diseñarlos y fabricarlos con mayor rapidez.

Schulke contó cómo las herramientas asistidas por IA han cambiado el ciclo de desarrollo software en Dell. Hace dos años esas herramientas ayudaban generando fragmentos simples para programadores; ahora son capaces de tomar especificaciones complejas completas, desarrollar productos completos y ejecutar pruebas automatizadas. Esto permite definir funciones más ambiciosas desde el primer lanzamiento —antes requerían varios ciclos—; el 85% del equipo trabaja en software y su productividad mejora gracias a la IA.

Stanzione plantea una pregunta incómoda que nadie quiere responder claramente: ¿cuánto debe crecer el negocio relacionado con IA para sostener toda la infraestructura existente?

Actualmente hay instalados unos 70 gigavatios dedicados a centros de datos para IA en todo el mundo. Solo operar esa infraestructura implica un gasto eléctrico anual cercano a 60 mil millones de dólares —incluso considerando los bajos costos energéticos en Texas— sin sumar depreciación ni costos financieros o humanos asociados.

OpenAI planea invertir 600 mil millones de dólares en centros de datos antes del 2030; una cifra difícilmente justificable frente a ingresos anuales cercanos a 20 mil millones y pérdidas crecientes operativas. Incluso gigantes como Google y Meta han tenido que recurrir al endeudamiento para cumplir sus metas inversoras.

Según Stanzione, la industria debe alcanzar ingresos entre 3 y 4 billones de dólares dentro de tres o cuatro años; si no ocurre esto habrá ajustes significativos.

Los compradores dependientes de DRAM y NAND generales deben prepararse para una volatilidad sostenida en precios hasta mediados o incluso finales de 2026-2027; habrá alivio solo si los fabricantes amplían capacidad o si disminuye demanda significativa. Schulke advierte que resolver problemas relacionados con memoria toma entre 18 y 24 meses mínimo.

Para quienes gestionan presupuestos tecnológicos fuera del círculo OpenAI o Google eso implica que el hardware requerido actualmente es más caro, tardará más tiempo en abaratarse y dependerá directamente de decisiones tomadas desde los centros neurálgicos vinculados con inteligencia artificial.

Este contenido fue hecho con la asistencia de una inteligencia artificial y contó con la revisión del editor/periodista.

TRA Digital

GRATIS
VER