El mundo se está quedando sin... RAM
Si mañana querés ponerte a armar tu propia PC vas a notar que de todos los componentes hay uno que se fue al cuerno con los precios: la memoria RAM.
Los datacenters para procesar AI son como el Google Chrome, se comen toda la RAM que hay, pero toda la disponible en el mundo. Esto está pasando hoy y ahora.
Hay una pequeña revolución con tal de llenar los datacenters de hardware aunque todavía no exista uso para darle, pero con la locura de la "carrera del oro" de la AI, están todos chocándose entre sí y el producto que menos puede adaptarse a ese tipo de demanda es la memoria RAM.
Estamos ante una nueva época horrible para armarte o comprar una PC, si tenés suficiente RAM hoy, bien por vos, si, en cambio, estabas pensando en comprar algún módulo extra, malas noticias.
En los últimos tres meses el precio de los módulos subió TRES veces, no es poco, es una barbaridad y esto no sigue una tendencia a la baja, todo lo contrario.
La mayoría de las marcas OEM que fabrican PCs están armándose de stocks grandes para su fabricación de 2026 porque los productores de RAM ya les han dado aviso.
Esto afecta tanto a DDR4 como DDR5, que son los más comunes hoy en día, ya que los más viejos no son requeridos para los datacenters, además también afecta a memorias de GPUs.
Ya con los GPU vivimos una situación parecida cuando se dio el boom de la minería de bitcoin, en ese momento no era tanto lo que se necesitaba de VRAM como de GPU, así que las mejores placas de video eran carísimas o inexistentes.
Ahora, en cambio, hay placas de video muy buenas y baratas, pero todas con una cantidad limitada de VRAM, las que realmente tienen mucha memoria se usan para AI. Y ahí está la clave de este faltante: AI.
Mucha, mucha RAM
El boom nace por la Inteligencia Artificial, pero no de la forma que normalmente uno creería, no está desapareciendo la memoria RAM por una necesidad actual real sino por una potencial futura.
La cuestión es ¿Quién será el proveedor de la próxima empresa exitosa de AI? Pues bien, para saberlo primero hay que tener el hardware para ofrecerle y la parte crucial y menos controlada del asunto es la memoria RAM que sí o sí necesita para funcionar.
Para que se entienda por qué: todos los modelos de AI se basan en matrices de números, los "pesos" de un modelo (weights) se suben enteros a memoria y de esa forma se puede calcular la predicción de la siguiente palabra de lo que responde.
Los modelos actuales son bestialmente grandes, si bien podemos correr versiones reducidas en memoria local, la realidad es que a nivel profesional, como ChatGPT de OpenAI o Sonnet de Claude, necesitás tenerlo todo en RAM (para que sea rápido) y son modelos que pesan más de 500GB cada uno, sí, mucha RAM.
Suplir este mercado y su posible crecimiento es parte de la burbuja AI, el problema es que todos quieren ser el datacenter de estas empresas, así que quienes pueden se pusieron a montarlos y expandirlos, aun sin un cliente o un trabajo pendiente de cubrir, la carrera es por poseer la capacidad.
Esto provocó un inevitable boom de ventas y demanda, de ahí el salto del precio de los módulos que llega a todos. Por otra parte se usa en servidores prácticamente la misma memoria que en una notebook o desktop (con la diferencia que es más común usar memorias ECC con corrección de errores) con diferencias en formatos y calidad, pero ¿Por qué los fabricantes atenderían al mercado que menos margen les deja y abandonarían al mejor? No, para nada, se van al mejor y el mejor no es el de consumidores finales minoristas.
La migración
Hace unos día Crucial anunció que abandonaba el mercado de consumidores para suplir la demanda del de data centers, directamente dejan a los gamers y quien sea afuera de su visión, no los necesitan. Es tal la demanda y la billetera que pueden hacer esto sin riesgo alguno.
El día en que reviente la burbuja van a estar nadando en dinero y podrán volver a suplir la demanda (si es que existe) de consumidores pequeños.
Tal es el problema que Samsung no le vende a Samsung, es decir, el conglomerado coreano está subdividido en empresas más pequeñas, y la que fabrica módulos RAM y chips no le quiere vender a Samsung la que hace teléfonos.
Aunque la marca salió a desmentirlo el problema es de la cadena de valor, los módulos 12GB LPDDR5X pasaron de costar USD 33 a USD 70 y alguien tiene que pagarlos, y ya sabemos quién será: el consumidor.
Lenovo ya tiene stocks y Apple es el que mejor lo puede manejar gracias a sus contratos y gran billetera que todos quieren conquistar, pero para muchos OEMs la cosa se pondrá difícil durante el 2026.
La demanda es tal que OpenAI, por dar un ejemplo, cerró un acuerdo de 900.000 chips de memoria por mes sólo para su proyecto Stargate con SK Hynix y Samsung.
Recordemos que durante la pandemia se dio un problema similar con la memoria RAM, la industria no estaba preparada para cubrir la demanda de productos de consumo y hubo faltantes entre 2021 y 2022, ahora sucede lo mismo con este otro boom.
¿Tenés suficiente RAM? Hacela valer, hace un par de años pasé mi notebook de 16GB a 40GB y realmente no me arrepiento, ahora me costaría tres o cuatro veces más caro 😁
Otros posts que podrían llegar a gustarte...
