----
/
/
----
RAM AI

La escasez de memoria, cortesía de la IA

Y no, el título -aunque bien pudiera aplicar- no hace referencia a la capacidad de memoria humana, sino a un componente crucial de la electrónica de consumo que se conoce como RAM.

RAM, la sigla de Randon Access Memory, es un tipo de memoria de corto plazo que está presente en computadoras, laptops, smartphones y cualquier otro dispositivo similar que almacene datos para uso posterior, procesamientos diversos y otras funciones afines.

¿Qué tiene que ver la IA con RAM y por qué se habla de una escasez? Es muy sencillo: la industria de la IA también requiere de memoria, más de la que podríamos imaginar, y resulta que los proveedores de este tipo de soluciones se están enfocando en las necesidades de la IA antes que en las de otros tipos de consumidores menores. El resultado, ya lo estamos viendo: reportes no solo de escasez, sino de alzas cuantiosas en precios por un efecto de oferta y demanda.

El gran perdedor, como suele ocurrir en esos casos, es el consumidor, que no solo se enfrenta al prospecto de escasez y tiempos de espera, sino tiene que pagar un precio muy alto por obtener aquello que necesita. Los grandes ganadores, por supuesto, son los proveedores de memoria, que podría decirse son tres: Micron, SK Hynix y Samsung Electronics.

Pese a lo extensivo del uso de la sigla RAM, memoria RAM no hay solo una, y es aquí donde la cosa se pone truculenta. La industria de la IA, específicamente proveedores de chips IA como Nvidia o AMD, requieren de manera intensiva un tipo de memoria de de alto ancho de banda, mejor conocida como HBM (high bandwith memory). Esta es ideal para esos procesos intensivos que corren las herramientas y soluciones de IA.

Conforme crecen las capacidades de la IA, y conforme se hacen más rápidos y potentes estos chips, mayor demanda de memoria HBM, con el agravante de que la velocidad de la memoria no va a la par de estos chips. Significa, entonces que esos chips potentes como la nueva serie Rubin de Nvidia requieren de una cantidad cada vez mayor de memoria HBM y esto, por supuesto, impacta la capacidad el proveedor de suplir la demanda de otras partes del mercado, sobre todo porque este caso particular resulta mucho más lucrativo y atractivo en términos de crecimiento.

Micron, por ejemplo, ya vendió toda su producción para 2026, y no se trata este de un caso asilado. Por cada bit de memoria HBM que produce Micron, 3 bits de otras memorias más convencionales se dejan de producir, y ahí se ve cómo la IA impacta a este nivel. Para que se tenga una idea más acabada, el proceso de producir HBM implica colocar de 12 a 16 capas de memoria en un solo chip hasta convertirlo en una especie de cubo.

Es curioso que la IA está causando todo tipo de estragos, a nivel laboral, medioambiental y ahora en el plano de electrónica de consumo, y aún así Big Tech y la industria de la tecnología en general se empeñan en presentarla como la gran salvación de la humanidad. En un reciente podcast, el CEO de Nvidia, Jensen Huang, llegó al extremo de implorar a la gente a dejar de ser tan negativa en torno a la IA, pero es fácil asumir esa posición cuando las circunstancias no solo han llevado a su compañía al tope, sino que ha hecho lo propio con su fortuna personal.

Deja una respuesta

AUTORA

ROCIO DIAZ

ARTICULOS RECIENTES

Categorías

instagram