
La IA de las cartas, que significa «inteligencia artificial», se encuentra en el stand de Amazon Web Services en la Feria de Comercio Industrial Hannover Messe en Hannover, Alemania, el 31 de marzo de 2025.
Julian Stratenschulte | Alianza de imágenes | Getty Images
Amazonas dijo el miércoles que su división en la nube ha desarrollado hardware para enfriar la próxima generación Nvidia Unidades de procesamiento de gráficos que se utilizan para cargas de trabajo de inteligencia artificial.
Las GPU de Nvidia, que han alimentado el auge de IA generativo, requieren grandes cantidades de energía. Eso significa que las empresas que usan los procesadores necesitan equipos adicionales para enfriarlos.
Amazon consideró erigir centros de datos que podrían acomodar el enfriamiento de líquidos generalizados para aprovechar al máximo estas GPU NVIDIA hambrientas de energía. Pero ese proceso habría tomado demasiado tiempo, y el equipo disponible comercialmente no habría funcionado, Dave Brown, vicepresidente de servicios de cálculo y aprendizaje automático en Amazon Web Services, dijo en un video publicado en YouTube.
«Tomarían demasiado espacio en el centro de datos o aumentarían sustancialmente el uso de agua», dijo Brown. «Y aunque algunas de estas soluciones podrían funcionar para volúmenes más bajos en otros proveedores, simplemente no serían suficiente capacidad de refrigeración por líquidos para apoyar nuestra escala».
Más bien, los ingenieros de Amazon concebieron el intercambiador de calor en la fila, o IRHX, que se pueden conectar a los centros de datos existentes y nuevos. El enfriamiento del aire más tradicional fue suficiente para las generaciones anteriores de chips nvidia.
Los clientes ahora pueden acceder al servicio AWS como instancias de computación que se llaman P6E, escribió Brown en una publicación de blog. Los nuevos sistemas acompañan el diseño de Nvidia para la densa potencia informática. NVIDIA’s GB200 NVL72 empaca un solo estante con 72 GPU NVIDIA Blackwell que están conectadas juntas para entrenar y ejecutar grandes modelos de IA.
Los grupos de computación basados en el GB200 NVL72 de NVIDIA han estado disponibles previamente a través de Microsoft o Coreweave. AWS es el mayor proveedor del mundo de infraestructura en la nube.
Amazon ha lanzado su propio hardware de infraestructura en el pasado. La compañía tiene chips personalizados para computación de propósito general y para IA, y diseñó sus propios servidores de almacenamiento y enrutadores de red. Al ejecutar hardware local, Amazon depende menos de los proveedores de terceros, lo que puede beneficiar el resultado final de la compañía. En el primer trimestre, AWS entregó el margen operativo más amplio desde al menos 2014, y la unidad es responsable de la mayor parte de los ingresos netos de Amazon.
Microsoft, el segundo mayor proveedor de nubes, ha seguido el liderazgo de Amazon e hizo avances en el desarrollo de chips. En 2023, la compañía diseñó sus propios sistemas llamados Sidekicks para enfriar los chips Maia AI que desarrolló.
MIRAR: AWS anuncia el último chip CPU, entregará la velocidad de redes récord

Últimas noticias de última hora Portal de noticias en línea