Nvidia 已与硬件基础设施供应商 Vertiv 合作,为未来的人工智能工厂数据中心提供液体冷却设计。
AI 工厂是指定的数据中心,强调 AI 应用,而不是数据库和 ERP 等传统业务应用。它们在超密集配置中大量使用 GPU,而 GPU 产生的热量比传统 CPU 高得多。
正因为如此,在这些装满 GPU 的密集机架配置中,空气冷却已不再可行,因此加快了向液体冷却的转变。每个机架的空气冷却功率最高可达 30 千瓦。之后就跟不上了。
通过联合设计,Vertiv 和 Nvidia 为每个机架提供高达 132 千瓦的液冷支持。该架构旨在优化当前和未来一代数据中心的部署速度、性能、弹性、成本、能效和可扩展性。
该参考架构实际上是一种混合液体冷却和空气冷却基础设施,可简化和加速新数据中心和现有数据中心的人工智能工作负载部署,并实现跨站点标准化。通过使用预配置模块和工厂集成,Vertiv 声称其交付人工智能关键基础设施的速度比现场构建快 50%。
“新数据中心是为加速计算和生成式人工智能而建造的,其架构要比通用计算的架构复杂得多。借助Vertiv世界一流的冷却和电源技术,Nvidia可以实现我们重塑计算的愿景,并建立一个由人工智能工厂组成的新产业,生产数字智能,造福每家公司和每个行业,"Nvidia首席执行官黄仁勋在一份声明中说。
两家公司自 2024 年 3 月开始合作,当时 Vertiv 成为解决方案顾问: 自 2024 年 3 月以来,两家公司一直在合作,当时 Vertiv 成为了 Nvidia 合作伙伴网络(NPN)中的解决方案顾问合作伙伴,从而可以更广泛地利用 Vertiv 的经验和完整的电源与冷却解决方案组合。