Ampere Computing 公司每年都会更新即将推出的产品和里程碑,包括增加其基于 Arm 的 AmpereOne 服务器芯片的内核数量,以及成立一个新的工作组,共同开发 AI SOC。
Ampere 首席执行官、英特尔前高管 Renee James 表示,人工智能处理器对功耗的要求越来越高,这种情况根本无法持续,而 Ampere 代表了一种更好的功耗替代方案。"她在一份声明中说:"目前的道路是不可持续的。"我们认为,未来的数据中心基础设施必须考虑如何利用升级的计算技术改造现有的风冷环境,以及建设符合环境可持续发展要求的新数据中心,以适应电网的可用电力。这正是我们安培所能实现的。
在处理器方面,该公司的顶级 AmpereOne 处理器将从 192 核增加到 256 核,内存从 8 通道增加到 12 通道,从而扩大了内存带宽。Ampere 首席产品官杰夫-维蒂希(Jeff Wittich)说,现有的 192 核 AmpereOne 处理器可以放入 12 通道平台,使其向前兼容。
尽管内核数量巨大,但不需要液体冷却。"我们路线图上的所有产品都不需要液冷。因此,我们可以让用户在现有的数据中心基础架构内轻松运行。我们将提供比现在更好的电源效率,"Wittich 告诉我。
Ampere 声称,在行业标准 Spec_Int 基准测试中,256 核 AmpereOne 的性能比 AMD Genoa(96 核)高出 50%,比 Bergamo(128 核)高出 15%。Wittich说,英特尔公司在内核数量方面没有可与之比较的处理器。
对于那些希望更新和整合旧基础设施以回收空间、预算和电力的数据中心运营商来说,AmpereOne 称其每个机架的性能最多可提高 34%。
"Wittich说:"因此,就Spec_Int速率而言,我们是最高效的解决方案,而且你显然也可以将其转化为机架级别的性能,AMD和英特尔也已经开始更多地讨论这个问题。
他承认该基准不是真实的工作负载,但他表示,与典型的网络堆栈工作负载(如nginx、Redis、MySQL和Memcached)相比,Ampere在竞争中处于领先地位。"他说:"如果把所有这些放在一起,从机架层面来看,基于 AmpereOne 部署的服务器与 AMD Genoa 或 AMD Bergamo 相比,所需的空间和服务器数量都要少得多,功耗也要低 35%。
另有消息称,Ampere正在与高通技术公司(Qualcomm Technologies)合作,扩大采用Ampere CPU和高通云AI100 Ultra的联合解决方案的规模。该解决方案将在业界最大的生成式人工智能模型上解决LLM推理问题。
Ampere 还宣布,Meta 的 Llama 3 现已在 Oracle Cloud 的 Ampere CPU 上运行。Ampere 表示,性能数据显示,在不带 GPU 的 128 核 Ampere Altra CPU(AltraOne 的前身)上运行 Llama 3,其性能与搭配 x86 CPU 的 Nvidia A10 GPU 相同,而功耗仅为后者的三分之一。
最后,Ampere 宣布成立通用芯片组互连快递(UCIe)工作组,作为其去年成立的人工智能平台联盟的一部分。这个由芯片设计人员组成的联盟旨在汇集他们的资源和人才,推动人工智能芯片的开发。UCIe 围绕开放式芯片集成而设计,提供了一个跨行业的开放标准,用于构建 SOC 级解决方案,将来自不同公司的芯片集成到 SOC 中。
"我们认为,整个行业都需要开放的解决方案,每个人都可以广泛使用,这些解决方案不是围墙花园,也不是专有的。因此,我们正在服务器层面构建这些同类最佳的解决方案,以加快产品上市时间,让人们有机会进入市场,"Wittich 说。
上一条: 亚马逊与意大利洽谈数十亿欧元云计算投资