Linux 打包商的 SUSE AI 早期访问计划可能会引起那些希望在公司内部运行生成式人工智能的公司的兴趣。
SUSE周二表示,它正在准备一个 "企业级生成式人工智能平台",该平台可以在企业内部或云端运行任何供应商的大型语言模型(LLM)。但分析师表示,鉴于主要厂商几乎都没有定位内部部署,SUSE可能会在内部部署场景中大显身手。
咨询公司 OpenSourceSense 高级合伙人比尔-温伯格(Bill Weinberg)表示,企业内部人工智能套件的缺乏值得注意。
"我还没有看到很多集成的人工智能产品谈到内部部署。去年,IBM 和 VMware 曾宣布支持 Watson AI on prem,但从 VMware 目前的发展轨迹来看,很难说这一解决方案在今天有多大的影响力,"Weinberg 说。Weinberg 说:"今天发布的公告有力地证明了公司作为开源 AI 技术企业供应商的地位,但并没有对企业市场在企业内部 AI 方面的真实状况做出具体的假设。他们是在对冲赌注。"
SUSE 计划 "为企业提供一个模块化、安全、与供应商和 LLM 无关的 gen-AI 平台,该平台将消除孤岛并降低与企业生成式 AI 实施相关的成本。这些人工智能解决方案基于 SUSE 行业领先的开源企业级 SUSE Linux、Rancher Prime Kubernetes 管理和 Rancher NeuVector 安全产品,将使企业能够在安全、私有的环境中控制数据流,降低法规遵从风险并提高安全性,"该公司在一份声明中说。
Gartner研究副总裁托尼-亚姆斯(Tony Iams)说,SUSE没有谈论VMWare的替代方案,"在我们看来,这也许是一个失误"。他说,Broadcom 收购 VMware 的后果令客户担忧: "VMWare的替代问题是一个紧迫而现实的问题。"
两位分析师都认为,SUSE此举是对许多企业苦于制定有效的基因人工智能部署战略的回应,这种战略要兼顾网络安全、合规性、隐私、可扩展性、数据泄露、影子人工智能、准确性(又称幻觉)和成本效益。
一旦 IT 管理人员确定了是在云端还是在本地运行工作负载,他们就可以探讨开源操作系统与专有操作系统的问题。
关于生成式人工智能工作负载是在企业内部还是在云中运行,"有一些成本方面的考虑。Iams 说:"成本权衡还没有定论。
对于许多企业来说,内部部署与云计算的争论更多的是控制问题。对于首席信息官和首席信息安全官来说,一个常见的问题是,他们为企业的环境量身定制了精确的设置和自定义功能,但却发现这些决定被云计算工作人员所覆盖,因为他们对所有云租户的设置进行了通用更改。
Weinberg说:"普遍的商业模式是,首席信息官希望扼住喉咙,"他指的是控制自己团队雇佣的员工和承包商的能力,而不是控制为云供应商工作的员工或承包商的能力。
至于软件,Iams 说:"开放源代码并不总是比封闭源代码便宜。有一种看法认为开放源码很便宜,但必须有人让所有的开源软件协同工作"。
这正是 SUSE 的论点之一,他们将提供一套支持 gen-AI 部署所需的所有元素,所有元素都经过测试,可以很好地协同工作。
"供应商在声明中说:"SUSE 在处理人工智能问题时,以开源原则为坚实基础,致力于提供安全性,并相信客户的选择(包括设计隐私)是最重要的。"SUSE人工智能采取了一种负责任的人工智能方法,通过这种方法,企业有权选择他们喜欢的模型和工具,以便在一个私密、安全和可靠的环境中最大限度地利用人工智能。"
温伯格还指出了另一种 IT 恐惧,那就是当一家人工智能供应商倒闭或者干脆放弃该产品线时会发生什么。他将开源人工智能战略比作传统的代码托管,称开源是 "最后的托管"。如果供应商倒闭了,你可以在一个友好的开源论坛上获得源代码许可"。
上一条: Nvidia发布下一代Rubin平台分享人工智能愿景
下一条: 人工智能在麦当劳得来速的兴衰