Meta 推出了 Llama 3,这是其最先进的开源大型语言模型(LLM)的下一代产品。这家技术巨头声称,Llama 3 确立了新的性能基准,在实际应用场景中超越了 GPT-3.5 等以前的行业领先模型。
"Meta 在一篇宣布发布 Llama 3 的博文中说:"通过 Llama 3,我们着手建立最好的开放模型,与当今最好的专有模型相媲美。
最初开放的 Llama 3 模型是 80 亿和 700 亿参数版本。Meta表示,其团队仍在训练更大的4000多亿参数模型,这些模型将在未来几个月内发布,同时发布的还有详细介绍这项工作的研究论文。
Llama 3 的开发历时两年多,投入了大量资源用于收集高质量的训练数据、扩大分布式训练规模、优化模型架构以及创新的指令微调方法。
在编码、推理和创意写作等 12 个关键使用场景的人类评估中,Meta 的 700 亿参数指令微调模型的表现优于 GPT-3.5、Claude 和其他同等规模的 LLM。该公司的 80 亿参数预训练模型还在流行的 LLM 评估任务中树立了新的基准:
"Meta 表示:"我们相信,这些模型是同类产品中最好的开源模型。
这家科技巨头正在通过 "默认开放 "的方式发布这些模型,以进一步推动人工智能开发的开放生态系统。Llama 3 将适用于所有主要的云提供商、模型主机、硬件制造商和人工智能平台。
Iris.ai 首席技术官兼联合创始人维克多-博特夫(Victor Botev)说: "随着全球向人工智能监管的转变,Meta 的 Llama 3 模型的推出值得关注。通过开源实现透明,Meta 与日益强调负责任的人工智能实践和道德发展保持了一致。
"此外,这也为更广泛的社区教育提供了机会,因为开放模型有助于深入了解开发情况,并能够对各种方法进行审查,这种透明度将反馈到法规的起草和执行中。"
与Meta的最新模型配套的是一套更新的人工智能安全工具,包括用于风险分类的Llama Guard和用于评估潜在滥用的CyberSec Eval的第二次迭代。此外,还引入了一个名为 Code Shield 的新组件,用于在推理时过滤不安全代码建议。
"Botev继续说道:"然而,保持正确的观点非常重要--仅仅是开源模型并不能自动等同于道德人工智能。"应对人工智能的挑战需要采取全面的方法来解决数据隐私、算法偏见和社会影响等问题,这些都是全球新兴人工智能法规的重点。
"虽然像 Llama 3 这样的开放倡议促进了审查和合作,但其真正的影响取决于人工智能治理合规的整体方法,以及将道德规范嵌入人工智能系统的生命周期。Meta 公司在 Llama 模型方面的持续努力是朝着正确方向迈出的一步,但合乎道德的人工智能需要所有利益相关方的持续承诺。"
Meta 公司表示,它已采用 "系统级方法",通过 Llama 3 进行负责任的人工智能开发和部署。虽然这些模型经过了广泛的安全测试,但该公司强调,开发人员应根据自己的应用要求实施输入/输出过滤。
该公司集成了 Llama 3 的最终用户产品是 Meta AI,Meta 声称,由于新机型的推出,Meta AI 现在已成为世界领先的人工智能助手。用户可以通过 Facebook、Instagram、WhatsApp、Messenger 和网络访问 Meta AI,以提高工作效率、学习能力、创造力和一般查询。
整合视觉功能的多模态 Meta AI 版本即将推出,Meta 的雷朋智能眼镜也将提前预览。
尽管《Llama 3》取得了相当大的成就,但人工智能领域的一些人对Meta公司 "为了社会利益 "而采用开放方法的动机表示怀疑。
然而,就在 Mistral AI 通过 Mixtral 8x22B 为开源模型树立了新标杆的一天之后,Meta 的发布确实再次提高了开放式 LLM 的标准。