稳定AI推出了其Stable LM 2语言模型系列的最新版本:一个拥有120亿参数的基础模型和一个经过指令调优的变体。这些模型在七种语言(英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语)中训练了令人印象深刻的2万亿个标记。
这个120亿参数的模型旨在在强大性能、效率、内存需求和速度之间取得平衡。它遵循了Stability AI之前发布的Stable LM 2 1.6B技术报告的已建立框架。这个新版本扩展了公司的模型范围,为开发人员提供了一个透明而强大的工具,用于创新的AI语言技术。
除了12B模型,Stability AI还发布了其Stable LM 2 1.6B模型的新版本。这个更新的1.6B变体在同样的七种语言中提高了对话能力,同时保持了非常低的系统要求。
Stable LM 2 12B被设计为一种高效的开放模型,适用于多语言任务,在广泛可用的硬件上具有流畅的性能。
据Stability AI称,这个模型可以处理通常只适用于更大模型的任务,这些模型通常需要大量的计算和内存资源,比如大型专家混合模型(MoEs)。经过指令调优的版本特别适用于各种用途,包括作为检索RAG系统的核心部分,因为它在工具使用和函数调用方面具有高性能。
在与Mixtral、Llama2、Qwen 1.5、Gemma和Mistral等流行的强大语言模型进行性能比较时,Stable LM 2 12B在Open LLM排行榜中的零样本和少样本任务上表现出色。
通过这个新版本,Stability AI将StableLM 2系列扩展到了12B类别,提供了一个开放和透明的模型,而不会牺牲功能和准确性。该公司相信,这个发布将使开发人员和企业能够在保留对其数据的完全控制的同时继续开发未来。
开发人员和企业现在可以使用Stable LM 2 12B进行商业和非商业用途,需要通过Stability AI会员资格。
(照片由Muha Ajjan提供)
另请参阅:ML奥林匹克竞赛带来20多个挑战
想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI&Big Data Expo。这个综合性的活动与其他领先的活动同时举办,包括BlockX、Digital Transformation Week和Cyber Security&Cloud Expo。
探索由TechForge提供支持的其他即将举行的企业技术活动和网络研讨会。