Endor Labs 已经开始根据其安全性、受欢迎程度、质量和活动性对 AI 模型进行评分。
被称为“AI 模型的 Endor 评分”,这一独特功能旨在通过提供简单明了的评分,简化识别当前在 Hugging Face 上可用的最安全开源 AI 模型的过程。Hugging Face 是一个共享大型语言模型(LLMs)、机器学习模型以及其他开源 AI 模型和数据集的平台。
这一公告是在开发者越来越多地转向 Hugging Face 等平台寻找现成的 AI 模型之际发布的,这与早期开源软件(OSS)广泛可用的情况相似。这一新发布通过使开发者能够“干净地开始”使用 AI 模型,改善了 AI 治理,这一目标迄今为止一直难以实现。
Endor Labs 的联合创始人兼首席执行官 Varun Badhwar 表示:“确保您代码所依赖的一切安全一直是我们的使命,而 AI 模型是这一关键任务中的下一个伟大前沿。”
“每个组织都在尝试使用 AI 模型,无论是为特定应用提供动力,还是构建整个基于 AI 的业务。安全性必须与之保持同步,这里有一个难得的机会,可以干净地开始,避免未来的风险和高维护成本。”
Endor Labs 的创始工程师 George Apostolopoulos 补充道:“现在每个人都在尝试使用 AI 模型。一些团队正在构建全新的基于 AI 的业务,而另一些团队则在寻找将‘由 AI 驱动’的标签贴在其产品上的方法。可以肯定的是,您的开发者正在玩弄 AI 模型。”
然而,这种便利并非没有风险。Apostolopoulos 警告说,目前的环境类似于“西部荒野”,人们在没有考虑潜在漏洞的情况下抓取适合自己需求的模型。
Endor Labs 的方法将 AI 模型视为软件供应链中的依赖项。
“Endor Labs 的使命是‘确保您代码所依赖的一切安全’,”Apostolopoulos 表示。这一观点使组织能够对 AI 模型应用与其他开源组件相似的风险评估方法。
Endor 的 AI 模型评分工具关注几个关键风险领域:
- 安全漏洞: 预训练模型可能隐藏恶意代码或模型权重中的漏洞,可能在集成到组织环境中时导致安全漏洞。
- 法律和许可问题: 遵守许可条款至关重要,特别是考虑到 AI 模型及其训练集的复杂来源。
- 操作风险: 对预训练模型的依赖创建了一个复杂的图形,可能难以管理和保护。
为了解决这些问题,Endor Labs 的评估工具对 Hugging Face 上的 AI 模型应用了 50 项现成检查。该系统根据维护者数量、企业赞助、发布频率和已知漏洞等因素生成“Endor 评分”。
评分系统中的积极因素包括使用安全的权重格式、存在许可信息以及高下载和参与指标。消极因素包括文档不完整、缺乏性能数据以及使用不安全的权重格式。
Endor 评分的一个关键特性是其用户友好的方法。开发者不需要知道特定的模型名称;他们可以通过一般性问题开始搜索,例如“我可以使用哪些模型来分类情感?”或“Meta 的最受欢迎模型是什么?”该工具随后提供清晰的评分,排名每个模型的正面和负面方面,使开发者能够选择最适合其需求的选项。
“您的团队每天都在被问及 AI,他们会寻找可以用来加速创新的模型,”Apostolopoulos 指出。“使用 Endor Labs 评估开源 AI 模型可以确保您使用的模型能够按预期工作,并且是安全的。”
(照片由 Element5 Digital 提供)
另请参见:中国电信在国内芯片上训练具有 1 万亿参数的 AI 模型
想了解更多行业领袖关于 AI 和大数据的内容吗? 请查看 AI & 大数据博览会,该活动将在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与其他领先活动共同举办,包括智能自动化会议、区块链博览会、数字化转型周和网络安全与云博览会。
在此探索其他即将举行的企业技术活动和由 TechForge 提供的网络研讨会。