‘评分AI模型:Endor Labs推出评估工具’

Endor Labs 已经开始根据其安全性、受欢迎程度、质量和活动性对 AI 模型进行评分。

被称为“AI 模型的 Endor 评分”,这一独特功能旨在通过提供简单明了的评分,简化识别当前在 Hugging Face 上可用的最安全开源 AI 模型的过程。Hugging Face 是一个共享大型语言模型(LLMs)、机器学习模型以及其他开源 AI 模型和数据集的平台。

这一公告是在开发者越来越多地转向 Hugging Face 等平台寻找现成的 AI 模型之际发布的,这与早期开源软件(OSS)广泛可用的情况相似。这一新发布通过使开发者能够“干净地开始”使用 AI 模型,改善了 AI 治理,这一目标迄今为止一直难以实现。

Endor Labs 的联合创始人兼首席执行官 Varun Badhwar 表示:“确保您代码所依赖的一切安全一直是我们的使命,而 AI 模型是这一关键任务中的下一个伟大前沿。”

“每个组织都在尝试使用 AI 模型,无论是为特定应用提供动力,还是构建整个基于 AI 的业务。安全性必须与之保持同步,这里有一个难得的机会,可以干净地开始,避免未来的风险和高维护成本。”

Endor Labs 的创始工程师 George Apostolopoulos 补充道:“现在每个人都在尝试使用 AI 模型。一些团队正在构建全新的基于 AI 的业务,而另一些团队则在寻找将‘由 AI 驱动’的标签贴在其产品上的方法。可以肯定的是,您的开发者正在玩弄 AI 模型。”

然而,这种便利并非没有风险。Apostolopoulos 警告说,目前的环境类似于“西部荒野”,人们在没有考虑潜在漏洞的情况下抓取适合自己需求的模型。

Endor Labs 的方法将 AI 模型视为软件供应链中的依赖项。

“Endor Labs 的使命是‘确保您代码所依赖的一切安全’,”Apostolopoulos 表示。这一观点使组织能够对 AI 模型应用与其他开源组件相似的风险评估方法。

Endor 的 AI 模型评分工具关注几个关键风险领域:

  • 安全漏洞: 预训练模型可能隐藏恶意代码或模型权重中的漏洞,可能在集成到组织环境中时导致安全漏洞。
  • 法律和许可问题: 遵守许可条款至关重要,特别是考虑到 AI 模型及其训练集的复杂来源。
  • 操作风险: 对预训练模型的依赖创建了一个复杂的图形,可能难以管理和保护。

为了解决这些问题,Endor Labs 的评估工具对 Hugging Face 上的 AI 模型应用了 50 项现成检查。该系统根据维护者数量、企业赞助、发布频率和已知漏洞等因素生成“Endor 评分”。

Endor Labs 的 AI 模型评分工具的截图。

评分系统中的积极因素包括使用安全的权重格式、存在许可信息以及高下载和参与指标。消极因素包括文档不完整、缺乏性能数据以及使用不安全的权重格式。

Endor 评分的一个关键特性是其用户友好的方法。开发者不需要知道特定的模型名称;他们可以通过一般性问题开始搜索,例如“我可以使用哪些模型来分类情感?”或“Meta 的最受欢迎模型是什么?”该工具随后提供清晰的评分,排名每个模型的正面和负面方面,使开发者能够选择最适合其需求的选项。

“您的团队每天都在被问及 AI,他们会寻找可以用来加速创新的模型,”Apostolopoulos 指出。“使用 Endor Labs 评估开源 AI 模型可以确保您使用的模型能够按预期工作,并且是安全的。”

(照片由 Element5 Digital 提供)

另请参见:中国电信在国内芯片上训练具有 1 万亿参数的 AI 模型

想了解更多行业领袖关于 AI 和大数据的内容吗? 请查看 AI & 大数据博览会,该活动将在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与其他领先活动共同举办,包括智能自动化会议区块链博览会数字化转型周网络安全与云博览会

在此探索其他即将举行的企业技术活动和由 TechForge 提供的网络研讨会

标签: , , , , , , ,