Anthropic 指出人工智能系统的潜在风险,并呼吁制定良好结构的监管以避免潜在的灾难。该组织认为,针对性的监管对于利用人工智能的好处,同时减轻其危险至关重要。
随着人工智能系统在数学、推理和编码等能力上的发展,它们在网络安全甚至生物和化学领域的潜在误用显著增加。
Anthropic 警告称,接下来的 18 个月对政策制定者采取行动至关重要,因为主动预防的窗口正在缩小。值得注意的是,Anthropic 的 Frontier Red Team 强调当前模型已经能够参与各种网络攻击相关任务,并预计未来的模型将更加有效。
特别令人担忧的是人工智能系统可能加剧化学、生物、放射和核(CBRN)误用的潜力。英国人工智能安全研究所发现,几种人工智能模型现在能够在科学相关问题的回答上匹配博士级人类专家的水平。
为应对这些风险,Anthropic 详细介绍了其于 2023 年 9 月发布的负责任的扩展政策(RSP),作为一种强有力的对策。RSP 要求根据人工智能能力的复杂性增加安全和保障措施。
RSP 框架旨在适应性和迭代性,定期评估人工智能模型,以便及时完善安全协议。Anthropic 表示,它致力于在各个团队扩展中维护和增强安全,特别是在安全性、可解释性和信任领域,确保为其 RSP 设定的严格安全标准做好准备。
Anthropic 认为,尽管 RSP 的广泛采用主要是自愿的,但在应对人工智能风险方面至关重要。
透明有效的监管对于向社会保证人工智能公司遵守安全承诺至关重要。然而,监管框架必须具有战略性,激励良好的安全实践,而不施加不必要的负担。
Anthropic 设想的监管应清晰、集中,并适应不断变化的技术环境,认为这些对于在风险缓解和促进创新之间取得平衡至关重要。
在美国,Anthropic 建议联邦立法可能是应对人工智能风险监管的最终答案——尽管如果联邦行动滞后,州驱动的倡议可能需要介入。各国制定的立法框架应允许标准化和相互承认,以支持全球人工智能安全议程,最小化不同地区的监管遵从成本。
此外,Anthropic 还解决了对实施监管的怀疑——强调过于宽泛的用例导向的监管对于具有多样化应用的通用人工智能系统将是低效的。相反,监管应针对人工智能模型的基本属性和安全措施。
尽管涵盖广泛的风险,Anthropic 承认一些直接威胁——如深度伪造——并不是他们当前提案的重点,因为其他倡议正在处理这些更近的议题。
最终,Anthropic 强调制定促进创新而非抑制创新的监管的重要性。尽管初始的合规负担不可避免,但可以通过灵活和精心设计的安全测试来最小化。适当的监管甚至可以通过保护知识产权免受内部和外部威胁来帮助维护国家利益和私营部门的创新。
通过关注经验测量的风险,Anthropic 计划建立一个既不偏向也不偏爱开放或闭源模型的监管环境。目标依然明确:通过严格但可适应的监管来管理前沿人工智能模型的重大风险。
(图片来源: Anthropic)
想了解更多来自行业领袖的人工智能和大数据信息吗? 请查看人工智能与大数据博览会,该活动将在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与其他领先活动共同举办,包括智能自动化会议、区块链博览会、数字转型周和网络安全与云博览会。
在这里探索其他即将举行的企业技术活动和网络研讨会,均由 TechForge 提供支持。