OpenAI加入了内容来源和真实性联盟(C2PA)的指导委员会,并将该开放标准的元数据整合到其生成式AI模型中,以增加生成内容的透明度。
C2PA标准允许数字内容通过元数据进行认证,证明其来源,无论是完全由AI创建,使用AI工具进行编辑,还是传统捕获。OpenAI已经开始将C2PA元数据添加到其最新的DALL-E 3模型在ChatGPT和OpenAI API中生成的图像中。当OpenAI的即将推出的视频生成模型Sora在更广泛范围内推出时,这些元数据将被整合进去。
“即使没有这些信息(或者可以删除它),人们仍然可以创建具有欺骗性的内容,但他们无法轻易伪造或更改这些信息,这使其成为建立信任的重要资源,”OpenAI解释道。
这一举措是在对AI生成内容在美国、英国和其他国家今年的重大选举前可能误导选民的担忧日益增长的背景下进行的。验证AI创建的媒体可以帮助打击深度伪造和其他旨在进行虚假信息宣传的操纵内容。
尽管技术措施有所帮助,但OpenAI承认,在实践中实现内容真实性需要平台、创作者和内容处理者的集体行动,以保留元数据供最终用户使用。
除了C2PA的整合,OpenAI还正在开发新的溯源方法,如耐篡改的水印技术,用于音频和图像检测分类器,以识别AI生成的视觉内容。
OpenAI已经通过其研究员访问计划向外界开放了对其DALL-E 3图像检测分类器的访问申请。该工具可以预测一张图片是否来自OpenAI的模型。
“我们的目标是促进独立研究,评估分类器的有效性,分析其在现实世界中的应用,提出相关的使用考虑,并探索AI生成内容的特征,”该公司表示。
内部测试显示,该分类器在区分非AI图像和DALL-E 3视觉图像方面具有很高的准确性,DALL-E图像中约有98%被正确识别,而非AI图像中不到0.5%被错误标记。然而,该分类器在区分DALL-E和其他生成式AI模型生成的图像方面更加困难。
OpenAI还将水印技术应用于其定制语音模型Voice Engine,目前处于有限预览阶段。
该公司认为,更广泛地采用溯源标准将导致元数据随着内容的整个生命周期附带,填补“数字内容真实性实践中的重要空白”。
OpenAI与微软合作,共同推出了一项200万美元的社会韧性基金,以支持AI教育和理解,包括通过AARP、国际民主与选举协会和AI伙伴关系等机构进行。
“虽然上述技术解决方案为我们提供了积极的防御工具,但在实践中实现内容真实性将需要集体行动,”OpenAI表示。
“我们在溯源方面的努力只是更广泛的行业努力的一部分——我们的许多同行研究实验室和生成式AI公司也在推进这一领域的研究。我们赞扬这些努力——行业必须合作并分享见解,以增强我们的理解并继续促进在线透明度。”
(照片由Marc Sendra Martorell提供)
另请参阅:Chuck Ros, SoftServe: Delivering transformative AI solutions responsibly
想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data Expo。这个综合性的活动与其他领先的活动同时举办,包括智能自动化会议、BlockX、数字转型周和网络安全与云计算博览会。
探索由TechForge提供支持的其他即将举行的企业技术活动和网络研讨会这里。