如果说一周在政治上通常是很长的时间,那么在人工智能领域,这段时间就像是一个巨大的鸿沟。领先供应商的创新速度是一回事,竞争加剧时创新的激烈程度则是另一回事。但是,人工智能技术的伦理问题是否被这种快速的步伐所抛在了后头呢?
Anthropic公司的Claude创造者本周发布了Claude 3,并声称它是“智能的新标准”,超越了ChatGPT和谷歌的Gemini等竞争对手。该公司还表示,在各种任务中,它也实现了“接近人类”的熟练程度。事实上,正如Anthropic公司的工程师Alex Albert指出的那样,在Claude 3 Opus的测试阶段,这个最强大的LLM(大型语言模型)变体表现出了它正在接受评估的意识。
在文本到图像方面,Stability AI在二月底宣布了Stable Diffusion 3的早期预览,就在OpenAI推出了Sora,这是一个全新的人工智能模型,能够根据简单的文本提示生成几乎逼真的高清视频。
虽然进展不断,但完美仍然难以实现。谷歌的Gemini模型因生成历史不准确的图像而受到批评,这“重新引发了对人工智能系统偏见的担忧”,正如本文所说。谷歌对Gemini的担忧作出回应,暂时停止了人物图像的生成。在一份声明中,该公司表示,Gemini的人工智能图像生成“确实生成了各种各样的人物…这通常是一件好事,因为全世界的人都在使用它。但它在这里没有达到预期。”Stability AI在预览Stable Diffusion 3时指出,该公司相信安全、负责任的人工智能实践。“安全从我们开始训练模型并贯穿整个测试、评估和部署过程中开始,”一份声明如是说。OpenAI正在采取类似的方法,Sora在1月份宣布了一个倡议,旨在在家庭和教育者中推广负责任的人工智能使用。
这是供应商的观点 – 但是大型组织如何应对这个问题呢?看看BBC如何利用生成式人工智能并确保它将价值观放在首位。去年十月,BBC的国家总监Rhodri Talfan Davies指出了一个三方面的战略:始终以公众的最佳利益行事;始终优先考虑人才和创造力;以及开放和透明。
上周,BBC进一步明确了这些原则,并提出了一系列基于这些原则的试点项目。其中一个例子是通过改变现有内容的格式来扩大其吸引力,比如将现场体育广播转化为快速的文本。此外,关于人工智能的编辑指南已经更新,指出“所有人工智能的使用都有人类的积极监督。”
值得注意的是,BBC认为不应该未经许可就对其数据进行爬取,以训练其他生成式人工智能模型,因此禁止了OpenAI和Common Crawl等爬虫。这将是未来利益相关者需要达成一致的另一个重要议题。
另一个认真对待道德人工智能责任的大公司是博世。这家家电制造商在其道德准则中有五个指导原则。第一个是所有博世人工智能产品都应反映出“为生活而发明”的理念,将创新追求与社会责任感相结合。第二个原则与BBC相似;不应在没有人类仲裁者的情况下做出影响人们的人工智能决策。另外三个原则则探讨了安全、稳健和可解释的人工智能产品;信任;以及遵守法律要求和以伦理原则为导向。
当这些准则首次公布时,该公司希望其人工智能道德准则能够为人工智能的公众辩论做出贡献。当时的博世首席执行官Volkmar Denner表示:“人工智能将改变我们生活的方方面面。因此,这样的辩论是至关重要的。”
这正是由TechForge Media主办的免费虚拟AI World Solutions Summit活动所秉持的理念,该活动将于3月13日举行。博世公司新加坡亚太地区副总裁Sudhir Tiku是主题演讲嘉宾之一,他的演讲将于格林尼治标准时间12:45开始,探讨安全扩展人工智能的复杂性,以及围绕其实施的伦理考虑、责任和治理。另一场演讲将于格林尼治标准时间14:45开始,探讨人工智能对社会的长期影响,以及如何改变商业文化和思维方式,以促进对人工智能的更大信任。
立即预订免费通行证,参加今天的现场虚拟会议。
探索由TechForge提供支持的其他即将举行的企业技术活动和网络研讨会这里。