谷歌的Gemini模型因其生成历史不准确和种族偏颇的图像而受到批评,重新引发了对人工智能系统偏见的担忧。
争议产生的原因是社交媒体平台上的用户充斥着Gemini生成的描绘种族多样的纳粹、黑人中世纪英国国王和其他不太可能的场景的图片示例。
与此同时,批评者还指出Gemini拒绝描绘高加索人、旧金山的教堂出于对土著敏感性的尊重,以及1989年的天安门广场等敏感历史事件。
作为对此的回应,谷歌的Gemini体验产品负责人杰克·克劳奇克承认了这个问题,并承诺会纠正。克劳奇克在社交媒体平台上向用户保证:
目前,谷歌表示正在暂停人物图像的生成。
尽管承认了在AI生成内容中解决多样性的必要性,但一些人认为谷歌的回应是过度纠正。
Netscape和a16z的联合创始人马克·安德烈森最近创建了一个名为Goody-2 LLM的“过度安全”的模仿AI模型,拒绝回答被认为有问题的问题。安德烈森警告称商业AI系统中的审查和偏见趋势日益加剧,强调了这些发展的潜在后果。
针对更广泛的影响,专家们强调了少数几个主要公司集中AI模型的问题,并主张开发开源AI模型以促进多样性和减轻偏见。
Meta的首席AI科学家Yann LeCun强调了培养类似于自由和多样化新闻的多样化AI模型生态系统的重要性。
Abacus.AI的首席执行官Bindu Reddy对没有健康的开源模型生态系统的权力集中表示担忧。
随着对AI的伦理和实际影响的讨论的继续,透明和包容的AI开发框架的需求变得越来越明显。
(照片由Matt Artz在Unsplash上提供)
想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI&Big Data Expo。这个综合性的活动与其他领先的活动同时举办,包括BlockX、Digital Transformation Week和Cyber Security&Cloud Expo。
探索由TechForge提供支持的其他即将举行的企业技术活动和网络研讨会。