OpenAI正面临着内部纷争和外部批评的浪潮,这些批评主要集中在其实践和技术可能带来的潜在风险上。
五月份,包括前OpenAI“超级对齐”项目负责人Jan Leike在内的几位知名员工离开了该公司。Leike的离职发生在OpenAI发布其新旗舰模型GPT-4o之后,该模型在其春季更新活动中被吹捧为“神奇”。
据报道,Leike的离职是由于对安全措施、监控实践以及将华丽的产品发布置于安全考虑之上的持续分歧。
Leike的离职为这家人工智能公司打开了潘多拉魔盒。前OpenAI董事会成员站出来指控首席执行官Sam Altman和公司领导层存在心理虐待行为。
OpenAI内部的不和谐与外界对该公司自身语言模型等生成式人工智能技术潜在风险的担忧相吻合。批评者警告称,先进的人工智能超越人类能力的存在威胁,以及更直接的风险,如工作岗位流失和将人工智能用于误导和操纵活动。
作为回应,来自OpenAI、Anthropic、DeepMind和其他领先人工智能公司的一群现任和前任员工联名致信,就这些风险提出了四项核心要求,旨在保护举报者,并在人工智能开发中促进更大的透明度和问责:
- 公司不会强制执行非诋毁条款,也不会因员工提出与风险相关的问题而采取报复行动。
- 公司将为员工提供可验证匿名的流程,以向董事会、监管机构和独立专家提出问题。
- 公司将支持开放批评的文化,并允许员工公开分享与风险相关的问题,同时适当保护商业机密。
- 公司不会在其他流程失败后对分享机密风险相关信息的员工采取报复行动。
“他们和其他人都接受了‘快速行动,打破常规’的方法,这与这种强大而又不太被理解的技术所需的相反,”曾因对OpenAI的价值观和缺乏责任感的担忧而离职的前员工Daniel Kokotajlo说。
这些要求出现在有报道称OpenAI迫使离职员工签署保密协议,以防止他们批评公司,否则将失去他们的股权。OpenAI首席执行官Sam Altman承认对这种情况感到“尴尬”,但声称公司实际上从未收回过任何人的股权。
随着人工智能革命的推进,OpenAI内部的纷争和举报者的要求凸显了这项技术所面临的成长痛苦和未解决的伦理困境。
另请参阅:OpenAI破坏了五个隐秘的影响行动
想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data Expo。这个全面的活动与其他领先的活动同时举办,包括Intelligent Automation Conference、BlockX、Digital Transformation Week和Cyber Security & Cloud Expo。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会,请点击这里。