Ilya Sutskever,OpenAI的前首席科学家,自5月离开这家他共同创立的AI研究公司后,已经透露了他的下一个重大项目。
与OpenAI的前同事Daniel Levy和苹果前AI负责人Daniel Gross一起,这三人组成了专注于构建安全超级智能系统的初创公司Safe Superintelligence Inc.(SSI)。
SSI的成立是在2023年11月OpenAI首席执行官Sam Altman被迅速解职之后,Sutskever在其中扮演了重要角色,并在之后对这一情况表示了后悔。
在SSI网站上的一条消息中,创始人们表示:
“我们将安全性和能力作为技术问题同时解决,通过革命性的工程和科学突破来解决。我们计划尽快提高能力,同时确保我们的安全始终领先。这样,我们就可以安心扩展。”
我们的独特关注意味着没有管理开销或产品周期的干扰,我们的商业模式意味着安全、安全和进步都与短期商业压力隔离开来。”
Sutskever在SSI的工作代表着他在OpenAI的努力的延续,他曾是超级对齐团队的一员,负责设计强大的新AI系统的控制方法。然而,在Sutskever高调离职后,该团队被解散。
根据SSI的说法,他们将以“一条直线”的方式追求安全的超级智能,专注于一个目标和一个产品。这种独特的关注点与近年来OpenAI、DeepMind和Anthropic等主要AI实验室的多样化形成鲜明对比。
只有时间才能告诉我们Sutskever的团队是否能够在安全的超级智能AI的目标上取得实质性进展。批评者认为,这个挑战不仅仅是工程问题,也是哲学问题。然而,SSI创始人的背景意味着他们的努力将受到极大的关注。
与此同时,预计“我看到了什么?”的模因将再次出现:
What did Ilya see? pic.twitter.com/2Vhn2OXBMt
— Matthew Zeits (@MatthewZ73671) June 13, 2024
另请参阅:Meta发布了五个AI模型,用于多模态处理、音乐生成等
想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请查看在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data Expo。这个综合性的活动与其他领先的活动同时举办,包括Intelligent Automation Conference、BlockX、Digital Transformation Week和Cyber Security & Cloud Expo。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会here。