在过去两年中,人工智能的能力迅速增长,大型语言模型(LLMs)如ChatGPT、Dall-E和Midjourney已成为日常使用的工具。当你阅读这篇文章时,生成式AI程序正在回复电子邮件、撰写营销文案、录制歌曲,并根据简单的输入创建图像。
更令人瞩目的是,个人和公司接受AI生态系统的速度。麦肯锡最近的一项调查显示,至少在一个业务功能中采用生成式AI的公司数量在一年内翻了一番,达到了65%,而2023年初为33%。
然而,像大多数技术进步一样,这一新兴的创新领域并不缺乏挑战。训练和运行AI程序是一项资源密集型的工作,目前来看,大型科技公司似乎占据了上风,这带来了AI集中化的风险。
AI发展中的计算限制
根据世界经济论坛的一篇文章,对AI计算的需求正在加速;维持AI发展的计算能力目前以每年26%到36%的速度增长。
Epoch AI最近的一项研究证实了这一趋势,预计训练或运行AI程序的成本将很快达到数十亿美元。
“自2016年以来,最大的AI训练运行成本每年增长两到三倍,这使得到2027年可能会出现十亿美元的价格标签,甚至可能更早,”Epoch AI的研究员Ben Cottier指出。
在我看来,我们已经达到了这一点。微软去年向OpenAI投资了100亿美元,最近又有消息称这两个实体计划建立一个数据中心,托管一个由数百万个专用芯片驱动的超级计算机。成本?高达1000亿美元,是最初投资的十倍。
好吧,微软并不是唯一一家在大肆花费以提升其AI计算资源的大型科技公司。其他参与AI军备竞赛的公司,包括谷歌、Alphabet和Nvidia,都在向AI研究和开发投入大量资金。
虽然我们可以同意,结果可能与投资的金额相匹配,但很难忽视的是,AI的发展目前是一项“大型科技”的运动。只有这些资金雄厚的公司才能以数十亿或数百亿的规模资助AI项目。
这引出了一个问题;我们可以做些什么来避免Web2创新因少数公司控制创新而面临的同样陷阱?
斯坦福大学HAI副主任兼研究主任James Landay是之前对此情景发表过看法的专家之一。根据Landay的说法,GPU资源的争夺以及大型科技公司优先在内部使用其AI计算能力将推动对计算能力的需求,最终促使利益相关者开发更便宜的硬件解决方案。
在中国,政府已经开始支持AI初创企业,以应对与美国的芯片战争,这限制了中国公司无缝访问关键芯片。今年早些时候,当地政府推出了补贴,承诺为AI初创企业提供14万到28万美元不等的计算券。这项努力旨在降低与计算能力相关的成本。
去中心化AI计算成本
从当前的AI计算状态来看,有一个主题是恒定的——该行业目前是集中化的。大型科技公司控制着大部分计算能力和AI程序。事物越是变化,越是保持不变。
好消息是,这一次,事情可能真的会因去中心化计算基础设施而改变,例如Qubic Layer 1区块链。这个L1区块链使用了一种先进的挖矿机制,称为有用的工作量证明(uPoW);与比特币的典型工作量证明不同,后者仅用于保护网络,Qubic的uPoW利用其计算能力进行生产性AI任务,例如训练神经网络。
简单来说,Qubic正在通过摆脱当前的范式来去中心化AI计算能力的来源,在这种范式下,创新者仅限于他们拥有或从大型科技公司租用的硬件。相反,这个L1正在利用其数以万计的矿工网络来提供计算能力。
尽管这种方法比让大型科技公司处理后端事务更为技术化,但去中心化的AI计算能力来源方法更具经济性。但更重要的是,如果AI创新能够由更多利益相关者推动,而不是目前行业似乎依赖于少数参与者的状态,那将是公平的。
如果他们都崩溃了会怎样?更糟糕的是,这些科技公司在改变生活的技术进步方面已经证明不值得信赖。
如今,大多数人对数据隐私侵犯感到愤怒,更不用说其他相关问题,如社会操控。通过去中心化的AI创新,将更容易检查这些发展,同时降低进入门槛。
结论
AI创新才刚刚起步,但获取计算能力的挑战仍然是一个阻力。此外,大型科技公司目前控制着大部分资源,这对创新速度构成了重大挑战,更不用说这些公司可能会对我们的数据——数字黄金——拥有更大的控制权。
然而,随着去中心化基础设施的出现,整个AI生态系统有更好的机会降低计算成本,并消除大型科技公司对21世纪最有价值技术之一的控制。