像OpenAI的ChatGPT这样的生成性AI聊天机器人所展示的智能吸引了个人和企业的想象力,人工智能突然成为了技术创新中最令人兴奋的领域。
人工智能被认为是一个改变游戏规则的技术,具有改变我们生活许多方面的潜力。从个性化医疗到自动驾驶汽车,从自动投资到数字资产,人工智能所带来的可能性似乎是无穷无尽的。
但是,尽管人工智能将会带来变革,但这项新技术也带来了许多风险。虽然对恶意的、类似天网的AI系统失控的恐惧是错误的,但AI集中化的危险却是实实在在的。随着微软、谷歌和英伟达等公司在追求人工智能的过程中不断前进,关于权力集中在少数几个集中化参与者手中的担忧变得愈发明显。
我们为什么要担心去中心化的AI?
垄断权力
集中化AI带来的最紧迫问题是少数科技巨头可能实现垄断控制整个行业。大型科技巨头已经在AI领域积累了非常显著的市场份额,使他们掌握了大量的数据。他们还控制着AI系统运行所需的基础设施,从而使他们能够压制竞争对手,阻碍创新,并延续经济不平等。
通过在AI开发中实现垄断,这些公司更有可能对监管框架产生不公平的影响,并可以操纵这些框架以获取自身利益。这将意味着缺乏大型科技巨头巨大资源的小型初创公司将难以跟上创新的步伐。那些能够生存下来的、看似可能繁荣的公司几乎肯定会被收购,进一步将权力集中在少数人手中。结果将是AI开发的多样性减少,消费者选择的减少,以及不利的条款,限制了AI所承诺的使用案例和经济机会。
偏见和歧视
除了垄断控制外,人们对AI系统的偏见也有真正的担忧,随着社会越来越依赖AI,这些担忧将变得更加重要。
风险源于组织在许多领域越来越依赖自动化系统来做出决策。例如,一家公司使用AI算法来筛选求职者并不罕见,风险在于一个有偏见的系统可能会不公平地排除某些候选人,基于他们的种族、年龄或地点。AI还被保险公司用于设定保单费率,被金融服务公司用于确定某人是否符合贷款资格及其需要支付的利息金额,以及被执法部门用于确定哪些地区更可能发生更高的犯罪。在所有这些使用案例中,偏见AI系统的潜在影响都是极其令人担忧的。
无论是执法部门针对少数族裔社区的行为、歧视性贷款实践还是其他情况,集中化AI都可能加剧社会不平等并使系统性歧视得以实现。
隐私和监控
集中化AI系统带来的另一个风险是缺乏隐私保护。当少数大型公司控制着绝大多数由AI生成的数据时,他们获得了对用户进行前所未有的监控的能力。最主导的AI平台所积累的数据可以用来监控、分析和预测个人的行为,准确性极高,侵蚀隐私并增加信息被滥用的潜力。
在拥有专制政府的国家,这尤其令人担忧,因为数据可以被武器化,以创建更复杂的监控公民的工具。但即使在民主社会中,增加的监控也带来了威胁,正如爱德华·斯诺登关于美国国家安全局Prism计划的揭露所示。
公司也可能滥用消费者的数据以增加他们的利润。此外,当集中化实体积累大量敏感数据时,这使它们成为黑客更有利可图的目标,增加了数据泄露的风险。
安全风险
集中化AI还可能引发国家安全问题。例如,人们有理由担心AI系统可能被武器化,用于进行网络战争、从事间谍活动和开发新武器系统。AI可能成为未来战争中的关键工具,提高地缘政治冲突的风险。
AI系统本身也可能成为攻击目标。随着各国对AI的依赖增加,这些系统将成为诱人的目标,因为它们显然是单点故障。摧毁一个AI系统可能会干扰城市的整个交通流,瘫痪电网等。
伦理
集中化AI的另一个主要担忧是关于伦理。因为控制AI系统的少数公司将对社会的文化规范和价值观产生重大影响,并且可能经常优先考虑利润,从而引发进一步的伦理问题。
例如,社交媒体平台已经广泛使用AI算法来审核内容,试图识别和过滤掉冒犯性帖子。人们担心算法可能会因为意外或故意而压制言论自由。
关于AI驱动的审核系统的有效性已经存在争议,许多看似无害的帖子被自动算法屏蔽或删除。这引发了人们的猜测,认为这些系统并不是出现故障,而是根据平台试图推动的政治叙事在幕后被操控。
替代方案?去中心化AI
对集中化AI的唯一合理对策是开发去中心化的AI系统,以确保技术的控制权掌握在大多数人手中,而不是少数人手中。通过这样做,我们可以确保没有单一公司或实体对AI的发展方向产生重大影响。
当AI的开发和治理由成千上万或数百万个实体共同分享时,其进展将更加公平,更加符合个人的需求。结果将是更多样化的AI应用,几乎有无尽的模型选择被不同的系统使用,而不是少数几种主导行业的模型。
去中心化的AI系统还将意味着对大规模监控和数据操控风险的制衡。集中化AI可以被武器化并以与大多数人利益相悖的方式使用,而去中心化AI则可以对这种压迫进行对冲。
去中心化AI的主要优势在于每个人都能控制技术的演变,防止任何单一实体对其发展产生过大的影响。
如何去中心化AI
去中心化AI涉及对构成AI技术栈的各个层次进行重新思考,包括基础设施(计算和网络资源)、数据、模型、训练、推理和微调过程等元素。
如果基础设施仍然完全由像亚马逊、微软和谷歌这样的云计算巨头控制,我们不能仅仅寄希望于开源模型。我们需要确保AI的每个方面都是去中心化的。
去中心化AI栈的最佳方法是将其分解为模块化组件,并围绕它们基于供需创建市场。一个这样的例子是 Spheron,它创建了一个任何人都可以参与的去中心化物理基础设施网络(DePIN)。
通过Spheron的DePIN,任何人都可以自由分享他们未充分利用的计算资源,基本上将其租赁给那些需要基础设施来托管其AI应用的人。因此,一位使用强大GPU笔记本电脑的平面设计师可以在不使用其个人工作时将处理能力捐赠给DePIN,并获得代币奖励。
这意味着AI基础设施层变得广泛分布和去中心化,没有单一提供者控制。它是通过区块链技术和智能合约实现的,提供透明性、不变性和自动化。
DePIN也可以用于开源模型和基础数据。例如,可以在像 Qubic这样的去中心化网络上共享训练数据集,这将确保每次AI系统访问这些信息时,数据提供者都会获得奖励。
为了确保访问和权限是去中心化的,技术栈的每个部分都以这种方式分布。然而,AI行业目前在提供如此程度的去中心化方面仍然面临挑战。尽管开源模型在AI开发者中变得极为流行,但大多数人仍然依赖专有的云网络,这意味着训练和推理过程高度集中。
但是,去中心化胜出的激励因素是强大的。例如,DePIN网络的主要优势之一是它们有助于降低开销。因为像Spheron这样的网络不依赖中介,参与者不需要向第三方支付任何费用或分享收入。此外,他们在定价方面可以比那些面临盈利压力的公司更具竞争力。
去中心化必须胜出
AI的未来充满潜力,但也充满危险。尽管AI系统的能力在过去几年中显著提高,但大多数进展都是由全能的公司实现的,这导致它们对行业的影响力增加。这种情况的代价不仅仅是金钱上的。
唯一合理的替代方案是促进去中心化AI的更大采用,这可以增强可及性并确保AI的更大灵活性。通过允许每个人平等参与AI的发展,我们将看到更多样化、有趣和有用的应用,这些应用可以平等地惠及每个人,并将用户放在首位。
构建去中心化的AI未来将涉及在AI栈的每一层进行大量的协调和合作。幸运的是,参与者有强烈的激励去这样做。而且,这些激励不仅仅是金钱上的。