当未来的世代回顾人工智能技术的崛起时,2025年可能会被视为一个重大转折点,那时行业采取了具体步骤,朝着更大的包容性迈进,并接受了认可并公平补偿每个利益相关者的去中心化框架。
人工智能的增长已经在多个行业引发了变革,但采用的速度也引发了对数据所有权、隐私和版权侵犯的担忧。由于人工智能是集中化的,最强大的模型由公司控制,内容创作者在很大程度上被边缘化。
全球最知名的人工智能公司OpenAI已经承认了这一点。在2024年1月,它告诉英国上议院通讯和数字委员会,如果没有在受版权保护的材料上进行训练,它就无法创建其标志性的聊天机器人ChatGPT。
OpenAI在2023年之前在公共互联网发布的所有内容上训练了ChatGPT,但创造这些内容的人——其中许多是受版权保护的——并没有获得任何补偿;这成为了一个主要的争议来源。
像ASI联盟提议的去中心化人工智能项目有机会提供一种替代的人工智能模型开发方式。该联盟正在构建一个框架,使内容创作者能够保留对其数据的控制权,并在选择与人工智能模型制造者共享其材料时获得公平的奖励机制。这是一个更具伦理基础的人工智能开发方式,而2025年可能是它获得更多关注的一年。
人工智能的版权困境
OpenAI并不是唯一一家被指控侵犯版权的人工智能公司。绝大多数人工智能模型,包括那些声称是开源的模型,如Meta Platforms的Llama 3模型,都在抓取公共互联网的数据进行训练。
人工智能开发者通常会随意使用他们在网上找到的任何内容,忽视了许多材料是受版权保护的。版权法旨在保护原创作品的创作者,如书籍、文章、歌曲、软件、艺术作品和照片,防止被剥削,并使未经授权使用这些材料成为非法。
像OpenAI、Meta、Anthropic、StabilityAI、Perplexity AI、Cohere和AI21 Labs等公司通过声称“合理使用”来规避法律,引用了版权法中一个模糊的条款,允许在不需要获得创作者许可的情况下有限使用受保护的内容。但“合理使用”的实际定义并不明确,许多作者声称人工智能威胁到他们的生计。
许多内容创作者已诉诸法律行动,纽约时报对OpenAI提起了显著的诉讼。在诉讼中,时报声称OpenAI在摄取数千篇文章以训练其大型语言模型时侵犯了版权。该媒体组织声称,这种做法是非法的,因为ChatGPT是一个竞争产品,旨在“窃取”时报网站的观众。
这起诉讼引发了一场辩论——人工智能公司是否应该被允许继续消费互联网上的任何内容,还是应该被迫先请求许可,并补偿那些创造训练数据的人?
共识似乎正在向后者转变。例如,已故的前OpenAI研究员Suchir Balaji在一次采访中告诉时报,他负责收集数据以训练ChatGPT的模型。他表示,他的工作涉及从每个可能的来源抓取内容,包括社交媒体上的用户生成帖子、盗版书籍档案和付费墙后的文章。所有内容都是在未寻求许可的情况下抓取的。
Balaji表示,他最初接受了OpenAI的论点,即如果信息在网上发布并且可以自由获取,抓取就构成合理使用。然而,他表示,后来他开始质疑这一立场,因为意识到像ChatGPT这样的产品可能会对内容创作者造成伤害。最终,他表示,他再也无法为抓取数据的做法辩护,于是在2024年夏天辞去了公司职务。
去中心化人工智能的日益重要性
Balaji的离开似乎与人工智能公司意识到随意使用网上任何内容的做法不可持续,以及内容创作者需要法律保护的认识相吻合。
这一点的证据来自于过去一年中宣布的一系列内容许可协议。OpenAI已与多家知名内容出版商达成协议,包括金融时报、新闻集团、康泰纳仕、阿克塞尔·斯普林格、美联社和Reddit,后者在其论坛上托管了数百万页用户生成的内容。其他人工智能开发者,如谷歌、微软和Meta,也建立了类似的合作关系。
但这些安排是否能令人满意仍有待观察,特别是如果人工智能公司产生数十亿美元的收入。虽然内容许可协议的条款尚未公开,信息声称它们的价值每年最多几百万美元。考虑到OpenAI前首席科学家Ilya Sutskever在2016年的薪水为190万美元,提供给出版商的资金可能远低于内容的实际价值。
还有一个事实是,数百万较小的内容创作者——如博主、社交媒体影响者等——仍然被排除在协议之外。
围绕人工智能侵犯版权的争论可能会持续多年而没有解决,而数据抓取的法律模糊性,以及从业者日益认识到这种做法不道德,正在加强对去中心化框架的支持。
去中心化的人工智能框架为开发者提供了一个更有原则的人工智能训练模型,在这里尊重内容创作者的权利,每个贡献者都可以获得公平的奖励。
去中心化人工智能的核心是区块链,它使得在全球分布式网络上开发、训练、部署和管理人工智能模型成为可能,这些网络由每个人共同拥有。这意味着每个人都可以参与构建透明的人工智能系统,而不是集中化的、由公司拥有的人工智能模型,这些模型通常被描述为“黑箱”。
随着围绕人工智能版权侵犯的争论加剧,去中心化的人工智能项目正在取得进展;今年有望成为向更透明和更具伦理的人工智能开发转变的重要一年。
去中心化人工智能的实际应用
在2024年末,三个基于区块链的人工智能初创公司成立了人工超级智能(ASI)联盟,该组织致力于创建一个“去中心化的超级智能”,以支持任何人都可以使用的先进人工智能系统。
ASI联盟表示,它是人工智能研究和开发中最大的开源独立参与者。它由SingularityNET创建,该公司开发了一个去中心化的人工智能网络和计算层;Fetch.ai,专注于构建能够在没有人类协助的情况下执行复杂任务的自主人工智能代理;以及Ocean Protocol,透明的人工智能训练数据交换的创建者。
ASI联盟的使命是为集中化的人工智能系统提供替代方案,强调开源和去中心化平台,包括数据和计算资源。
为了保护内容创作者,ASI联盟正在基于Ocean Protocol的技术构建一个交换框架,任何人都可以贡献数据用于人工智能训练。用户将能够将数据上传到基于区块链的系统并保留其所有权,每当人工智能模型或开发者访问这些数据时,他们将获得奖励。其他人可以通过帮助标记和注释数据,使其更易于人工智能模型访问,从而获得奖励。通过这种方式,ASI联盟促进了开发者以更具伦理的方式获取他们创建人工智能模型所需的训练数据。
在成立不久后,联盟推出了ASI<Train/>倡议,专注于开发更透明和更具伦理的“特定领域模型”,专门针对机器人、科学和医学等领域。其第一个模型是Cortex,据说是以人脑为模型,旨在为现实环境中的自主机器人提供动力。
这些专业模型与通用的LLM不同,后者在回答问题和创建内容及图像方面表现出色,但在解决需要重大专业知识的更复杂问题时则不太有用。但创建专业模型将是一个社区努力:ASI联盟需要行业专家提供必要的数据来训练模型。
Fetch.ai的首席执行官Humayun Sheikh表示,ASI联盟的去中心化所有权模型创造了一个“个人支持突破性技术并分享价值创造”的生态系统。
没有特定知识的用户可以购买和“质押”FET代币,以成为去中心化人工智能模型的部分所有者,并在这些模型被人工智能应用使用时获得一部分收入。
对于内容创作者来说,去中心化人工智能方法的好处显而易见。ASI的框架使他们能够保持对其数据的控制,并跟踪其何时被人工智能模型使用。它集成了编码在智能合约中的机制,以确保每个人都能获得公平的补偿。参与者通过贡献计算资源、数据和专业知识,或通过质押支持生态系统来获得奖励。
ASI联盟采用去中心化治理模型,代币持有者可以对关键决策进行投票,以确保项目的发展有利于利益相关者,而不是公司的股东。
人人都能使用的人工智能是必要的
去中心化人工智能所取得的进展令人兴奋,并且正值其所需之时。人工智能正在迅速发展,而集中化的人工智能公司目前处于采用的前沿;这对许多人来说是一个主要的担忧。
鉴于人工智能的变革潜力和它对个人生计的风险,行业转向更负责任的模型至关重要。人工智能系统应为所有人利益而开发,这意味着每个贡献者都应因参与而获得奖励。只有去中心化的人工智能系统显示出能够做到这一点。
去中心化人工智能不仅是一个可有可无的选择,而是一个必要条件,代表了打破大型科技公司对创造力控制的唯一可行替代方案。