AWS和NVIDIA扩展合作伙伴关系,推进生成式人工智能。

亚马逊网络服务(AWS)和NVIDIA在AWS re:Invent上宣布了他们战略合作的重大扩展。这次合作旨在为客户提供先进的基础设施、软件和服务,推动生成式人工智能创新。

这次合作将两家公司的优势结合起来,集成了NVIDIA最新的多节点系统与下一代GPU、CPU和AI软件,以及AWS的技术,如Nitro System先进虚拟化、Elastic Fabric Adapter(EFA)互连和UltraCluster可扩展性。

扩展合作的主要亮点包括:

1. 在AWS上引入NVIDIA GH200 Grace Hopper Superchips:
– AWS成为首家提供带有新的多节点NVLink技术的NVIDIA GH200 Grace Hopper Superchips的云提供商。
– NVIDIA GH200 NVL32多节点平台使合作客户能够扩展到数千个GH200 Superchips,提供超级计算机级别的性能。

2. 在AWS上托管NVIDIA DGX Cloud:
– 合作在AWS上托管NVIDIA DGX Cloud,这是一个AI训练即服务,采用GH200 NVL32加速生成式AI和大型语言模型的训练。

3. Ceiba项目超级计算机:
– 合作开展Ceiba项目,旨在设计全球最快的基于GPU的AI超级计算机,配备16,384个NVIDIA GH200 Superchips,处理能力达到65艾克斯。

4. 引入新的Amazon EC2实例:
– AWS推出三种新的Amazon EC2实例,包括由NVIDIA H200 Tensor Core GPU驱动的P5e实例,用于大规模生成式AI和高性能计算工作负载。

5. 软件创新:
– NVIDIA在AWS上推出了NeMo Retriever微服务,用于聊天机器人和摘要工具,以及BioNeMo,用于加速制药公司的药物发现。

这次合作表明了双方致力于推进生成式AI领域的共同承诺,为客户提供先进的技术和资源。

在内部,亚马逊的机器人和履行团队已经使用NVIDIA的Omniverse平台,在真实部署之前在虚拟环境中优化仓库。

NVIDIA和AWS技术的整合将加速各行业中大型语言模型和生成式AI应用的开发、训练和推理。

(图片来源:ANIRUDH on Unsplash

更多相关文章:Inflection-2在常见基准测试中超过Google的PaLM 2

想要从行业领导者那里了解更多关于人工智能和大数据的知识吗?请参加在阿姆斯特丹、加利福尼亚和伦敦举办的AI & Big Data Expo。这个综合性的活动与Cyber Security & Cloud ExpoDigital Transformation Week同期举办。

探索由TechForge提供支持的其他即将举行的企业技术活动和网络研讨会,请点击这里