为了确保人工智能系统反映当地的价值观和法规,各国越来越多地追求主权人工智能战略;利用自己的基础设施、数据和专业知识开发人工智能。NVIDIA通过推出四个新的NVIDIA 神经推理微服务(NIM)来支持这一运动。
这些微服务旨在简化生成性人工智能应用的创建和部署,支持区域定制的社区模型。它们通过增强对当地语言和文化细微差别的理解,承诺提供更深入的用户参与,从而实现更准确和相关的响应。
这一举措是在亚太地区生成性人工智能软件市场预计将迎来繁荣之际。ABI Research 预测,收入将从今年的50亿美元激增至2030年的480亿美元。
新产品中包括两个区域语言模型:Llama-3-Swallow-70B,基于日本数据训练,以及Llama-3-Taiwan-70B,针对普通话进行了优化。这些模型旨在更全面地理解当地的法律、法规和文化复杂性。
进一步增强日语产品的是RakutenAI 7B模型系列。基于Mistral-7B并在英语和日语数据集上训练,它们作为两个不同的NIM微服务提供聊天和指令功能。值得注意的是,Rakuten的模型在LM评估基准中取得了令人印象深刻的成绩,在2024年1月至3月期间在开放的日本大型语言模型中获得了最高的平均分。
在区域语言上训练大型语言模型对于提高输出效率至关重要。通过准确反映文化和语言的细微差别,这些模型促进了更精确和细致的沟通。与基础模型如Llama 3相比,这些区域变体在理解日语和普通话、处理区域法律任务、回答问题以及翻译和总结文本方面表现出更优越的性能。
各国在主权人工智能基础设施上的全球推动显而易见,来自新加坡、阿联酋、韩国、瑞典、法国、意大利和印度等国的重大投资正在进行中。
“大型语言模型不是为每个人提供相同好处的机械工具。它们更像是与人类文化和创造力互动的智力工具。影响是相互的,不仅模型受到我们训练的数据的影响,我们的文化和我们生成的数据也会受到大型语言模型的影响,”东京工业大学全球科学信息与计算中心教授Rio Yokota说。
“因此,开发符合我们文化规范的主权人工智能模型至关重要。Llama-3-Swallow作为NVIDIA NIM微服务的可用性将使开发人员能够轻松访问和部署该模型,以便在各个行业的日本应用中使用。”
NVIDIA的NIM微服务使企业、政府机构和大学能够在自己的环境中托管本地大型语言模型。开发人员可以创建复杂的副驾驶、聊天机器人和人工智能助手。与NVIDIA AI Enterprise一起提供的这些微服务经过优化,使用开源的NVIDIA TensorRT-LLM库进行推理,承诺提供更高的性能和部署速度。
在Llama 3 70B微服务中,性能提升显而易见(这是新的Llama–3-Swallow-70B和Llama-3-Taiwan-70B产品的基础),其吞吐量高达5倍。这转化为降低运营成本和通过减少延迟改善用户体验。
(照片由 BoliviaInteligente 提供)
想了解更多来自行业领袖的人工智能和大数据信息吗? 请查看 AI & 大数据博览会,该活动将在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与其他领先活动共同举办,包括智能自动化会议、BlockX、数字化转型周和网络安全与云博览会。
探索由TechForge提供的其他即将举行的企业技术活动和网络研讨会这里。