NVIDIA与GoogleCloud联手,为下一代AI计算工作负载(包括生成式AI和数据科学)提供最新的基础设施。NVIDIA正在向GoogleCloud提供其最佳的AI基础设施,用于生成式AI和数据科学开发
新闻稿:GoogleCloud和NVIDIA今天宣布推出新的AI基础设施和软件,供客户构建和部署用于生成AI的大规模模型并加速数据科学工作负载。
相关报道2023年第二季度GPU市场反弹:AMD、NVIDIA和英特尔出货量增加,独立GPU增长12.4%
在GoogleCloudNext的炉边聊天中,GoogleCloud首席执行官托马斯·库里安(ThomasKurian)和NVIDIA创始人兼首席执行官黄仁勋(JensenHuang)讨论了此次合作如何为世界上一些最大的人工智能客户带来端到端的机器学习服务,包括通过使用基于NVIDIA技术构建的GoogleCloud产品轻松运行AI超级计算机。新的硬件和软件集成采用了GoogleDeepMind和Google研究团队在过去两年中使用的相同NVIDIA技术。
黄说:“我们正处于一个拐点,加速计算和生成式人工智能结合在一起,以前所未有的速度加速创新。”“我们与GoogleCloud的扩大合作将帮助开发人员加快基础设施、软件和服务的工作,从而提高能源效率并降低成本。”
“谷歌云在人工智能创新方面有着悠久的历史,旨在为我们的客户促进和加速创新,”库里安说。“Google的许多产品都是在NVIDIAGPU上构建和服务的,我们的许多客户正在寻求NVIDIA加速计算来推动法学硕士的高效开发,从而推进生成式AI。”
NVIDIA集成加速人工智能和数据科学发展
Google用于构建大规模大型语言模型(LLM)的框架PaxML现已针对NVIDIA加速计算进行了优化。
PaxML最初是为了跨越多个GoogleTPU加速器切片而构建的,现在使开发人员能够使用H100和A100TensorCoreGPU进行高级且完全可配置的实验和规模。GPU优化的PaxML容器可立即在NVIDIANGC软件目录中使用。此外,PaxML在JAX上运行,JAX已针对利用OpenXLA编译器的GPU进行了优化。
针对PaxML进行NVIDIA优化的容器将立即在NGC容器注册表中提供给全球正在构建下一代人工智能应用程序的研究人员、初创公司和企业。这些新的集成是NVIDIA和Google广泛合作历史中的最新成果。它们跨越硬件和软件公告,包括:
由NVIDIAH100提供支持的A3虚拟机上的GoogleCloud—GoogleCloud今天宣布,由H100GPU提供支持的专门构建的GoogleCloudA3虚拟机将于下个月全面上市,从而使NVIDIA的AI平台更容易用于各种工作负载。与上一代相比,A3VM的训练速度提高了3倍,并显着提高了网络带宽。
H100GPU为GoogleCloud的VertexAI平台提供支持—H100GPU预计将在未来几周内在VertexAI上全面上市,使客户能够快速开发生成式AILLM。
GoogleCloud将获得DGXGH200的访问权——GoogleCloud将成为世界上首批获得NVIDIADGXGH200AI超级计算机(由NVIDIAGraceHopperSuperchip提供支持)的公司之一,以探索其生成AI工作负载的功能。
DGXCloud即将登陆GoogleCloud—客户将可以直接通过网络浏览器使用DGXCloudAI超级计算和软件,为高级训练工作负载提供速度和规模。
GoogleCloudMarketplace上的NVIDIAAIEnterprise—用户可以访问AIEnterprise,这是一个安全的云原生软件平台,可简化企业级应用程序的开发和部署,包括生成式AI、语音AI、计算机视觉等。
GoogleCloud第一个提供NVIDIAL4GPU-今年早些时候,随着G2VM的推出,GoogleCloud成为第一家提供L4TensorCoreGPU的云提供商。NVIDIA客户从CPU切换到L4GPU来处理AI视频工作负载,可以实现高达120倍的性能提升和99%的效率提升。L4GPU广泛用于图像和文本生成,以及VDI和AI加速的音频/视频转码。