让企业更易上手生成式AI!英伟达连宣多项重磅合作,从Azure云到本地化部署

智东西(公众号:zhidxcom)
作者 |  ZeR0
编辑 |  漠影

智东西5月24日报道,作为加速计算的“守门员”,自ChatGPT引爆生成式AI热潮后,NVIDIA(英伟达)凭借其旗舰计算芯片A100和H100 GPU在AI训练领域无出其右的地位,在生成式AI赛道刷满了存在感。今日,NVIDIA又接连宣布多个合作进展,进一步为企业提供加速AI应用的新工具。

在微软Build开发者大会上,英伟达和微软展示了采用英伟达RTX GPU的Windows 11 PC和工作站的一系列改进,以满足生成式AI的需求。此外,NVIDIA还宣布将NVIDIA AI Enterprise软件套件集成到微软的Azure机器学习中,以帮助企业加速推进AI计划。

在戴尔科技集团全球大会上,戴尔科技集团与NVIDIA联合发布用于安全、本地化部署生成式AI的Project Helix合作项目,旨在让企业更方便在本地构建和使用生成式AI模型,从而实现快速、安全交付更好的客户服务、市场情报、企业搜索等各种功能。

一、在Windows 11上轻松训练和部署高级AI模型

NVIDIA和微软今日展示的一系列进展,包括在Windows PC上开发AI的工具、优化和部署AI的框架、驱动程序性能和效率的改进。这些将使开发者能够以生成式AI为核心,构建下一代Windows应用程序。

据介绍,超过400个Windows应用程序和游戏已经采用了AI技术,由RTX GPU上的Tensor Cores专用处理器加速。微软Windows芯片和系统集成公司副总裁Pavan Davuluri说,通过与 NVIDIA在硬件和软件优化方面的合作,微软为开发人员提供了变革性的、高性能的、易于部署的体验。

传统上,AI开发在Linux上进行,要求开发者要么双启动他们的系统,要么使用多台PC在其AI开发操作系统中工作,同时仍然需要使用到Windows生态系统的资源。过去几年,微软一直在探索构建直接能在Windows操作系统中运行Linux的功能,并将该功能命名为Windows Subsystem for Linux(WSL)。

NVIDIA与微软密切合作,为WSL内的整个NVIDIA AI软件堆栈提供GPU加速和支持。开发者可使用Windows PC来满足本地AI开发需求,并能用到WSL上GPU加速的深度学习框架。

由于NVIDIA RTX GPU在桌面工作站中提供了高达48GB的RAM,能满足跑更大模型的需求。大内存也提高了AI模型局部微调的性能和质量。再加上相同的NVIDIA AI软件堆栈在NVIDIA数据中心GPU上运行,开发者也能很方便地将他们的模型推送到微软Azure云去进行大规模训练。

微软发布了优化PyTorch模型并将其转换为ONNX的微软Olive工具链,使开发者能自动利用RTX Tensor Cores等GPU硬件加速。开发者可以通过Olive或ONNX优化模型,将Tensor Core加速模型部署到PC或云端。

RTX Tensor Core可提供的AI推理算力高达1400 Tensor TFLOPS。去年NVIDIA一直致力于提高DirectML性能,以充分利用RTX硬件。NVIDIA将发布532.03版驱动程序中的最新优化,这些优化与Olive优化模型相结合,可大幅提升AI性能。使用Olive优化版本的Stable Diffusion文转图生成器和流行的Automatic1111发行版,新驱动程序的性能提高了2倍以上。

让企业更易上手生成式AI!英伟达连宣多项重磅合作,从Azure云到本地化部署

不久后,NVIDIA将推出新的Max-Q低功耗推理,用于RTX GPU上的AI工作负载。它优化了Tensor Core性能,同时保持GPU功耗尽可能低,延长电池寿命,保持系统凉爽、安静。

NVIDIA和微软正为开发人员提供多种资源,以便Windows PC上测试顶级生成式AI模型。Hugging Face上提供了Dolly 2.0大型语言模型的Olive优化版本。面向对话式AI的NVIDIA NeMo大型语言模型的PC优化版本也即将推出。开发者还可以学习如何端到端优化他们的应用程序,以通过NVIDIA AI充分利用GPU加速来加速应用程序开发人员站点。

微软Windows平台和NVIDIA动态AI硬件和软件堆栈背后的互补技术将帮助开发者快速轻松地在Windows 11上开发和部署生成式AI。

二、NVIDIA AI企业软件+Azure机器学习,加速企业就绪的生成式AI

除了方便开发者在PC上部署生成式AI应用外,NVIDIA还宣布将NVIDIA AI Enterprise软件套件集成到微软的Azure机器学习中,以创建一个安全、企业就绪的平台,使全球Azure客户能够使用NVIDIA AI平台的软件层NVIDIA AI Enterprise全面支持的100多个NVIDIA AI框架和工具来快速构建、部署并管理应用程序。

通过Azure机器学习上集成的NVIDIA AI Enterprise,用户还能够访问最高性能的NVIDIA加速计算资源,来加快AI模型的训练和推理。NVIDIA AI Enterprise与Azure机器学习形成互补,同时还包括NVIDIA专家的帮助和支持。

微软AI平台副总裁John Montgomery说:“微软Azure机器学习用户期待的是性能最高、最安全的开发平台。Azure机器学习与NVIDIA AI Enterprise软件套件的集成使我们能够满足用户的期望,让企业和开发人员能够轻松地访问他们训练和部署定制、安全的大型语言模型所需的一切。”

NVIDIA AI Enterprise包含100多个框架、预训练模型和开发工具,例如NVIDIA RAPIDS用于加速数据科学负载,NVIDIA Metropolis可加速视觉AI模型开发,NVIDIA Triton Inference Server支持企业实现标准化的模型部署和执行,NVIDIA NeMo大型语言模型框架用于构建主题鲜明、安全可靠的生成式AI聊天机器人。

NVIDIA AI Enterprise与Azure机器学习的集成目前为有限技术预览版,可通过在NVIDIA社区中注册获得。NVIDIA AI Enterprise还可在Azure Marketplace上使用,为全球企业提供了一个全面安全和完全支持的AI开发和部署的新选项。

此外,NVIDIA Omniverse Cloud平台即服务现已在Microsoft Azure上提供面向企业的私有版本。Omniverse Cloud为开发者和企业提供了一个全栈云环境,用于大规模设计、开发、部署和管理工业元宇宙应用。

三、NVIDIA与戴尔联手,让企业安全本地化部署生成式AI

在戴尔科技集团全球大会上,戴尔科技集团与NVIDIA宣布了一个基于戴尔和NVIDIA基础设施与软件打造的合作项目Project Helix。

Project Helix将提供一系列包含技术专长和预构建工具的全栈式解决方案。通过戴尔提供的经过测试和优化的软硬件产品组合,该项目极大简化了企业生成式AI的部署,助力企业在保持数据隐私的同时,将数据转化为更加智能和更高价值的成果,更轻松、负责任、准确地快速部署定制化的生成式AI应用。

戴尔科技集团副董事长兼联席首席运营官Jeff Clarke说:“Project Helix为企业提供特制的AI模型,使企业可以更加快速、安全地从目前还未被充分利用的大量数据中获得价值。通过高度可扩展的高效基础设施,企业可以创造出新一批生成式AI解决方案,重塑他们所在的行业。”

NVIDIA创始人兼首席执行官黄仁勋谈道,NVIDIA与戴尔科技集团一起设计出极具可扩展性的高效基础设施,使企业能够安全使用自己的数据来构建和运行生成式AI应用,从而推动业务的变革。

Project Helix将支持从基础设施配置、建模、训练、微调、应用开发和部署一直到部署推理和精简结果等整个生成式AI的生命周期。

Dell PowerEdge服务器针对提升生成式AI训练和AI推理性能做了优化,如采用NVIDIA H100 Tensor Core GPU和NVIDIA先进网络技术的PowerEdge XE9680和PowerEdge R760xa。企业可将该基础架构与Dell PowerScale和Dell ECS Enterprise Object Storage等具有弹性、可扩展的非结构化数据存储搭配使用,进而使用戴尔服务器和存储软件中的企业功能,以及Dell CloudIQ软件提供的可观测能力。

Project Helix包含NVIDIA AI Enterprise软件,可提供用于整个AI生命周期的工具;并将安全和隐私功能内置在基础组件中,如Secured Component Verification。基于Project Helix项目的Dell Validated Designs将从今年7月起通过传统渠道和APEX灵活的消费选项提供。

结语:生成式AI应用浪潮正加速推动企业创新

生成式AI正以AI聊天机器人、图像生成应用、游戏渲染等形式迅速开创计算生产力的新时代。微软Windows芯片和系统集成公司副总裁Pavan Davuluri认为,AI将成为未来几年Windows客户创新的最大推动力。

随着生成式AI应用浪潮的到来,企业正在寻求安全的加速工具和服务,以推动创新。在NVIDIA创始人兼首席执行官黄仁勋看来,我们正处于一个历史性时刻,生成式AI的惊人进步与企业对于事半功倍的需求彼此交织。

可以看到,NVIDIA今日宣布的一系列进展,都围绕着企业在实际业务中构建与部署AI模型的切实需求。经过验证的设计可以帮助企业快速大规模构建生成式AI基础设施。在本地保护数据,可以降低固有风险,帮助企业满足监管要求。

正如TECHnalysis Research总裁兼首席分析师Bob O’Donnell所言:“企业渴望探索生成式AI工具给自己的组织带来的机会,但许多企业不清楚该从哪里入手。”

对于企业来说,NVIDIA与其生态伙伴们联合推出的完善解决方案,相当于提供了一条能够充分利用自己独有资产、解决数据隐私问题、快速构建及运行定制化生成式AI的捷途。