Nvidia AI Workbench 已经推出,标志着生成式 AI 的创建和部署面临潜在的变革时刻。通过利用 Nvidia AI Workbench,开发人员可以期待更加简化的流程,使他们能够在不同的 Nvidia AI 平台上工作,例如 PC 和工作站。
虽然人工智能内容不一定会充斥市场,但毫无疑问,Nvidia AI Workbench 将使人工智能开发和集成之旅成为更加用户友好的体验。
Nvidia AI Workbench 能够提供什么?
Nvidia在洛杉矶举行的年度SIGGRAPH(计算机图形和交互技术特别兴趣小组)会议上宣布了AI Workbench ,推出了一个用户友好的平台,旨在在开发人员的本地计算机上运行。
Nvidia AI Workbench 连接到 HuggingFace、GitHub、Nvidia 企业门户网站 NVIDIA NGC 等流行存储库以及各种开源或商业 AI 代码源,为开发人员提供了一个集中的空间。
他们无需浏览多个浏览器窗口即可访问这些资源,从而根据自己的喜好和需求简化了导入和自定义模型代码的过程。
在最近的一份声明中,该公司强调 Nvidia AI Workbench 可以彻底改变开发人员与现有数十万个预训练的 AI 模型交互的方式。传统上,定制这些模型是一项繁琐的任务,但 Nvidia AI Workbench 旨在大大简化该过程。
借助这一新工具,开发人员可以轻松微调和运行生成式人工智能,访问每个重要的企业级模型。支持范围扩展到 Nvidia 自己的 AI 平台的各种框架、库和 SDK,以及 GitHub 和 Hugging Face 等著名的开源存储库。
Nvidia AI Workbench 不仅仅止于定制;它还有助于跨多个平台共享。对于在 PC 或工作站上使用 Nvidia RTX 显卡的开发人员来说,他们可以在本地管理这些生成模型。当需要时,扩展到数据中心和云计算资源成为无缝过渡。
Nvidia 企业计算副总裁 Manuvir Das 表示:“Nvidia AI Workbench 为跨组织团队创建基于人工智能的应用程序提供了一条简化的路径,这些应用程序在现代商业中变得越来越重要。”
Nvidia AI Enterprise 4.0也已发布
除了 Nvidia AI Workbench 之外,这家科技巨头还发布了 Nvidia AI Enterprise 软件平台的第四个版本,该平台专门为在业务环境中采用和定制生成式 AI 提供必要的工具。
Nvidia AI Enterprise 4.0 旨在促进生成式 AI 模型在稳定的 API 连接的支持下无缝、安全地集成到各种操作中。
新推出的平台具有一系列工具,包括用于云原生、大型语言模型 (LLM) 应用程序端到端支持的 Nvidia NeMo,以及用于自动化和增强生产部署的 Nvidia Triton 管理服务。
此外,还集成了集群管理软件 Nvidia Base Command Manager Essentials,以帮助企业跨数据中心、多云和混合云环境优化性能。
该公告还强调了与行业巨头 ServiceNow、Snowflake 和 Dell Technologies 的合作,为广泛的新 AI 产品奠定了基础,进一步表明了 Nvidia 致力于引领 AI 领域创新的承诺。
Zoom AI工具将使用用户数据进行训练
Nvidia 进入人工智能市场似乎恰逢其时,不仅提供 Workbench,还提供其他工具,例如用于游戏应用的 Nvidia ACE。随着ChatGPT等生成式 AI模型变得越来越流行,许多开发人员可能会被 Nvidia 的整体且用户友好的解决方案所吸引。
然而,这种可访问性也带来了一定程度的不确定性,因为生成式人工智能的使用有时会导致有问题的应用程序。英伟达在这一领域的创新的更广泛影响尚未完全实现。
本文由 @marketing 发布于弱电智能网 。
题图来自Unsplash,基于CC0协议
内容观点仅代表作者本人,弱电智能网平台仅提供信息存储空间服务。
如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
文章名称:《Nvidia AI Workbench:重新定义人工智能开发》
文章链接:https://www.ruodian360.com/news/ai/49119.html
添加微信ydian188免费入群,记得备注“弱电智能网”。