亿迅智能制造网
工业4.0先进制造技术信息网站!
首页 | 制造技术 | 制造设备 | 工业物联网 | 工业材料 | 设备保养维修 | 工业编程 |
home  MfgRobots >> 亿迅智能制造网 >  >> Industrial Internet of Things >> 物联网技术

NVIDIA 与 VMware 联手改变 AI 经济学

通过提高 GPU 的利用率,构建和部署 AI 应用程序的成本将大大降低。

在今天的 VMworld 2019 大会上,NVIDIA 和 VMware 宣布他们将联合使现在可以在图形处理器单元 (GPU) 上部署 VMware 虚拟机。

作为该计划的一部分,NVIDIA 宣布除了现有对客户端系统的支持外,其虚拟 GPU (vGPU) 软件现在还可以部署在服务器上的虚拟机上。用于 GPU 的 NVIDIA 虚拟计算服务器 (vComputeServer) 软件也正在扩展,以增加对 VMware vSphere 平台的支持。 NVIDIA 还致力于在 VMware 平台上提供用于构建人工智能 (AI) 应用程序的工具访问中心。

另见: 人工智能就绪的 3 个关键组成部分是什么?

使用这些 NVIDIA 技术,VMware 承诺提供由 Amazon EC2 裸机实例组成的云服务,这些实例由在 VMware Cloud on AWS 上运行 vComputeServer 软件的 NVIDIA T4 GPU 加速。

NVIDIAGrid 产品副总裁 John Fanelli 表示,总的来说,这些进步不仅对提高 GPU 利用率具有重要意义,而且还使数据科学家能够在运行于本地或云中的 VMware 服务器上的 GPU 上聚合多个工作负载。

尽管人们对使用 GPU 构建人工智能 (AI) 应用程序的兴趣非常浓厚,但构建这些应用程序的成本往往令人望而却步。在没有虚拟机的情况下,以前每个 GPU 都专用于一次运行一个工作负载。 Fanelli 表示,通过提高 GPU 的利用率,构建和部署 AI 应用程序的成本将大大降低。

这很关键,因为这些成本阻碍了组织对可能改变人类生存方式的几乎所有方面的 AI 应用程序进行更多投资。

“人工智能是我们这个时代最强大的技术,”Fanelli 说。

然而,在虚拟机上运行的那些 AI 工作负载的性能将取决于它们各自的属性,Fanelli 说。 Fanelli 指出,许多开发人员将能够通过利用 NVIDIA CUDA 工具包并行执行 AI 工作负载来弥补任何性能问题。

随着高效构建和部署 AI 应用程序变得更加实惠,未来几个月将启动的 AI 项目数量应该会增加。为了加速这一过程,VMware 还表示,客户将能够使用 VMware HCX 工具将工作负载从本地数据中心运行的 GPU 实例迁移到云端,这些工具可以自动移动虚拟机并加速平台之间的数据传输。

由于 GPU 管理内存和 I/O 开销的效率,主要在云中访问的 GPU 已成为训练 AI 模型的首选平台。然而,NVIDIA 一直在取得好坏参半的成功案例,即依靠 GPU 来运行推理引擎,以代替 x86 服务器执行这些 AI 模型。通过在其软件中添加对服务器虚拟机的支持,在同一个 GPU 平台上运行多个推理引擎应该变得更加可行,就像在 x86 平台上部署推理引擎一样。

当然,获得额外的基础设施资源并不一定能保证 AI 成功。然而,这些资源将大大有助于降低人工智能开发过程中出错的成本。


物联网技术

  1. 介绍 IIC,现在使用 OpenFog!
  2. 使用 ISO 26262 避免失败
  3. 研华通过 NVIDIA
  4. 凌华科技:利用 Edge AI Solutions 和 NVIDIA EGX 平台将 AI 从边缘部署到云端
  5. Syslogic:具有 IP67 保护和 Nvidia 处理器平台的 AI 坚固型计算机
  6. 如何处理数据?!
  7. 物联网消防
  8. 开始物联网业务
  9. 物联网之路
  10. 物联网的多功能性
  11. 沃尔沃集团与英伟达合作开发自动驾驶卡车的人工智能平台
  12. 5G 与物联网:数字化新时代