慧与将 DevOps 应用于 AI 模型
一项新的慧与计划旨在通过减少数据科学家对内部 IT 团队的依赖来加速 AI 模型的构建。
惠普企业 (HPE) 今天启动了正式的 HPE ML Ops 计划,该计划基于去年 11 月收购 BlueData 获得的平台。
HPE BlueData 副总裁兼总经理 Anant Chintamaneni 表示,目标是为 IT 组织提供一组 DevOps 框架,专门用于使用机器和深度学习算法加速人工智能 (AI) 模型的构建和部署。
许多组织已经聘请数据科学家来构建 AI 模型,但他们缺乏将它们整合到生产环境中的结构化方法。
“他们不知道如何操作它,”Chintamaneni 说。
HPE ML Ops 还支持包含代码、模型和项目存储库的工作流,其方式唤起通常与持续集成/持续部署 (CI/CD) 平台相关的流程。
另见: Gartner:77% 的组织旨在部署 AI,但员工技能阻碍了采用
收购 Blue Data 后,HPE 可以访问基于容器的 EPIC 平台,使数据科学家能够自行构建环境。他们可以使用这些环境来构建和更新人工智能模型,这些模型配备了自助服务沙箱,预装了机器学习工具和数据科学笔记本,用于训练人工智能模型。 Chintamaneni 说,HPE ML Ops 解决了从数据准备和模型构建到培训、监控和协作的整个机器学习生命周期,从而将 AI 部署时间从几周缩短到几天。
HPE ML Ops 解决方案支持一系列开源机器学习和深度学习框架,包括 Keras、MXNet、PyTorch 和 TensorFlow,以及来自 HPE 合作伙伴(如 Dataiku 和 H2O.ai)的商业机器学习应用程序。该平台可以部署在本地或公共云中,并与各种身份验证协议集成以确保网络安全。
Chintamaneni 说,总的来说,这些功能通过减少数据科学家对内部 IT 团队的依赖,加快了构建 AI 模型的时间。
许多组织低估了人工智能模型需要重新训练和更新的频率。组织经常可以访问需要纳入其 AI 模型的新数据源。随着越来越多的应用程序开始实时消费数据,需要评估的数据量只会增加。
数据科学家对任何给定流程所做的许多假设也可能随着不断变化的业务条件而发生变化。几周前提供最佳结果的 AI 模型可能需要被不同的 AI 模型替换。组织今天面临的挑战是没有适当的框架来持续更新和训练 AI 模型。慧与引用 Gartner 的估计,今天指出,由于缺乏实施流程,到 2021 年,至少 50% 的机器学习项目将无法完全部署。
人工智能涉及的试验和错误比许多数据科学家通常愿意承认的要多得多。许多正在构建的 AI 模型也需要进行审查,以发现可能将数据科学家送回众所周知的绘图板的偏见。真的没有静态 AI 模型这样的东西。组织越早接受数据管理现实,人工智能投资的回报就会越早显现。
物联网技术