谷歌人工智能生成的代码优于人类程序员
2017 年 5 月,Google Brain 团队宣布了一种名为 AutoML 的新方法。它是一个用于开发子模型架构的控制器神经网络,可以对其进行训练以执行特定任务。简单来说,它是一个能够生成自己的 AI 的 AI。
使用的数据集
Google 研究人员在 Penn Treebank 和 CIFAR-10 等小型学术数据集上测试了 AutoML。后来,他们决定向 AutoML 提出迄今为止最艰巨的挑战。这次,他们测试了更大的数据集,例如 COCO 目标检测和 ImageNet 图像分类,得到的结果令人惊讶。
人类已经开发了几种最先进的机器学习架构,用于在学术竞赛中处理更大的数据集。在学习可扩展图像识别的可转移架构中,Google 研究人员将 AutoML 应用于两个最流行的学术数据集——COCO 和 ImageNet。如果您本身将 AutoML 应用于这些海量数据集,则需要几个月的训练才能产生理想的结果。
它是如何工作的?
AutoML 基于强化学习算法和进化算法构建。然而,为了将其应用于 ImageNet,研究人员对其进行了修改,使其更容易处理大型数据集 –
- 重新设计了搜索空间,使其找到最好的层,可以灵活地多次堆叠以构建最终的网络
- 在 CIFAR-10 上执行架构搜索,并将最佳学习架构传输到 COCO 对象检测和 ImageNet 图像架构。
经过这些更改后,AutoML 不仅能够为 CIFAR-10 找到最佳层,还能够为 COCO 对象检测和 ImageNet 分类找到最佳层。这两层合并起来构建一个新颖的架构,称为NASNet .
如图所示,NASNet架构(由AutoML开发)包含2种类型的层——Normal层和Reduction层
来源:谷歌研究博客
结果
NASNet 在 ImageNet 图像分类上取得了 82.7% 的预测准确率,远优于 Google Brain 团队之前构建的 inception 模型。此外,它的性能比之前发布和未发布的结果好 1.2%。
NASNet 还可以调整大小以生成一组模型,这些模型可以实现不错的准确率,同时保持较低的计算成本。例如,NASNet 的小型版本的准确率达到 74%(同时将计算成本降低一半),比针对移动平台设计的几种相同大小的最先进模型要好 3% 以上。
正如您在图中所看到的,对于 ImageNet 图像分类,NASNet 在多种模型大小、涉及不同数量(以百万计)的操作和参数下都比人类发明的模型要高。
该表显示了架构搜索和其他人类开发的模型在 ImageNet 分类上的性能。多重加法是指对一幅图像进行复合乘法累加运算的次数。
使用 Faster-RCNN 和 NASNet 进行对象检测
谷歌研究人员将从 ImageNet 中学到的特征转移到 COCO 对象检测中。在测试中,将 ImageNet 的学习特征与 Faster RCNN 框架相结合,使之前在 COCO 上的预测性能黯然失色。最大的模型实现了 43.1% mAP,比过去最先进模型的结果提高了约 4%。
参考:arxiv.org
用于图像分类推理和目标检测的 NASNet 源代码可在 Github 上获取。
下一步是什么?
NASNet 在 COCO 和 ImageNet 上学到的特征可以重复用于多个视觉应用程序。此外,这种方法可以告诉我们为什么特定类型的神经网络表现如此出色。
AutoML 可以向非专家开放机器学习领域,并可用于开发复杂的、人工智能驱动的机器/机器人。研究表明,这种智能水平的人工智能可以帮助视障人士重见光明。
显然,这种架构可以用于自动驾驶汽车。您还可以想象该系统帮助识别交通、道路危险和行人。它还可以用于增强现实,使应用程序更好地与环境交互。但也许这种人工智能最有趣的应用还有待发现。
阅读:15个先进人工智能项目
未来,谷歌研究团队将致力于分析和测试此类计算机生成的架构,以完善和更好地理解它们。如果他们成功了,他们可以激发一种全新类型的神经网络,这将对每个人产生更大的影响。
工业技术