CEVA:用于深度神经网络工作负载的第二代 AI 处理器
CEVA 宣布了 NeuPro-S,这是其用于边缘深度神经网络推理的第二代 AI 处理器架构。与 NeuPro-S 一起,CEVA 还推出了 CDNN-Invite API,这是一种业界首创的深度神经网络编译器技术,支持 NeuPro-S 内核与自定义神经网络引擎的异构协同处理,在统一的神经网络优化运行中- 时间固件。 NeuPro-S 与 CDNN-Invite API 一起,非常适合需要边缘 AI 处理的任何基于视觉的设备,包括自动驾驶汽车、智能手机、监控摄像头、消费类相机以及 AR/VR 耳机、机器人中的新兴用例和工业应用。
NeuPro-S 旨在优化处理神经网络以对边缘设备中的视频和图像中的对象进行分割、检测和分类,包括系统感知增强功能,可显着提高性能。其中包括支持多级存储器系统以减少使用外部 SDRAM 的昂贵传输、多种权重压缩选项和异构可扩展性,可在单个统一架构中实现 CEVA-XM6 视觉 DSP、NeuPro-S 内核和自定义 AI 引擎的各种组合.这使得 NeuPro-S 能够实现比 CEVA 第一代 AI 处理器平均提高 50% 的性能、降低 40% 的内存带宽和降低 30% 的功耗。
NeuPro-S 系列包括 NPS1000、NPS2000 和 NPS4000,每个周期分别具有 1000、2000 和 4000 个 8 位 MAC 的预配置处理器。 NPS4000 提供最高的每核 CNN 性能,在 1.5GHz 频率下每秒高达 12.5 Tera 操作 (TOPS),并且完全可扩展至高达 100 TOPS。
NeuPro-S 通过提供满足安全要求(包括质量保证标准 IATF 16949 和汽车标准(包括 ISO 26262 和 A-Spice))的解决方案,进一步巩固了 CEVA 在汽车用例中的成功。
嵌入式