摘要

神经网络加速技术正在快速地转向网络的边缘,过去需要基于云的计算资源来运行神经网络推理,现在可以在嵌入式设备上运行,这些人工智能设备包括可穿戴设备、摄像头、智能电话/平板电脑以及各类车辆等。专用的硬件可以被用来加速推理,称其为神经网络加速器。这项技术在计算密度和PPA方面具有优势,是边缘设备的理想选择,可以为人工智能芯片带来全新的机遇。以屡获殊荣的PowerVR NNA为例,介绍为了应对边缘推理的兴起,最基础的IP和相关SoC作出哪些改进,以提供未来市场所需的更高性能和更丰富的功能特性。

全文