1 / 2

Kneron NPU IP

Kneron NPU IP神经网络处理器系列是针对终端设备所设计的人工智能专用处理器,具低功耗、体积小的特性,同时提供强大的运算能力与优异的能耗效率,可应用在智能家居、智能安防,智能手机,以及对能耗和空间有高度要求的可穿戴设备等。全产品的功耗为百毫瓦(mW)等级,针对特定的应用,甚至可降至5毫瓦以下。
优异的能耗效能比 | 神经网络处理器 | Kneron - 人工智能无处不在

优异的能耗效能比

全系列产品的每瓦效能在1.5 TOPS/W以上
支持主流深度学习框架 | 神经网络处理器 | Kneron - 人工智能无处不在

支持主流深度学习框架

Caffe、Keras、TensorFlow和ONNX。
超低功耗 | 神经网络处理器 | Kneron - 人工智能无处不在

超低功耗

全产品的功耗为100毫瓦(mW)等级,针对特定的应用,甚至可降至5毫瓦以下。
完整的硬件解决方案 | 神经网络处理器 | Kneron - 人工智能无处不在

完整的硬件解决方案

包含硬件IP、编译器(Compiler)以及模型压缩(Model compression)三大部分。
深度压缩技术 | 神经网络处理器 | Kneron - 人工智能无处不在

深度压缩技术

不仅能执行模型压缩,还能对运行中的数据和参数(coefficient)进行压缩,减少内存使用。
卷积核拆分与加速 | 神经网络处理器 | Kneron - 人工智能无处不在

卷积核拆分与加速

将大卷积核的卷积计算区块分割成多个小区块分别进行计算,再将多个小卷积计算区块的计算结果进行融合,以加速整体计算效能。
CNN模型支持优化 | 神经网络处理器 | Kneron - 人工智能无处不在

CNN模型支持优化

支持更广泛的CNN模型,包括Vgg16ResnetGoogleNetYOLOTiny YOLOLenetMobileNetDensenet等,而且针对不同CNN模型分别进行优化。
交错式计算架构 | 神经网络处理器 | Kneron - 人工智能无处不在

交错式计算架构

神经网络架构中主要的卷积(convolution)与池化(pooling)计算可平行进行,卷积层中还可同时支持8bits16bits的定点计算(fixed point)
适应性资料结构 | 神经网络处理器 | Kneron - 人工智能无处不在

适应性资料结构

根据不同的计算需求,动态调整资料结构,提高MAC效率。
动态储存资源配置 | 神经网络处理器 | Kneron - 人工智能无处不在

动态储存资源配置

让共享内存和运行内存之间可以进行更有效的资源配置,提升储存资源利用率的同时却不影响计算效能。