1 / 2

Kneron NPU IP

Kneron NPU IP神經網路處理器系列是針對終端裝置所設計的AI專用處理器,具低功耗、體積小的特性,同時提供強大的運算能力與優異的能耗效率,可應用在智慧家居、智慧安防,智慧手機,以及對耗電和空間有高度要求的穿戴式裝置等。全產品的功耗為百毫瓦(mW)等級,針對特定的應用,甚至可降至5毫瓦以下。
優異的能耗效能比 | 神經網路處理器 | Kneron - 人工智慧無所不在

優異的能耗效能比

全系列產品的每瓦效能在1.5 TOPS/W以上。
支援主流深度學習框架 | 神經網路處理器 | Kneron - 人工智慧無所不在

支援主流深度學習框架

Caffe、Keras、TensorFlow和ONNX。
超低功耗 | 神經網路處理器 | Kneron - 人工智慧無所不在

超低功耗

全產品的功耗為百毫瓦等級,針對特定的應用,甚至可降至5毫瓦以下。
完整的硬體解決方案 | 神經網路處理器 | Kneron - 人工智慧無所不在

完整的硬體解決方案

包含硬體IP、編譯器(Compiler)以及模型壓縮(Model compression)三大部分。
深度壓縮技術 | 神經網路處理器 | Kneron - 人工智慧無所不在

深度壓縮技術

不僅能執行模型壓縮,還能對運行中的資料和參數(coefficient)進行壓縮,提高整體壓縮率,減少記憶體使用。
卷積核拆分與加速 | 神經網路處理器 | Kneron - 人工智慧無所不在

卷積核拆分與加速

將大卷積核的卷積運算區塊分割成多個小區塊分別進行運算,並將多個小卷積運算區塊的運算結果進行融合,以加速整體運算效能。
CNN模型支援優化 | 神經網路處理器 | Kneron - 人工智慧無所不在

CNN模型支援優化

支援更廣泛的CNN模型,包括Vgg16ResnetGoogleNetYOLOTiny YOLOLenetMobileNetDensenet等,而且針對不同CNN模型分別進行優化,
交錯式運算架構 | 神經網路處理器 | Kneron - 人工智慧無所不在

交錯式運算架構

神經網路架構中主要的卷積(convolution)與池化(pooling)運算可平行進行,卷積層還可同時支援8bits16bits的定點運算(fixed point),以提升運算效率。
適應性資料結構 | 神經網路處理器 | Kneron - 人工智慧無所不在

適應性資料結構

根據不同的計算需求,動態調整資料結構,提高MAC效率。
動態儲存資源配置 | 神經網路處理器 | Kneron - 人工智慧無所不在

動態儲存資源配置

讓共享記憶體和運作記憶體之間可以進行更有效的資源配置,提升儲存資源利用率的同時卻不影響運算效能。