KL720 inference

想請教若是將semantic segmentation的模型放入KL720內,該如何修改host_lib的python檔去做inference呢?因為我看host_lib內的範例都是object detection的。

還是host_lib沒辦法使用semantic segmentation的模型,要使用其他方法才能去做inference?

謝謝。

Comments

  • @Jasmine


    Hi Jasmine,

     您的問題有三個部份:

    1.Tool chain docker,您可以使用Kneron的tool chain docker將您的Model從 .onnx 轉成 .nef,這個步驟可確認您的Model架構是否支援Kneron硬體。


    2.因為您使用的host_lib為Kneron的舊架構沒有特別更新維護,建議您可以直接使用Kneron Plus,這是近期新出的架構更為方便快速,官網可以下載的到( https://www.kneron.com/tw/support/developers/ ), 您可以使用Kneron Plus搭配Generic inference去得到屬於您Model的Feature Map。(這邊向您說明為什麼推薦Generic inference,因為Generic inference理論上是所有利用Kneron Tool Chain轉成.nef的模型都可以支援。)


    3.最後針對您的 Feature Map 去做 Post-Porceess,就可以使用您的Model去做Inference。


    總結來說,您可以先用Kneron的Toolchain Docker將您的Model轉成.nef,確認可以在KL720上跑您的Model之後,建議您可以利用Kneron Plus內的Generic Inference去得到的Feature Map,最後再對您的Feature Map做一些Post-Process,您就可以用您的Model去做Inference。

The discussion has been closed due to inactivity. To continue with the topic, please feel free to post a new discussion.