想請教若是將semantic segmentation的模型放入KL720內,該如何修改host_lib的python檔去做inference呢?因為我看host_lib內的範例都是object detection的。
還是host_lib沒辦法使用semantic segmentation的模型,要使用其他方法才能去做inference?
謝謝。
@Jasmine
Hi Jasmine,
您的問題有三個部份:
1.Tool chain docker,您可以使用Kneron的tool chain docker將您的Model從 .onnx 轉成 .nef,這個步驟可確認您的Model架構是否支援Kneron硬體。
2.因為您使用的host_lib為Kneron的舊架構沒有特別更新維護,建議您可以直接使用Kneron Plus,這是近期新出的架構更為方便快速,官網可以下載的到( https://www.kneron.com/tw/support/developers/ ), 您可以使用Kneron Plus搭配Generic inference去得到屬於您Model的Feature Map。(這邊向您說明為什麼推薦Generic inference,因為Generic inference理論上是所有利用Kneron Tool Chain轉成.nef的模型都可以支援。)
3.最後針對您的 Feature Map 去做 Post-Porceess,就可以使用您的Model去做Inference。
總結來說,您可以先用Kneron的Toolchain Docker將您的Model轉成.nef,確認可以在KL720上跑您的Model之後,建議您可以利用Kneron Plus內的Generic Inference去得到的Feature Map,最後再對您的Feature Map做一些Post-Process,您就可以用您的Model去做Inference。
Comments
@Jasmine
Hi Jasmine,
您的問題有三個部份:
1.Tool chain docker,您可以使用Kneron的tool chain docker將您的Model從 .onnx 轉成 .nef,這個步驟可確認您的Model架構是否支援Kneron硬體。
2.因為您使用的host_lib為Kneron的舊架構沒有特別更新維護,建議您可以直接使用Kneron Plus,這是近期新出的架構更為方便快速,官網可以下載的到( https://www.kneron.com/tw/support/developers/ ), 您可以使用Kneron Plus搭配Generic inference去得到屬於您Model的Feature Map。(這邊向您說明為什麼推薦Generic inference,因為Generic inference理論上是所有利用Kneron Tool Chain轉成.nef的模型都可以支援。)
3.最後針對您的 Feature Map 去做 Post-Porceess,就可以使用您的Model去做Inference。
總結來說,您可以先用Kneron的Toolchain Docker將您的Model轉成.nef,確認可以在KL720上跑您的Model之後,建議您可以利用Kneron Plus內的Generic Inference去得到的Feature Map,最後再對您的Feature Map做一些Post-Process,您就可以用您的Model去做Inference。