KL720 dongle 速度問題

我們KL720 dongle使用這個kl720_demo_generic_image_inference_multithread跑大概30FPS,

然後把model改成兩個跟三個yolov5s合成的nef跑大概27FPS.看起來是多個model瓜分這27FPS的速度.

請問你們一次能跑多個模組,速度上是分掉這27FPS的速度還是三個model都能各自27FPS?

或者跑多model時程式有不同的寫法,不能直接用我們測試的那個demo source code?

Comments

  • Hello,

    想請問將模型改成兩個跟三個yolov5s指的是什麼呢? 即便NEF中有三個模型,執行推論時也只會依據輸入的model ID來對指定的模型做推論。因此,同樣的模型即便包了很多個,若只執行其中的單一模型,速度還是一樣的,唯一會有差異的就是讀取模型的時間會變長。

    一般來說,多模型的使用通常會依據第一個模型的結果來決定是否要執行第二個模型(e.g.車牌辨識:先偵測確認有車牌才會去辨識車牌內的文字為何)

    附上常見的多模型使用流程,若你們使用的場景有所不同,也歡迎再提出討論。


The discussion has been closed due to inactivity. To continue with the topic, please feel free to post a new discussion.