Default Avatar

Wayne_Zhou@compal.com

Wayne_Zhou@compal.com

About

Username
Wayne_Zhou@compal.com
Joined
Visits
50
Last Active
Roles
Member

Comments

  • 進行模型轉換時,使用的是附件中已經經過刪減前後處理的模型(”rvm_mobilenetv3_fp32_backbone.onnx“ 輸入 640x480) 該模型輸出入規格已是固定值,如圖所示 https://www.kneron.com/forum/uploads/338/AK6FLK1VBKDN.png
  • @Andy Hsieh 請問還有缺少任何我這邊可以提供的資料?
  • 您是否也能提供一下您那邊 360x360 的 onnx (sim-cutPost-opt.onnx)、Bie (sim-cutPost-opt.quan.wqbi.bie) 跟 Nef (sim-cutPost-opt-kl{platform}.nef)。 https://www.kneron.com/forum/uploads/420/ALKKDM150I70.zip 附於附件
  • 這裡的 API 是對 onnx inference,radix 可以不用加。 OK 關於 2、3、4 點,您是否可以提供可以執行的 Scptris 還有您的環境(ex. (1)cv2_imgproc、(2)yunet_utils、(3)image_10.jpg 這些等等),方便復現這些問題並 troubleshooting。 附於附件 https://www.kneron.com/…
  • 附件整理了kneron_inference執行過程的 notebook 沒有發現進一步的原因 該附件上傳後有發現些小錯誤,這裡重傳一份 https://www.kneron.com/forum/uploads/125/VGQBSFX3TZSX.zip
  • 附件整理了kneron_inference執行過程的 notebook 沒有發現進一步的原因 https://www.kneron.com/forum/uploads/555/MRCDSKWKS2YA.zip
  • 確認一下,所以onnx轉換問題在切除不支援的op後就可以轉換了嗎? 對 另外,實際硬體與原始模型運行的比較,這邊指的是onnx模型的推論結果與實際上在520 / 720上執行嗎? 所以已經有成功在520 / 720上執行了嗎? 請問要使用的是520還是720呢? 對 在實際硬體 目前是兩邊都有…
  • 您在使用 editor.py 進行切除,通常不建議您將該行onnx.utils.polish_model(m) 著解掉,因為那個 function 是有用來確認 onnx model 是否符合 onnx 規範的功用,如果出現錯誤訊息,您的 onnx model 可能是不符合 onnx 規範。 關於這點,執行 onnx.utils.polish_model(m…
  • OK 解決了 是 sudo 的問題
  • 使用 kl720 執行 嘗試了切除 transpose 之後的 模型 node 並從新轉換,結果的精准度誤差還是十分大 在使用 editor.py 進行切除時 因為其中 onnx.utils.polish_model(m) 會出現錯誤 所以執行時會著解掉該行 以下是切除的指令 sed '31s/^/# /' libs/ONNX_Convertor/opt…
  • 已經編譯並執行 `./DFUT_console` 但是該列表指出裝置不可連接 即使更新了 firmware 也是一樣 執行編譯一起好的 demo 和 python 的 kp 套件 也是出現 Segmentation fault https://www.kneron.com/forum/uploads/132/40TUXSS1ROXH.png