Default Avatar

Maria Chen

Maria Chen

About

Username
Maria Chen
Joined
Visits
1,106
Last Active
Roles
Member, ModeratorsKL520, ModeratorsKL720, ModeratorsAIModel

Comments

  • 您好, 我們這次的toolchain release來不及加上LSTM的處理,所以預計會下一次更新的時候加上,大約是十月底,不好意思會讓您久等!
  • Hi, You can edit the dynamic input shape by using --overwrite-input-shapes parameter inside Kneronnxopt in our Kneron Toolchain: https://www.kneron.com/forum/uploads/070/J26ML3CDJ2SY.png Here is the reference link: Kneronnxopt - Document Center I ho…
  • 您好, 我們發現本來toolchain的onnx converter (kneronnxopt)會幫忙拆開LSTM所以可以轉換模型,不過新的converter還沒有這項功能。 幾天後,我們會新出一版可以用kneronnxopt拆解LSTM的toolchain,之後您的模型經過kneronnxopt處理就可以轉換了,請稍等,謝謝! 更新to…
  • 您好, 可以請您提供下列的資訊嗎? 謝謝! -轉換模型時使用的python script -Input資料 (e.g. 圖片) -Toolchain版本與OS版本 除此之外,您也可以嘗試剪掉Reshape以下的operators,然後將這些operators用postprocess加回去,因為雖然KL720會支持Reshape和Transpose,不過…
  • Hi, Seeing from the image of the model, it seems like the input shape is dynamic: (unk__106, 128, 128, 15, 3). Unfortunately, none of our devices support dynamic input shape, so you would need to edit the model so that the input shape is fixed. For …
  • 您好, 不好意思我上次說錯了,有sequence_lens沒問題,問題是因為sequence_lens裡面的input是空的,所以我們才不會支持。現在的版本無論是什麼opset都會有不支持空input的問題,所以會需要您在那裡面給一個值就可以了。
  • 您好, KL720是支援LSTM,但是目前的版本不支援中間的sequence_lens: https://www.kneron.com/forum/uploads/557/EV11WX74ZE7R.png 所以會失敗。我們會建議您可以考慮換模型。 要剪掉operators是可以,但是剪掉的operators需要用postprocess加回去,postprocess是用CP…
  • 您好, 有這個錯誤的時候,我們會建議您將模型的operators裡面的description刪掉,然後再轉換模型: https://www.kneron.com/forum/uploads/446/8AHUH6NI7759.png
  • 您好, 謝謝您提供資訊。這個看起來像是CPU的問題,有可能是某些instructions在VMware裡面沒有模擬好,導致錯誤。我們會推薦您用x86的環境: https://www.kneron.com/forum/uploads/255/CVERSL2ZWP9Y.png 這個模型 (models_720.nef) 是KL720用的模型 (轉換時,會去指定…
  • 您好, 我自己在Windows的toolchain上跑類似appop2.py的code可以正常地跑,請問一下,您的Mac的CPU是什麼呢? Edit: 再請問一下,上面的error花了多少時間呢? 如果立刻出現錯誤的話,很可能就是CPU的問題 還有,我們不建議跑那個csim的bin,因為有很多參數
  • 您好, 請確認您的model input是否符合模型的input shape: https://www.kneron.com/forum/uploads/356/PGBWJYPKHALB.png 這個preprocess需要與您訓練模型時所用的圖片的處理方式要一致,不然會有錯誤或inference結果會與onnx的inference結果不一樣: https://www.kneron…
  • 您好, Kneron toolchain的binary都是針對x86_64的架構編譯的,所以在ARM架構上跑不了 (除非ARM上的docker可以模擬x86_64的指令)。我們會建議您使用x86_64的環境喔。 FCmodel_simplified.onnx模型下方,因為KL720沒有支援Expand和Div,所以需要將這些operators剪掉,再…
  • 您好, 我們的文檔裡有一張表有放其它模型的performance數據可以提供您參考 (確定可以通過toolchain): Hardware Performance - Document Center (kneron.com)   不好意思我們沒有特別推薦模型,因為這個要看您自己應用的需求(速度、精度)。您可以根據自己的需求訓練修…
  • 您好, Kneron toolchain只能用intel/amd的CPU跑,所以在ARM架構上跑不了 (除非ARM CPU上的docker可以模擬x86_64的指令)。我們會建議您使用x86_64的環境。如果您用的是x86的話,就可以用這個command跑:  sudo docker run --rm -it -v /home/john/Downloads/kneron_plus…
  • Hi, Thank you for your patience as well. We've found the solution now: In km.analysis, we should set the parameter datapath_bitwidth_mode to "all int8" An example code would be: bie_model_path = km.analysis(input_mapping, threads=4, datapa…
  • 您好, 除了KL520以外都會支援multiple inputs,但是您的model (model.onnx) 經過optimize之後,還是會有不支持的operators (像是Exp, Where, etc.)。 轉換模型時,一般會用IP Evaluator去檢查後,再來用Netron之類的工具去檢查onnx有沒有不支援的operators。不好意思…
  • 您好, 是的,Kneron toolchain的binary都是針對x86_64的架構編譯的,在ARM上跑不了 (除非ARM上的docker可以模擬x86_64的指令)。我們建議您使用x86_64的環境喔 這些是用上次提供的convert_model.py和edited_path.py跑出來的nef檔: https://www.kneron.com/forum/upload…
  • Hi, I've ran the script and KL630 also didn't work for me, while KL720 did. It seems like the error was caused by KL630's nmem not being able to fit in the quantized GlobalAveragePool. We are still looking into the solution. Thank you for your patie…
  • 您好, 我們不是對所有platforms的operators很熟悉,所以建議您先去將模型轉換成onnx模型然後提供onnx模型給我們,我們才有辦法用IP Evaluator去查onnx模型喔,不好意思麻煩您了!
  • 您好, 我用了Model_Classification_Quantilization的e2e_simulator.py (改了一些path)和提供的optimized_MobileNetV2.onnx,可以正常地跑。我另外用自己的script也可以成功轉換成nef模型 (KL720),使用的scripts可以提供給您做參考。 https://www.kneron.com/forum/up…
  • Hi Nhleem, Thank you for providing the info and files. There was a bug in the toolchain related to KL630 that was fixed in v0.25.1. Could you update the docker ($ docker pull kneron/toolchain:latest) and try converting the model again? Thanks!
  • 您好, 這個我不太確定,可能會需要麻煩您將這個model輸出成onnx,然後跑Kneron toolchain的IP Evaluator去得知是否支援。 或是可以請您提供模型嗎? 謝謝!
  • Hi, Could you also provide the following so we could try debugging? Thanks! -The original onnx model and the optimized onnx model -The toolchain version (please use the command cat /workspace/version.txt) -The log
  • 您好, 如果您已經有model,可以直接把model export成onnx出來後,跑IP Evaluator看看就能確定有無支援了。有時候雖然Operator type有支援,但參數設定不好 (e.g. pad數值太大) NPU也可能沒辦法支援 不過ZeroPad2d應該大機率會被轉成onnx的pad沒錯,像是keras的ZeroPad…
  • 您好, 如果是classification模型的話,可以參考Ethon介紹的model zoo的模型,另外我們也推薦使用MobileNet。
  • Hi, Onnx models should be able to be converted to nef models as long as the operators are supported. Please refer to our documentation: Hardware Supported Operators - Document Center (kneron.com) We did not find the file onnx2NEF_KL520.py, so we use…
  • 您好, 模型有KL720不支援的operators,像是Gather、Cast、Unsqueeze。我們會建議您將不支援的operators替換掉,然後重新做訓練,或是直接更換模型。 這個文檔有我們支援的operators,可以提供給您做參考: Hardware Supported Operators - Document Center (kneron.com…
  • Hi, I've checked the onnx model PSV_edge_generator.onnx, and it has unsupported operators "InstanceNormalization" even after I optimized the model. https://www.kneron.com/forum/uploads/826/T9MCCFCAE0AM.png A list of supported operators: H…
  • Hi FK, You might not be able to run Python examples on Kneron PLUS with Raspberry Pi 3B, because the supported OS is listed below: https://www.kneron.com/forum/uploads/007/69RFUA5I6BR2.png However, as long as your Raspberry Pi 3B fits the requiremen…
  • Hi FK, The error seems to be a failed USB configuration error. Please check if your OS fits these requirements: https://www.kneron.com/forum/uploads/298/VJ1PV8XAS8RJ.png And if you have these USB permissions configured: https://www.kneron.com/forum/…