
Andy Hsieh
Andy Hsieh
About
- Username
- Andy Hsieh
- Joined
- Visits
- 1,170
- Last Active
- Roles
- Member, ModeratorsKL520, ModeratorsKL720, ModeratorsAIModel
Comments
-
@盧俊佑 Hi 俊佑, 不好意思讓您久等了,這裡幫您確認過,因為您提供的 ckpt(.pth) 只含 model weight,不含 model structure,所以必須提供一個 config,讓 .pth 順利轉成 onnx。 根據參考連結:http://doc.kneron.com/docs/#model_training/regression/ 在您的 cas…
-
@Kaveen Hi Kaveen, The reduced accuracy may be due to you removing the operator, but that's okay. If you remove the unsupported operator, you can connect the unsupported operator to do the calculation after getting the result on the host side. You c…
-
@盧俊佑 Hi 俊佑, https://www.kneron.com/forum/discussion/comment/1095#Comment_1095 這裡可以看的到您的留言喔。
-
@盧俊佑 Hi 俊佑, 您可能也要提供一下您的 .pth,這樣方便重現您的錯誤訊息,並找出原因。
-
@GigaHsu Hi GigaHsu, 看過您的 model 也對您的 model 做過 10 張的量化是可以順利的轉成 nef 的。 我認為有 Accuracy = 0 % 這個情況可能是 .tflite 模型本身的問題,建議您確認一下你的模型。
-
@Casper Tu Hi Casper, This should be a problem with the compiler. You may need to provide more complete information, such as the onnx model, toolchain version, and complete error message, thanks.
-
@sugar Hi sugar, 圖片中的訊息 KP_FW_INFERENCE_TIMEOUT 表示與 KL520 溝通的 PLUS(電腦端)等不到 KL520 回傳工作狀態,可能的原因有很多種。 有因為圖片大小不合 model,您的 input image 太大或太小所導致。 也有可能有其他原因,您可以參考: https://www.kneron…
-
@呂則賢 Hi 呂則賢, 我這邊初步推測偵測不出目標的原因是你有修改到 class 種類並設定 2 種,因為 yolox_plus_demo 內的 inference scripts (KL720DemoGenericInferenceYoloX_BypassHwPreProc.py) 是針對預設 class 80,您可以試著修改看看。 或是您是否可以提供您的 …
-
@呂則賢 Hi 呂則賢, /workspace/miniconda/lib/python3.7/site-packages/numpy/__init__.py:156: UserWarning: mkl-service package failed to import, therefore Intel(R) MKL initialization ensuring its correct out-of-the box operation under condition when G…
-
@sugar Hi sugar, 這裡想釐清一些問題,不知道您的模型推論效果,6/17所貼的第一張圖片與第二張圖片,是否都是用 .pth 推論結果所畫出來的圖(還是用 .onnx 或是用 .nef 推論結果畫出來的圖)。 幫您看過您的流程後,這邊不建議使用別人 Repo 內的 model 串接我們 mmla…
-
@Shawn Yang Hi Shawn, 1.因為購買的是KL520 AI SoC development kit , 它還包含了鏡頭及LCD的週邊, 是否能使用官方提供的檔案或程式做這些週邊的硬體測試? ex : 利用kneron plus 讓鏡頭輸入現場的影像由LCD輸出, 或是其它方式... Ans: 您使用 KL520 AI SoC developme…
-
@sugar Hi sugar, 我想跟您確認一下, 您轉成 onnx 之前的 model (是連結內的 best.pt 嗎?) 轉換後的 onnx model (是連結內 yolov5s-coco128_simplify_convert.onnx 嗎?) 還有您是否可以提供一下您的 inference scripts (轉成 onnx 前的、轉成 onnx 後的、轉成 nef …
-
@GigaHsu Hi GigaHsu, Q1. 這裡有幫您測試過,轉出來的模型有沒有 Pad 都是有相同的行為。 所以我認為 Accuracy 不好應該是跟有沒有 Pad 沒有關係的。 至於 call tflite2onnx_flow() 第二個參數設定 True 的原因是將 model input shape 轉成 channel last,Kneron Too…
-
@GigaHsu Hi GigaHsu, 您的 Resnet50v1.tflite model 是量化過的 model ,這邊建議使用未量化過的 float model。
-
@GigaHsu Hi GigaHsu, 您的 ssd_mobilenetv1.tflite 含有 Kneron 硬體架構不支援的 operators,您必須要去除這些不支援的 operators (如附圖紅線以下),相信您去除之後您的問題都可以解決。 https://www.kneron.com/forum/uploads/387/OWMB06FOSPZ1.png 這裡有 Kneron…
-
@GigaHsu Hi GigaHsu, 您成功轉出的 .nef 檔案是去除 ArgMax 這個 type 的 model,不知道您推論之前是否有再做後處理 ( ArgMax ) 回去,做完之後 Accuracy 應該不會只有 0.1 %,因為不知道您的 Accuracy 是怎麼計算的,如果您方便的話是否可以提供計算 Accuracy 的 C…
-
@arthurwu Hi arthurwu, 我這裡幫您檢查,流程如下: OnnxRT infernce:使用您提供的 epoch19_4d3.onnx 為 model,inference_data.npy 為您的 input data,將 input data 去做推論得到結果 C [shape (1, 150, 220)]。 Kneron E2E Simulator:使用您 Script (kneron_mo…
-
@arthurwu Hi arthurwu, 我這裡根據您提供附件重現您提出的問題,這裡有發現,您使用原始 model 並使用 onnxruntime 執行 onnx inference 與 Kneron E2E Simulator 的 onnx inference 有明顯差異的原因是 Kneron E2E Simulator 的 onnx inference input 與 ouput shap…
-
@GigaHsu Hi Giga, 關於影響推論的結果 (Accuracy) 的可能性很多,您可以先檢查下面幾點: 模型本身以及您訓練模型的 datasets 是否符合您想推論的東西,或是訓練模型時的參數。 量化時的影響,用來做量化分析的圖片是否皆與訓練模型或是推論場景有關? 且圖庫中應盡可…
-
@arthurwu Hi arthurwu, 我這裡根據您提供附件想重現您提出的問題,我想請教您一下您 Scripts 中我遇到的幾點問題。 Step4 inference_data_path[0] 是指哪個 inference data。 您在 Step5 量化的 inference_data_path 是讀取哪些 data 來量化您的 model。量化模型時…
-
@Wayne_Zhou@compal.com Hi Wayne_Zhou, 關於使用您提供的資料,先前提到的 2、3 點,我這裡有復現出您的問題了,並且問題已經有把您的問題交給相關同仁也得到回覆了。 主要是 radix 出現的問題沒有錯,下一版的 Kneorn ToolChain 會改善此問題。 這邊建議您解決的辦…
-
@Mumu Hi Mumu, 因為您是使用較舊版本的 scripts, 出現的錯誤訊息不好判斷,可以的話請您幫我使用 Python API 來做量化,方便的話您也可以提供您使用新的 scripts 跟 model ,下面連結可供您參考: http://doc.kneron.com/docs/#toolchain/manual/ http://doc.kneron.…
-
@Mumu Hi Mumu, 是否方便讓我知道您的 model 來源,這個有可能是原本的 model 裡面就有的問題,您可以試試使用下面 API 移除第二個。 import ktc import onnx m = onnx.load('aoi_opt.onnx') m.opset_import.pop() print(m.opset_import)
-
https://www.kneron.com/forum/discussion/comment/1036#Comment_1036 @Mumu Hi Mumu, 這個 onnx model 的 opset version 不合規, 有兩個. 您試試移掉下面所圈選的那個。 https://www.kneron.com/forum/uploads/448/AIF25ASSZ462.jpg
-
@Wayne_Zhou@compal.com Hi Wayne_Zhou, 我這邊執行您提供的 Script 是可以跑 2、3點的,不過我使用的 model 是根據您提供出來的線索這邊自己轉的,您是否也能提供一下您那邊 360x360 的 onnx (sim-cutPost-opt.onnx)、Bie (sim-cutPost-opt.quan.wqbi.bie) 跟 Nef (si…
-
@Wayne_Zhou@compal.com Hi Wayne_Zhou, 看過您整理的 kneron-inference,得知您是想要使用 KL520,這裡列出幾點給您參考: 1. 您的 kneron inference on Onnx onnxOutputData = ktc.kneron_inference([inputData], onnx_file=modelOnnxPath, input_names=["inpu…
-
@Wayne_Zhou@compal.com Hi Wayne_Zhou, 這裡有幫您確認過,kneron_inference() 是可以處理 radix = -1 的情況,可能還得請您檢查一下其他可能的原因。 執行ktc.kneron_inference 運行時會發生一些狀況,關於這點,能否請你提供你執行的方式,也就是該api所需要的各項…
-
Hi Anoop, Kneron's hardware architecture mainly depends on the onnx specification. You mentioned that your Keras model has multiply layer, which is the Mul operator in onnx. Preliminary judgment, your multiply layer is not supported in KL520, but it…
-
@Lin Hsiehcheng Hi Lin Hsiehcheng, If you need to port this project, you must understand their preprocess and postprocess, especially what to do after their ouput node output. I have seen the model of this project, there are some operotars that are…
-
@Wayne_Zhou@compal.com Hi Wayne, 看過您 onnx 模型轉換的流程,建議您使用 Kneron 最新的 ToolChain docker (kneron/toolchain:v0.17.2) ,還有使用 python API 來轉換模型 (http://doc.kneron.com/docs/#toolchain/manual/)。 如 Ethon 所描述,因為您的模型中含…