We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
按照说明一步步成功实现了中文识别功能,但在测试到一张测试图片时候发现转换后的onnx模型识别的结果与原paddle模型的推理识别结果有差异。 原paddle模型识别到图片中有2个区域,且其中一个值非常准确,而使用转换后的onnx模型只识别到1个区域,且结果不正确。 不知道是不是paddle在推理时对图片做了简单的预处理导致的识别率差异?
The text was updated successfully, but these errors were encountered:
测试图片如下: 3.zip
Sorry, something went wrong.
模型转换后肯定会有所差别。 这种小图,且字的在图片的边缘,需要调整输入参数,提升边缘的识别率 增加白边->padding 100,让多余的框出现->降低框置信度门限boxScoreThresh 0,框范围调小->unClipRatio 1.2
如果用的模型跟paddle一样,那么paddle或许在模型输入之前有相关的代码微调输入参数,我没有仔细研究,这只是个简单的demo
我也遇到了该问题,正常情况下识别正常,某张图片识别差异很大
No branches or pull requests
按照说明一步步成功实现了中文识别功能,但在测试到一张测试图片时候发现转换后的onnx模型识别的结果与原paddle模型的推理识别结果有差异。
原paddle模型识别到图片中有2个区域,且其中一个值非常准确,而使用转换后的onnx模型只识别到1个区域,且结果不正确。
不知道是不是paddle在推理时对图片做了简单的预处理导致的识别率差异?
The text was updated successfully, but these errors were encountered: