-
Notifications
You must be signed in to change notification settings - Fork 22
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问能否公布一下不采用预训练的config文件么 #18
Comments
直接用pretrain的学习率设置就行,iteration和学习率下降的节点需要调整,因为没预训练的时候置信度不会很高,可以把INFERENCE_TH_TEST往下调 |
作者您好,我之前用pretrain的学习率跑了一下totaltext的代码,标签是用的TESTR论文的,没有用您的,因为您的那个太大了,也没用旋转数据增强,结果最高只有84.3。 参数的话,我把INFERENCE_TH_TEST调成了0.35,STEPS改成了100000,MAX_ITER是160000,请问哪里出问题了呢,为什么跑不到您实验中所说的85.几呢。 恳请作者告知一下,非常感谢,因为跑这个需要的卡太多了,跑一次太不容易了 |
我用的INFERENCE_TH_TEST是0.3 |
那请问step跟max_iter该设置成多少呢,我再跑一下试试 |
max_iter我只用了120K,step应该是100K |
作者您好,我仅调了SYEPS,MAX_ITER, INFERNEC_TH_TEST,发现还是只有84,请问还有其他需要改动的么,我刚入门,就想先复现好精度后再试试怎么改进。 |
或者我跑一下您发布的旋转数据集试试,请问旋转数据集该如何调整MAX_ITER和STEPS呢,恳请作者指点一下,呜呜呜两三天才跑一次实验太慢了。 |
同问,请问采用作者您提供的旋转的totaltext数据集,不预训练的话需要把Max_iter和Steps等参数调整为多少呢,我之前跑过一次hmean最高只有85.8。 |
论文里有提到200K。step160K,85.8也还正常,不同显卡对deformable attention似乎有比较明显的影响 |
噢噢,感谢指点,我没有训那么多次,因为我觉得毕竟数据集都扩充了10倍了嘛,那我换A100再试一下,感谢感谢。 |
@921162820 |
比如说CTW1500或Totaltext直接训练的训练参数如何设置呢。
我已经知道了怎么训练自己的数据集,就是通过textsnake中的代码获取两条边,但算力有限,想知道不预训练该怎么跑呢。
The text was updated successfully, but these errors were encountered: