loss是衡量单一模型效果好坏的,而不能用来衡量两个或多个模型的好坏。
1.在分别用wk的pretrain和imagenet的pretrain训练自己的数据集的时候,wk的pretrain训练的loss也很低,但测试出来的效果却比imagenet的效果差很多。
2.自己在改anchor大小的过程中,没改之前的loss比改了之后的loss降低的更低,比如在21w,32w这些点的loss,但测试的效果还是改了anchor的模型效果更好
本文共 217 字,大约阅读时间需要 1 分钟。
loss是衡量单一模型效果好坏的,而不能用来衡量两个或多个模型的好坏。
1.在分别用wk的pretrain和imagenet的pretrain训练自己的数据集的时候,wk的pretrain训练的loss也很低,但测试出来的效果却比imagenet的效果差很多。
2.自己在改anchor大小的过程中,没改之前的loss比改了之后的loss降低的更低,比如在21w,32w这些点的loss,但测试的效果还是改了anchor的模型效果更好
转载地址:http://mmdix.baihongyu.com/