问题:在做深度学习项目,经常会遇到模型在VM预测时,出现了部分样本的误检或漏检的情况。
对于上述情况,首先需要仔细研读对应的训练指导说明,查看是否是某一步操作问题导致模块报错,或者参数设置错误。
由于篇幅有限,针对一些特殊的优化细节,本文以是否做多分类任务为划分,大致的列了以下几点。
多分类:
- 如图像分类、目标检测和图像分割,需考虑类别之间是否有一定差异性,特征相似的类别应做合并。深度学习的分类标准是以目标特征分类,不应以目标出现区域或生成原因划分,下图中的凹坑和边缘掉料特征相似,应合并成一个。


- 对于图像检索,可将误识别的样本注册到gallery对应的类别中,图像检索的loss通常会大于0.4以上,但并不影响检出精度,可能与内部的Loss函数计算方法有关。

二分类(也可称做单类别,即不做分类,只定位出目标位置):
- 背景中存在相似特征的,对于图像分割,可直接在此区域作忽略标注,建议所有图片统一做忽略。也可以新添加几张OK样本图,或者尝试使用自学习算法训练。
- 对于目标检测,在VT1.4.1版本中可添加几张OK样本作为背景图,也可以更换训练参数,如大Patch,高精度模型,并适当提高迭代轮次。
- 对于字符识别,通常是由于字符定位模型偏移,或是未开启朝向使能,而导致定位框未按字符方向旋转,也可能是字符像高占背景比过小,超出了算法下限,应尽可能的放大字符大小,比如缩小视野,裁剪图像大小等。
- 其他训练任务由于可调整的标注和训练参数不多,应着重与样本数据的清洗,可以使用常用方法提高模型性能。如提高缺陷对比度,增加样本量,选择更合适的算法,调整标注策略,将误检或漏检样本再次添加至训练集,并适当增加迭代轮次重新训练,etc。