2019-周报21

本周主要针对新的数据制作方式进行训练,既有好的一面同时也遇到了新的问题。这里主要对本周的试验结果进行总结分析,并说明接下来计划的试验。

试验结果总结

用DnCNN拟合新的数据得到了目前为止最高的增益如下表:

QP32 (1帧) QP32 (25帧) QP32 (50帧) QP27 (50帧) QP22 (50帧)
3.1db 1.4db 1.2db 0.62db 0.38db

但试验发现使用新的数据很容易进入局部极小值而不收敛,这个问题的存在十分影响工作效率,同一网络由于初始化不同可能出现不同的收敛情况,很多时候训练了很久最后却不能够收敛,而得不到任何增益,白白浪费了很多时间。

因为没有及时进行总结,在没解决进入局部极小值导致不收敛这个问题的情况下,又尝试了多种多帧拟合网络,其中包括直接输入多帧使用3D卷积融合的多帧网络,光流法融合的多帧网络,BPRN中的循环融合等。均没有取得较好的提升情况,并且不清楚是因为局部极小值导致的提升不够还是网络的原因。

后续试验计划

之前的试验结果表明,使用41x41的数据集没有出现局部极小值的情况,且测试大图时没有出现增益衰减的情况。所以后续训练打算分两步进行,使用41x41初始训练避免进入局部极小值,换成大图加载保存点继续训练进一步提升增益。

使用41x41的数据集测试不同网络的增益情况,尽量寻找参数量与增益性价比最高的网络。

Share Comments