本周主要针对新的数据制作方式进行训练,既有好的一面同时也遇到了新的问题。这里主要对本周的试验结果进行总结分析,并说明接下来计划的试验。
试验结果总结
用DnCNN拟合新的数据得到了目前为止最高的增益如下表:
| QP32 (1帧) | QP32 (25帧) | QP32 (50帧) | QP27 (50帧) | QP22 (50帧) |
|---|---|---|---|---|
| 3.1db | 1.4db | 1.2db | 0.62db | 0.38db |
但试验发现使用新的数据很容易进入局部极小值而不收敛,这个问题的存在十分影响工作效率,同一网络由于初始化不同可能出现不同的收敛情况,很多时候训练了很久最后却不能够收敛,而得不到任何增益,白白浪费了很多时间。
因为没有及时进行总结,在没解决进入局部极小值导致不收敛这个问题的情况下,又尝试了多种多帧拟合网络,其中包括直接输入多帧使用3D卷积融合的多帧网络,光流法融合的多帧网络,BPRN中的循环融合等。均没有取得较好的提升情况,并且不清楚是因为局部极小值导致的提升不够还是网络的原因。
后续试验计划
之前的试验结果表明,使用41x41的数据集没有出现局部极小值的情况,且测试大图时没有出现增益衰减的情况。所以后续训练打算分两步进行,使用41x41初始训练避免进入局部极小值,换成大图加载保存点继续训练进一步提升增益。
使用41x41的数据集测试不同网络的增益情况,尽量寻找参数量与增益性价比最高的网络。