本周实验了一些的网络结构,观察了各种结构带来的增益情况,以及相应的优缺点。主要试验了以下结构的情况:
- non-local
- channel attention
- spatial attention
- multi-scale
- 深度adaptive
- 宽度adaptive
1 试验过程记录
以下试验结果均是在jonny码流的QP37下测试得到,BaseModel采用简单的卷积堆叠得到, 结果如下:
| 模型 | BaseModle | +NonLocal | +spatial&channelAttention | +multi-scale |
|---|---|---|---|---|
| PSNR_GAIN | 0.8227 | 0.8401 | 0.8869 | 0.9102 |
参数量均控制在20k上下,最后 multi-scale 指同时加了spatial attention, channel attention, multi-scale的结果,multi-scale之间共享参数。
2 Adaptive
adapitve目前有两种方法可供选择, 深度adaptive和宽度adaptive. 深度adaptive性价比更高, 但由于不能并行化处理深度计算等原因带来的训练时间会比宽度adaptive更长. 宽度adaptive参数和增益的性价比差一些.
3 pre-train
接下来打算做预训练的试验, 观察预训练带来的训练时间减少情况.