2019-周报29

本周实验了一些的网络结构,观察了各种结构带来的增益情况,以及相应的优缺点。主要试验了以下结构的情况:

  • non-local
  • channel attention
  • spatial attention
  • multi-scale
  • 深度adaptive
  • 宽度adaptive

1 试验过程记录

以下试验结果均是在jonny码流的QP37下测试得到,BaseModel采用简单的卷积堆叠得到, 结果如下:

模型 BaseModle +NonLocal +spatial&channelAttention +multi-scale
PSNR_GAIN 0.8227 0.8401 0.8869 0.9102

参数量均控制在20k上下,最后 multi-scale 指同时加了spatial attention, channel attention, multi-scale的结果,multi-scale之间共享参数。

2 Adaptive

adapitve目前有两种方法可供选择, 深度adaptive和宽度adaptive. 深度adaptive性价比更高, 但由于不能并行化处理深度计算等原因带来的训练时间会比宽度adaptive更长. 宽度adaptive参数和增益的性价比差一些.

3 pre-train

接下来打算做预训练的试验, 观察预训练带来的训练时间减少情况.

Share Comments