转载

注意迁移的PyTorch实现

本项目是论文《要更加注重注意力:通过注意迁移技术提升卷积神经网络的性能(Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer)》PyTorch 实现。点击文末「阅读原文」可查阅原论文。

项目地址:https://github.com/szagoruyko/attention-transfer

这篇论文已经提交给了 ICLR 2017 会议,正在 review 状态:https://openreview.net/forum?id=Sks9_ajex

注意迁移的PyTorch实现

到目前为止该代码库里的内容包括:

  • CIFAR-10 实验的基于激活技术的 AT 代码

  • ImageNet 实验的代码(ResNet-18-ResNet-34 student-teacher)

即将上线:

  • 基于梯度的 AT

  • 场景和基于 CUB 激活的 AT 代码

  • 预训练的基于激活的 AT ResNet-18

代码使用 PyTorch。原始的实验是用 torch-autograd 做的,我们目前已经验证了 CIFAR-10 实验结果能够完全在 PyTorch 中复现,而且目前正在针对 ImageNet 做类似的工作(由于超参数的原因,PyTorch 的结果有一点点变差)

引用:

@article{Zagoruyko2016AT,
    author = {Sergey Zagoruyko and Nikos Komodakis},
    title = {Paying More Attention to Attention: Improving the Performance of
             Convolutional Neural Networks via Attention Transfer},
    url = {https://arxiv.org/abs/1612.03928},
    year = {2016}}

要求

先安装 PyTorch,再安装 torchnet:

git clone https://github.com/pytorch/tnt
cd tnt
python setup.py install

安装 OpenCV 以及 Python 支持包,以及带有 OpenCV 变换的 torchvision:

git clone https://github.com/szagoruyko/vision
cd vision; git checkout opencv
python setup.py install

最后,安装其他的 Python 包:

pip install -r requirements.txt

实验

CIFAR-10

这一节讲述如何得到本文中第一个表里的那些结果。

首先,训练老师:

python cifar.py --save logs/resnet_40_1_teacher --depth 40 --width 1
python cifar.py --save logs/resnet_16_2_teacher --depth 16 --width 2
python cifar.py --save logs/resnet_40_2_teacher --depth 40 --width 2

用基于激活的 AT 来训练:

python cifar.py --save logs/at_16_1_16_2 --teacher_id resnet_16_2_teacher --beta 1e+3

用 KD 来训练:

python cifar.py --save logs/kd_16_1_16_2 --teacher_id resnet_16_2_teacher --alpha 0.9

我们下一步计划增加带有 beta 衰退的 AT+KD 来得到最优的知识转换结果。

ImageNet

预训练模型

我们提供带有基于激活 AT 的 ResNet-18 预训练模型:

注意迁移的PyTorch实现

从头开始训练

下载 ResNet-34 的预训练权值(functional-zoo 里有更多介绍):

wget https://s3.amazonaws.com/pytorch/h5models/resnet-34-export.hkl

根据 fb.resnet.torch 准备数据,然后进行训练(比如使用 2 个 GPU):

python imagenet.py --imagenetpath ~/ILSVRC2012 --depth 18 --width 1 /
                   --teacher_params resnet-34-export.hkl --gpu_id 0,1 --ngpu 2 /
                   --beta 1e+3
原文  http://www.jiqizhixin.com/article/2237
正文到此结束
Loading...