博客
关于我
caffe在ImageNet数据集上训练残差网络Resnet
阅读量:783 次
发布时间:2019-03-25

本文共 1192 字,大约阅读时间需要 3 分钟。

ImageNet数据集是图像分类领域的经典公开数据集,对深度学习的发展产生了深远影响。许多经典的网络模型都会在ImageNet上进行训练对比,ResNet18作为其中一员,本文从头训练了一个ResNet18模型,使用ILSVRC2012数据集。

由于硬件条件有限,只能使用RTX2060s单卡训练。相比Inception系列需要数十块GPU的训练,确实让人感到有些惋惜。

关于多卡训练,推荐阅读论文《Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour》,其中提到的调参技巧颇为有用。其中包括batch size和learning rate的一些关系,以及常用的warm up策略,均在训练中发挥了重要作用。

尽管如此,本人仍选择使用单卡训练了5天时间,并取得了不错的实验结果。单片样面的验证错误率显示,Top-1为30.86%,Top-5为11.66%。相较于Facebook AI Research (FAIR)的实现,Top-1差异为0.43%,可以推测原因在于数据增强方案和迭代次数上。数据集的处理方面,本文主要使用了随机裁剪和水平翻转等方法。

下载的文件包含以下几个部分:ILSVRC2012_img_train.tar、ILSVRC2012_img_val.tar、ILSVRC2012_img_test.tar和ILSVRC2012_devkit_t12.gz。前三个压缩包分别对应train、val、test子集的图像数据,体积分别为147GB、6.7GB和13.6GB。ILSVRC2012_devkit_t12.gz则提供了数据集的详细说明和提交结果评价的代码。

数据集解压和处理过程相对复杂。ILSVRC2012_img_train.tar解出来后,需要对1000个tar文件进行二次解压。在train目录下运行unzip.sh文件,处理完成后将得到1000个分类文件夹。ILSVRC2012_img_val.tar则包含所有的验证集图片。

实训数据集处理时,本人主要采用Vertices ResNet框架,使用随机裁剪和水平翻转等方法进行数据增强。特别是在ResNet架构中加入SE Block对模型性能进行对比和提升。

训练过程整体图示显示,batch size设置为64。红色曲线表示验证集Top-1错误率,紫色曲线表示Top-5错误率,红色和紫色分别以不同的间隔呈现出训练和验证集的损失变化趋势。

此外,本人目前也在探索更多数据增强手段。从SE Block改进的ResNet对比结果也将纳入实验范围内。初步数据显示,只有单块模型经过5天训练即可实现验证集Top-1准确率为30.86%,Top-5准确率为11.66%。这些结果在简单数据增强和有限迭代次数下表现尚可,未来将继续优化训练策略。

转载地址:http://tfcuk.baihongyu.com/

你可能感兴趣的文章
Memcached:Node.js 高性能缓存解决方案
查看>>
memcache、redis原理对比
查看>>
memset初始化高维数组为-1/0
查看>>
Metasploit CGI网关接口渗透测试实战
查看>>
Metasploit Web服务器渗透测试实战
查看>>
MFC模态对话框和非模态对话框
查看>>
Moment.js常见用法总结
查看>>
MongoDB出现Error parsing command line: unrecognised option ‘--fork‘ 的解决方法
查看>>
mxGraph改变图形大小重置overlay位置
查看>>
MongoDB可视化客户端管理工具之NoSQLbooster4mongo
查看>>
Mongodb学习总结(1)——常用NoSql数据库比较
查看>>
MongoDB学习笔记(8)--索引及优化索引
查看>>
mongodb定时备份数据库
查看>>
mppt算法详解-ChatGPT4o作答
查看>>
mpvue的使用(一)必要的开发环境
查看>>
MQ 重复消费如何解决?
查看>>
mqtt broker服务端
查看>>
MQTT 保留消息
查看>>
MQTT 持久会话与 Clean Session 详解
查看>>
MQTT工作笔记0007---剩余长度
查看>>