---
typora-root-url: ./
---
### 1 目录结构
/src 源代码所在位置
/src/main.py 主体的训练,测试代码
/src/main_nlp.py 语言建模的训练,测试代码
/src/constants.py 常量
/src/plot.py 结果可视化相关代码
/src/algorithm 我们自己实现的RAdam和lookahead
/src/data 几种不同数据集的数据读取和预处理位置
/src/models 几种不同问题对应模型的读取位置
/results 实验结果所在位置
/results/text 实验结果的txt文档
/results/runs 实验结果的tensorboard可视化文件
/results/picture 实验图片结果
/data 实验数据所在位置
/data/cifar-10-batches-py cifar10数据
/data/cifar-100-python cifar100数据
/data/cnn_data 作业2的部分ImageNet图片数据
/data/ptb 作业3的语言建模数据
IMDB数据会自动下载
### 2 实验环境
- ubuntu 18.04系统
- python 3.6.9
- pytorch 1.4.0
- numpy 1.18.4
- torchvision 0.5.0
- tensorboard 1.14.0
- keras 2.3.1
### 3 实验复现方法说明
#### 3.1 基本性能比较
##### 实验复现方法
(注:以下实验均运行在src目录下)
cifar10:
Ranger(RAdam + lookahead):
```shell
python main.py
```
RAdam:
```shell
python main.py --lookahead 0
```
cifar100:
Ranger(RAdam + lookahead):
```shell
python main.py --dataset cifar100
```
RAdam:
```shell
python main.py --dataset cifar100 --lookahead 0
```
##### 可视化复现方法
(注:以下可视化均运行在results目录下)
cifar10的train loss对比
Ranger(RAdam + lookahead):
```shell
tensorboard --logdir runs/000
```
cifar10的test accuracy对比
```shell
tensorboard --logdir runs/001
```
cifar100的train loss对比
```shell
tensorboard --logdir runs/100
```
cifar100的test accuracy对比
```shell
tensorboard --logdir runs/101
```
#### 3.2 对超参数鲁棒
##### 实验复现方法
(注:以下实验均运行在src目录下)
cifar10:
Ranger(标准超参数 alpha = 0.8, k = 5)
```shell
python main.py
```
Ranger(alpha = 0.5)
```shell
python main.py --lookahead_lr 0.5
```
Ranger(k = 10)
```shell
python main.py --lookahead_steps 10
```
RAdam:
```shell
python main.py --lookahead 0
```
cifar100:
Ranger(标准超参数 alpha = 0.8, k = 5)
```shell
python main.py --dataset cifar100
```
Ranger(alpha = 0.5)
```shell
python main.py --lookahead_lr 0.5 --dataset cifar100
```
Ranger(k = 10)
```shell
python main.py --lookahead_steps 10 --dataset cifar100
```
RAdam:
```shell
python main.py --lookahead 0 --dataset cifar100
```
###### 可视化复现方法
(注:以下可视化均运行在results目录下)
cifar10的train loss对比
```shell
tensorboard --logdir runs/030
```
cifar10的test accuracy对比
```shell
tensorboard --logdir runs/031
```
cifar100的train loss对比
```shell
tensorboard --logdir runs/130
```
cifar100的test accuracy对比
```shell
tensorboard --logdir runs/131
```
#### 3.3 对学习率鲁棒
##### 3.3.1 学习率变化
##### 实验复现方法
(注:以下实验均运行在src目录下)
cifar10:
Ranger(RAdam + lookahead):
```shell
python main.py --learning_rate 0.01
```
RAdam:
```shell
python main.py --learning_rate 0.01 --lookahead 0
```
cifar100:
Ranger(RAdam + lookahead):
```shell
python main.py --learning_rate 0.01 --dataset cifar100
```
RAdam:
```shell
python main.py --learning_rate 0.01 --dataset cifar100 --lookahead 0
```
##### 可视化复现方法
(注:以下可视化均运行在results目录下)
cifar10的train loss对比
```shell
tensorboard --logdir runs/010
```
cifar10的test accuracy对比
```shell
tensorboard --logdir runs/011
```
cifar100的train loss对比
```shell
tensorboard --logdir runs/110
```
cifar100的test accuracy对比
```shell
tensorboard --logdir runs/111
```
##### 3.3.2 学习率衰减方式变化
##### 实验复现方法
(注:以下实验均运行在src目录下)
cifar10:
Ranger(RAdam + lookahead):
```shell
python main.py --lr_decay fast
```
RAdam:
```shell
python main.py --lr_decay fast --lookahead 0
```
cifar100:
Ranger(RAdam + lookahead):
```shell
python main.py --lr_decay fast --dataset cifar100
```
RAdam:
```shell
python main.py --lr_decay fast --dataset cifar100 --lookahead 0
```
##### 可视化复现方法
(注:以下可视化均运行在results目录下)
cifar10的train loss对比
```shell
tensorboard --logdir runs/020
```
cifar10的test accuracy对比
```shell
tensorboard --logdir runs/021
```
cifar100的train loss对比
```shell
tensorboard --logdir runs/120
```
cifar100的test accuracy对比
```shell
tensorboard --logdir runs/121
```
#### 3.4 Lookahead + other optimizer
##### 实验复现方法
(注:以下实验均运行在src目录下)
cifar10:
Ranger(RAdam + lookahead):
```shell
python main.py
```
RAdam:
```shell
python main.py --lookahead 0
```
Adam + lookahead:
```shell
python main.py --algorithm Adam
```
Adam:
```shell
python main.py --algorithm Adam --lookahead 0
```
SGD + lookahead:
```shell
python main.py --algorithm SGD
```
SGD:
```shell
python main.py --algorithm SGD --lookahead 0
```
cifar100:
Ranger(RAdam + lookahead):
```shell
python main.py --dataset cifar100
```
RAdam:
```shell
python main.py --lookahead 0 --dataset cifar100
```
Adam + lookahead:
```shell
python main.py --algorithm Adam --dataset cifar100
```
Adam:
```shell
python main.py --algorithm Adam --lookahead 0 --dataset cifar100
```
SGD + lookahead:
```shell
python main.py --algorithm SGD --dataset cifar100
```
SGD:
```shell
python main.py --algorithm SGD --lookahead 0 --dataset cifar100
```
##### 可视化复现方法
(注:以下可视化均运行在results目录下)
cifar10的train loss对比
```shell
tensorboard --logdir runs/040
```
cifar10的test accuracy对比
```shell
tensorboard --logdir runs/041
```
cifar100的train loss对比
```shell
tensorboard --logdir runs/140
```
cifar100的test accuracy对比
```shell
tensorboard --logdir runs/141
```
#### 3.5 性能提升是否来源于batch size的提升?
##### 实验复现方法
(注:以下实验均运行在src目录下)
cifar10:
步长5 + batch128
```shell
python main.py
```
步长2 + batch320
```shell
python main.py --lookahead_steps 2 --batch_size 320
```
步长10 + batch64
```shell
python main.py --lookahead_steps 10 --batch_size 64
```
cifar100:
步长5 + batch128
```shell
python main.py --dataset cifar100
```
步长2 + batch320
```shell
python main.py --lookahead_steps 2 --batch_size 320 --dataset cifar100
```
步长10 + batch64
```shell
python main.py --lookahead_steps 10 --batch_size 64 --dataset cifar100
```
##### 可视化复现方法
(注:以下可视化均运行在results目录下)
cifar10的train loss对比
```shell
tensorboard --logdir runs/050
```
cifar10的test accuracy对比
```shell
tensorboard --logdir runs/051
```
cifar100的train loss对比
```shell
tensorboard --logdir runs/150
```
cifar100的test accuracy对比
```shell
tensorboard --logdir runs/151
```
#### 3.6 其他任务/模型上的测试
##### 3.6.1 hw2 image classification
##### 实验复现方法
(注:以下实验均运行在src目录下)
Ranger
```shell
python main.py --dataset self_cnn
```
RAdam
```shell
python main.py --dataset self_cnn --lookahead 0
```
##### 可视化复现方法
(注:以下可视化均运行在results目录下)
train loss对比
```shell
tensorboard --logdir runs/400
```
test accuracy对比
```shell
tensorboard --logdir runs/401
```
##### 3.6.2 hw3 language model
##### 实验复现方法
(注:以下实验均运行在src目录下)
Ranger
```shell
python main_nlp.py
```
RAdam
```shell
python main_nlp.py --lookahead 0
```
##### 可视化复现方法
(注:以下可视化均运行在results目录下)
train loss对比
```shell
tensorboard --logdir runs/200
```
test accuracy对比
```shell
tensorboard --logdir r
没有合适的资源?快使用搜索试试~ 我知道了~
温馨提示
<项目介绍> 1 目录结构 2 实验环境 3 实验复现方法说明 3.1 基本性能比较 实验复现方法 可视化复现方法 3.2 对超参数鲁棒 实验复现方法 可视化复现方法 3.3 对学习率鲁棒 3.3.1 学习率变化 实验复现方法 可视化复现方法 3.3.2 学习率衰减方式变化 实验复现方法 可视化复现方法 3.4 Lookahead + other optimizer 实验复现方法 可视化复现方法 3.5 性能提升是否来源于batch size的提升? 实验复现方 - 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! 1、该资源内项目代码都经过测试运行成功,功能ok的情况下才上传的,请放心下载使用! 2、本项目适合计算机相关专业(如计科、人工智能、通信工程、自动化、电子信息等)的在校学生、老师或者企业员工下载学习,也适合小白学习进阶,当然也可作为毕设项目、课程设计、作业、项目初期立项演示等。 3、如果基础还行,也可在此代码基础上进行修改,以实现其他功能,也可用于毕设、课设、作业等。
资源推荐
资源详情
资源评论




























收起资源包目录





































































































共 212 条
- 1
- 2
- 3
资源评论


.Android安卓科研室.
- 粉丝: 5433
上传资源 快速赚钱
我的内容管理 展开
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助


最新资源
- 项目管理的个人工作总结.doc
- 网络环境的专题教学设计市公开课一等奖百校联赛特等奖课件.pptx
- 物联网业务及技术培训PPT课件.ppt
- 物联网应用技术专业现代学徒制教学改革研究.docx
- 其他网络营销方法.pptx
- 浅析企业财务软件的帐务处理【会计实务操作教程】.pptx
- 软考项目管理师详解大全之过程记忆口诀详解.doc
- 大型网吧网络系统设计方案解析.doc
- 软件工程基础知识论述.pptx
- 京宁热电公司信息化发展战略的制定与实施.doc
- 项目十三 使用Excel制作成绩分析表.pptx
- 新产品研发流程管理-研发项目管理与研发绩效管理.doc
- 软件工程-图书管理系统.doc
- 生物制药工艺学基因工程制药1.ppt
- 嵌入式系统的定义及特点.doc
- 最新网络安全技术解读PPT.pptx
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈



安全验证
文档复制为VIP权益,开通VIP直接复制
