SlideShare a Scribd company logo
ImageNet	Classification	with	Deep	
Convolutional	Neural	Networks
(An	introduction	to	PyTorch)
Daichi Hayashi
@Doshisha University
Deep	Learningのもたらした衝撃
• 画像認識やNLP,音声認識の分野はもはやDeep Learning一色!
• Deep Learningが用いられて成功している分野は以下のように様変わり
• 従来: モデリング + 特徴量エンジニアリング + アルゴリズム開発
Ø モデリング = 数学や物理を用いた問題の定式化
Ø その問題を解くアルゴリズムの選択・開発
• 現在 : ネットワーク構造の設計 + 訓練データ構築
Ø NNが特徴量抽出を全て行ってくれる.
Deep	Learningの科学領域における侵食
• あらゆる工学・バイオ分野に応用されている
解けなかった問題を解けるように!
• 計算時間短縮の目的でも利用が始まる.
合成・変換はDNNsの十八番
着こなし推薦とその説明
(Tangseng-Okatani WACV2020)
物体検出
• ただの画像認識から物体検出もできるように
Faster R-CNN, 2015
Semantic	Segmantation
U-Net, 2015
• 検出だけでなく, 物体ごとにMaskするsegmentation taskも高精度で可能に!
• 医療系への応用が進む.
Instance	Segmentation
Mask R-CNN, 2017
• 物体ごとにsegmentationしてくれるDNNも開発されて, robotics系への応
用も進む.
Transfer	Learning
• ImageNetなどのpre-trainingされた重みを用いて, Fine-Tuningを
行うことにより, 少ないデータセットでも高精度のモデル作り
が可能に!
自前データだけ Pre-train + fine-tuning
Deep	Learningは教養
• 機械学習エンジニアとしてやっていくとしたら, 簡単な画像認識ぐ
らいのDeep Learningの知識は教養みたいな世界になっている…
• そこで, 今回は世界を一変させた伝説的論文の簡単な解説と実際に
PyTrochによる実装を行います.
• PythonとNumpy使った事のある人なら実装見たら大体わかる(はず).
論文情報
• Title: ImageNet Classification with Deep Convolutional Neural Networks
• 発行年: 2012
• 著者: Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton.
• Deep Learningの火付け役となった, いわゆるAlexNetについての論文.
• 本日は, この伝説的論文の簡単な解説とPyTorchによる実装を行う.
目的
• 2012年当時の機械学習的なアプローチによる画像認識タスクは, 良い
性能を出すモデルを作るために, 自分たちで大きなデータセットを集
めることができた
• CIFAR10/100などの数万オーダーぐらいのデータセットはかなり良い
成績をおさめていたが, 1500万, 2.2万カテゴリーがある大規模なデー
タセット(ImageNet)を学習するためには, もっと大きなモデルを構築
する必要があった.
• しかし, 今までのSOTA手法(当時はSVMなど)では取り扱うことができ
ない…
目的
• そこで, Le-CunやHintonなどに代表されるCNNに注目した.
Ø CNNは層の数(depth)やユニット数(width)の数を変えることによ
り, 大規模なモデルを構築できる.
Ø CNNはFeed-forward NNと比べて, Connectionやパラメータ数を抑
えながら学習ができるので, 簡単に学習ができるから.
• また, CNN長年の課題であった計算コストも, GPUを使うことで解決
できる可能性があったから.
目的(主張したいこと)
• LSVRC-2012のtop5カテゴリーでエラー率15.3%を記録し, 2位(26.2%)
以下を大きく引き離し優勝したConvolution Neural Networkについて
の解説.
• モデルが”Deep”であることが重要であることを主張したい.
• 活性化関数にReLUを用いるのが, 計算面でベストである.
• 最近reguraization目的で開発したDropoutは結構効果的である.
• 今後は, メモリサイズが大きいGPUを開発することがこの分野の発
展につながることを主張.
Dataset
• 大会ルールに則り, ImageNetから1000カテゴリー からなるRGB画像130万
を取ってきて以下の様にデータを分割して学習する.
Ø Training data: 1.2 million
Ø Validation data: 50 thousand
Ø Test data : 150 thousand
• 224 x 224にdown-samplingして学習させた.
• 指標:
Ø モデルが予測するカテゴリーの中で正解データがTop1 or top5に入っ
てれば正解とする.
ReLU関数の有効性
• 他に今まで使われてきた活性化関数より学習が進むのが早い!
• 活性化関数にReLUとtanhを用いた時
にCIFAR-10を用いた実験.
• 学習時のエラー率が25%になるまで
エポックを回した時の比較
勾配消失が起こりにくいから
勾配の値のプロット
Model	Architecture
• 当時のGPUはメモリが小さかったから, 2つのGPUにそれ
ぞれモデルを分けて学習させていたからこんな感じの構
造になっている.
Model	Architecture
Image
Conv
11
+
ReLU
+
MaxP
ool2d
Conv
5
+
ReLU
+
MaxP
ool2d
Conv
3
+
ReLU
Conv
3
+
ReLU
Conv
3
+
ReLU
+
Max
Pool
2d
FC
+
ReLU
+
Drop
out
FC
+
ReLU
+
Drop
out
FC
+
ReLU
soft
max
224 x 224
Regulaization by	Dropout
• Hintonらによって発表されたNN専用の正則化手法.
Ø 現在でも使われている.
• 学習時にFC層に対して確率Pでノードを凍結させ, 学習させない
様にする. こうする事で, 過剰に学習することを防ごうというの
がモチベーション.
Srivastava, Hinton et al, Dropout: A Simple Way to Prevent Neural Networks from Overfitting, 2014
Result
• 2位以下を大きく引き離し圧勝(しゅごい…)!
考察とか
• 間違えている画像は, そもそも正解ラベルに対して画像が曖昧すぎる
“Deep”	is	important	for	Model
• 任意の中間層を抜くと, top-1に関する性能が2%落ちてしま
うという結果になった.
• 既存の理論を覆す結果に.
Disucussion &	まとめ
• 大規模でDeepなCNNが画像認識において極めて有効なことを示した.
• 活性化関数に関しては, ReLUが一番良い.
• Dropoutによる正則化は有効!
• もっと大規模なCNNが実現できるマシンパワーを獲得できるなら, モ
デルの精度はもっと伸びることが期待できる.
• Nvidia社による高性能なGPUの開発のきっかけにつながった!

More Related Content

What's hot (20)

PPTX
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
Norishige Fukushima
 
PDF
第 1 回 Jetson ユーザー勉強会
NVIDIA Japan
 
PDF
一般向けのDeep Learning
Preferred Networks
 
PPTX
全体セミナー20170629
Jiro Nishitoba
 
PDF
機械学習のマイクロサービスでの運用の実験について #mlops
Hiroaki Kudo
 
PDF
「世界モデル」と関連研究について
Masahiro Suzuki
 
PDF
【論文紹介】 Spatial Temporal Graph Convolutional Networks for Skeleton-Based Acti...
ddnpaa
 
PPTX
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
Deep Learning JP
 
PDF
いまさら聞けない!CUDA高速化入門
Fixstars Corporation
 
PPTX
MLflowで学ぶMLOpsことはじめ
Kenichi Sonoda
 
PDF
JDLA主催「CVPR2023技術報告会」発表資料
Morpho, Inc.
 
PPTX
システム制御とディープラーニング
Keio Robotics Association
 
PDF
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
SSII
 
PPTX
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
Deep Learning JP
 
PPTX
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transfo...
harmonylab
 
PPTX
自然言語処理
naoto moriyama
 
PDF
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
 
PPTX
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
PPTX
Ponanzaにおける強化学習とディープラーニングの応用
HEROZ-JAPAN
 
PDF
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
 
画像処理ライブラリ OpenCV で 出来ること・出来ないこと
Norishige Fukushima
 
第 1 回 Jetson ユーザー勉強会
NVIDIA Japan
 
一般向けのDeep Learning
Preferred Networks
 
全体セミナー20170629
Jiro Nishitoba
 
機械学習のマイクロサービスでの運用の実験について #mlops
Hiroaki Kudo
 
「世界モデル」と関連研究について
Masahiro Suzuki
 
【論文紹介】 Spatial Temporal Graph Convolutional Networks for Skeleton-Based Acti...
ddnpaa
 
【DL輪読会】Scale Efficiently: Insights from Pre-training and Fine-tuning Transfor...
Deep Learning JP
 
いまさら聞けない!CUDA高速化入門
Fixstars Corporation
 
MLflowで学ぶMLOpsことはじめ
Kenichi Sonoda
 
JDLA主催「CVPR2023技術報告会」発表資料
Morpho, Inc.
 
システム制御とディープラーニング
Keio Robotics Association
 
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
SSII
 
[DL輪読会]PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metr...
Deep Learning JP
 
SegFormer: Simple and Efficient Design for Semantic Segmentation with Transfo...
harmonylab
 
自然言語処理
naoto moriyama
 
DeepLearning 輪読会 第1章 はじめに
Deep Learning JP
 
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
 
Ponanzaにおける強化学習とディープラーニングの応用
HEROZ-JAPAN
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
 

Similar to 【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き) (20)

PPTX
Alex net-survey-
shunkimurakami
 
PPTX
ImageNet Classification with Deep Convolutional Neural Networks
Kouhei Nakajima
 
PPTX
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
 
PDF
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
 
PPTX
ae-4. ディープラーニングでの物体認識,画像分類
kunihikokaneko1
 
PDF
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Preferred Networks
 
PDF
(2022年3月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
PDF
(2021年8月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
PPTX
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
 
PDF
ハンズオン セッション 2: DIGITS による物体検出入門
NVIDIA Japan
 
PDF
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Kotaro Nakayama
 
PDF
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
 
PPTX
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
Tenki Lee
 
PDF
20160601画像電子学会
nlab_utokyo
 
PDF
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
Preferred Networks
 
PPTX
ゼロから深層学習を学ぶ方法 - CMS大阪夏祭り2017
Tomo Masuda
 
PDF
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
NVIDIA Japan
 
PPTX
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
PDF
DIGITSによるディープラーニング画像分類
NVIDIA Japan
 
PDF
深層学習入門
Danushka Bollegala
 
Alex net-survey-
shunkimurakami
 
ImageNet Classification with Deep Convolutional Neural Networks
Kouhei Nakajima
 
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
 
Tutorial-DeepLearning-PCSJ-IMPS2016
Takayoshi Yamashita
 
ae-4. ディープラーニングでの物体認識,画像分類
kunihikokaneko1
 
DAシンポジウム2019招待講演「深層学習モデルの高速なTraining/InferenceのためのHW/SW技術」 金子紘也hare
Preferred Networks
 
(2022年3月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
(2021年8月版)深層学習によるImage Classificaitonの発展
Takumi Ohkuma
 
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
 
ハンズオン セッション 2: DIGITS による物体検出入門
NVIDIA Japan
 
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Kotaro Nakayama
 
Deep learningの概要とドメインモデルの変遷
Taiga Nomi
 
CVPR2018 pix2pixHD論文紹介 (CV勉強会@関東)
Tenki Lee
 
20160601画像電子学会
nlab_utokyo
 
東北大学 先端技術の基礎と実践_深層学習による画像認識とデータの話_菊池悠太
Preferred Networks
 
ゼロから深層学習を学ぶ方法 - CMS大阪夏祭り2017
Tomo Masuda
 
エヌビディアが加速するディープラーニング~進化するニューラルネットワークとその開発方法について~
NVIDIA Japan
 
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
DIGITSによるディープラーニング画像分類
NVIDIA Japan
 
深層学習入門
Danushka Bollegala
 
Ad

【Deep Learning】AlexNetの解説&実装 by PyTorch (colabリンク付き)