SlideShare a Scribd company logo
ディープラーニングの
画像認識応用
山下 隆義
研究グループ紹介
Machine  Perception  and  Robotics  Group
2
2014年度 学科を超えた研究グループを発足
藤吉弘亘教授
山下隆義講師
山内悠嗣助手
教員3名 博士課程後期 3名
博士課程前期 2名
秘書1名 学部4年生 19名
学部3年生 20名
ロボット理工学科
ロボット理工学科
情報工学科
MPRGについて
Machine  Perception  and  Robotics  Group
3
http://mprg.jp
MPRGについて
Machine  Perception  and  Robotics  Group
4
機械知覚 ロボティクス
機械学習を利用した研究
Machine  Perception  and  Robotics  Group
5
機械知覚 ロボティクス
ディープラーニング,SVMなどの
機械学習による画像認識
内積演算のバイナリ処理化によるSVMの高速化
MPRGについて
Machine  Perception  and  Robotics  Group
6
機械知覚 ロボティクス
産業・生活支援ロボットのための
画像認識
ピッキングアイテムの認識 (Amazon  Picking  Challenge)
Amazon Picking Challenge 2016
7
機械学習を利用した研究
Machine  Perception  and  Robotics  Group
8
機械知覚 ロボティクス
産業・生活支援ロボットのための
画像認識
Weighted  Hough  Forestによる把持判定・追加学習
ディープラーニングの現在(1)
画像認識のベンチマークでトップ
Convolution
Pooling
Softmax
Other
GoogLeNet(2014)
ImageNet  Large  Scale  Visual  Recognition  Challenge  (ILSVRC)
9
Team year Error	
  (top-­‐5)
SuperVision 2012 15.3%
Clarifai 2013 11.2%
VGG – Oxford	
  (16 layers) 2014 7.32%
GoogLeNet	
  (19	
  layers) 2014 6.67%
Residual	
  Net. 2015 3.57%
human  expert 5.1%
Residual  Net(2015)
ディープラーニングの現在(2)
画像から文章を生成
http://googleresearch.blogspot.jp/2014/11/a-­picture-­is-­worth-­thousand-­coherent.html
10
ディープラーニングの現在(3)
11
http://arxiv.org/pdf/1511.02793v2.pdf
文章から画像を生成
ディープラーニングの現在(4)
写真をゴッホ風に変換
ディープラーニングの現在(5)
白黒映像をカラー映像へ
http://hi.cs.waseda.ac.jp:8082
ディープラーニング現在(6)
14
Learning  a  Deep  Convolutional  Network  for  Image  Super-­Resolution,  in  Proceedings  of  
European  Conference  on  Computer  Vision  (ECCV),  2014
超解像
ディープラーニングの現在(7)
Deep  Convolutional  Generative  Adversarial  Network(DCGAN)
入力画像例 10分後 半日後
ノイズのような画像から顔画像を自動的に生成
ディープラーニングの現在(8)
Deep  Q-­ Network
16
V.  Mnih  et  al.,  "Playing  atari  with  deep  reinforcement  learning
ディープラーニングの現在(9)
17https://www.youtube.com/watch?v=JHHlo7b0UoE
自動運転
ディープラーニングの現在(10)
ロボット制御の学習
ディープラーニングの現在(11)
19
画像から音を推定
Visually Indicated Sounds, 2016
画像分野でのディープラーニング
全てのルーツは
福島邦彦、位置ずれに影響されないパターン認識機構の神経回路のモデル -­-­-­ ネオコグニトロン -­-­-­電子通信学会論文誌A,  vol.  J62-­A,  
no.  10,  pp.  658-­665,1979.
Y.  LeCun,  et.al.  “Gradient-­based  Learning  Applied  to  Document  Recognition”,  Proc.  of  The  IEEE,    1998.
ネオコグニトロン
畳み込みニューラルネットワーク
20
畳み込みニューラルネットワーク
初期の研究(今も同じ)
畳み込み、サブサンプリング、全結合の層から構成
手書き文字認識に応用
Y.  LeCun,  et.al.  “Gradient-­based  Learning  Applied  to  Document  Recognition”,  Proc.  of  The  IEEE,    1998.
畳み込み層(1)
カーネルをスライドさせて画像に畳み込む
近接の画素とのみ結合する(局所受容野)
Convolution
Response
f
Input  image Feature  map10x10 kernel 3x3 8x8
Activation  
function
Convolutions
畳み込み層(1)
カーネルをスライドさせて画像に畳み込む
近接の画素とのみ結合する(局所受容野)
Convolution
Response
f
Input  image Feature  map10x10 kernel 3x3 8x8
Activation  
function
Convolutions
畳み込み層(1)
カーネルをスライドさせて画像に畳み込む
近接の画素とのみ結合する(局所受容野)
Convolution
Response
f
Input  image Feature  map10x10 kernel 3x3 8x8
Activation  
function
Convolutions
畳み込み層(2)
画像全体にフィルタを畳み込む
-­1  0  1
-­2  0  2
-­1  0  1  
例えば
ソーベルフィルタ Convolution Layerのフィルタは,
学習により獲得
畳み込み層(3)
カーネルをスライドさせて画像に畳み込む
近接の画素とのみ結合する(局所受容野)
カーネルは複数でも良い
Activation  
functionInput  image Feature  map10x10 8x8
Convolution
Response
kernel 3x3
f
f
f
Convolutions
畳み込み層(4)
入力が複数チャンネル(カラー画像など)の場合
*
各チャンネルにフィルタを畳み込む
Red
Green
Blue
活性化関数
シグモイド関数 Rectified  Linear  Unit(ReLU) Leaky  ReLU
古くから使われている
サチると勾配が消滅
画像認識でよく使われる
学習が速く、勾配がサチる
ことがない
f (xi ) = max(xj,0)f (xi ) =
1
1+e
−xj
Convolutions
f(x) = max(↵x, x) (0 < ↵ < 1)
f(xi) = max(↵xi, xi)
ReLUを改良した活性化関
数
負の値を出力
プーリング層
Feature mapのサイズを縮小させる
Max	
  pooling
2x2の領域
での最大値
Average	
  pooling
2x2の領域
での平均値
Sampling
89 56 65 18 24 9
121 77 43 22 32 18
181 56 42 35 45 19
210 166 101 67 79 56
121 65 32
210 101 79
89 56 65 18 24 9
121 77 43 22 32 18
181 56 42 35 45 19
210 166 101 67 79 56
86 37 21
153 61 50
全結合層
x1
x2
x3
xi
h1
h2
hj
各ノードとの結合重み
例えば、、
は
を算出し、 activation  functionに与えて値を得る
全結合型の構成
hj = f (WT
x + bj )
Full  
connection
w11
w12
w21
w1j
w22w31
w32
w3 j
wij
wi2
wi1
出力層
Softmaxを利用するのが一般的
P(y1)
P(y2)
P(yM)
各クラスの確率を算出して、
最大値を認識クラスとする
出力ノード数=認識するクラス数
x1
x2
x3
xi
h1
h2
hM
前層
出力層
classification
各クラスの確率
P(yi
) =
exp(hi )
exp(hj )
j=1
M
∑
確率的勾配降下法
順伝播と逆伝播による更新を繰り返し行い,良いパラ
メータ群を得る
Input:
画像:x
ラベル:y
学習セット:
(I1,y1),…,  (xn,yn)
順伝搬
現パラメータ群により各学習データの認識を行う
逆伝搬
認識結果(誤差)をもとに,パラメータ群を更新する
Convolution
Full  connection
Classification
ディープラーニング手法の変遷
物体認識ベンチマークを通じて,より深い構造へ
1998年
2012年
2014年
2015年
AlexNet
LeNet
GoogLeNet
ResNet
33
物体認識
http://image-­net.org
ImageNetのデータセットを利用して1000クラスの物体認識を行う
ImageNet  Large  Scale  Visual  Recognition  Challenge  (ILSVRC)
34
ディープラーニングによる物体認識
AlexNet
ILSVRC2012で優勝 8層(畳み込み5層,全結合3層)の構造
Team year Error	
  (top-­‐5)
SuperVision(AlexNet) 2012 15.3%
1層目のフィルタ
A.  Krizhevsky,  ImageNet  Classification  with  Deep  Convolutional  Neural  Networks,  NIPS2012 35
ディープラーニングによる物体認識
Team year Error	
  (top-­‐5)
SuperVision 2012 15.3%
Clarifai 2013 11.2%
VGG – Oxford	
  (16 layers) 2014 7.32%
3x3のフィルタを2層積層すると
5x5のフィルタと等価になる
AlexNetとほぼ等価の構成
VGG16
ILSVRC2014で2位 16層と深い構造
K. Simonyan,  Very Deep Convolutional Networks for Large-Scale Image Recognition, ICLR2015 36
ディープラーニングによる物体認識
Convolution
Pooling
Softmax
Other
Inception  module
Team year Error	
  (top-­‐5)
SuperVision 2012 15.3%
Clarifai 2013 11.2%
VGG – Oxford	
  (16 layers) 2014 7.32%
GoogLeNet (22layers) 2014 6.67%
3x3  
convolutions
5x5  
convolutions
Filter  
concatenation
Previous  layer
3x3  max  
pooling
1x1  
convolutions
1x1  
convolutions
1x1  
convolutions
1x1  
convolutions
C. Szegedy, Going Deeper with Convolutions, CVPR2015
GoogLeNet
Inception  モジュールを9つ積層
途中の層の誤差を求め,下位層まで誤差を伝播
37
ディープラーニングによる物体認識
Team year Error	
  (top-­‐5)
SuperVision 2012 15.3%
Clarifai 2013 11.2%
VGG – Oxford	
  (16 layers) 2014 7.32%
GoogLeNet (22layers) 2014 6.67%
Residual	
  Net. 2015 3.57%
human  expert 5.1%
K. He, Deep Residual Learning for Image Recognition, CVPR2016
Residual  Network
特定層への入力をバイパスして上位層へ与える
逆伝播時に誤差を下位層に直接与えることができる
38
ディープラーニングによる物体認識
http://research.microsoft.com/en-­us/um/people/kahe/ilsvrc15/ilsvrc2015_deep_residual_learning_kaiminghe.pdf
39
標識認識
German  Traffic  Sign  Recognition  Benchmarkで人を上回る性能
Multi-Column Deep Neural Network for Traffic Sign Classification,IJCNN2011
METHODS ACCURACY
Multi-­Column Deep Neural Network 99.46%
Human  Performance 98.84%
Multi-­Scale  CNN 98.31%
Random  Forest 96.14%
LDA  on  HOG 95.68%
0.71
0.17
0.03
0.09
0.89
0.03
0.01
0.07
0.85
0.09
0.02
0.04
複数のCNNを利用して精度向上
学習の手間:大
メモリサイズ:大
処理時間:大
40
標識認識
一つのネットワークを仮想的に複数のネットワークにする
Ensemble  Median  Inference  
Fukui, Pedestrian Detection Based on Deep Convolutional Neural Network with Ensemble Inference Network, IV2015
METHODS ACCURACY
Multi-­Column Deep Neural Network 99.46%
Human  Performance 98.84%
Multi-­Scale  CNN 98.31%
Random  Forest 96.14%
LDA  on  HOG 95.68%
0.71
0.17
0.03
0.09
41
標識認識
METHODS ACCURACY
Random  Droput+Dn’MI 99.22%
Multi-­Column Deep Neural Network 99.46%
Human  Performance 98.84%
Multi-­Scale  CNN 98.31%
Random  Forest 96.14%
LDA  on  HOG 95.68%
0.89
0.03
0.01
0.07
0.71
0.17
0.03
0.09
0.85
0.09
0.02
0.04
複数ネットワーク利用時と同等性能
学習の手間:小
メモリサイズ:小
処理時間:中
一つのネットワークを仮想的に複数のネットワークにする
Ensemble  Median  Inference  
STEP1:全結合層のネットワークを複数生成
STEP2:各クラスの確率を累積する
Fukui, Pedestrian Detection Based on Deep Convolutional Neural Network with Ensemble Inference Network, IV2015 42
標識認識
人の目でも分かりにくい標識でも認識可能
Dropout Random Dropout + EIN
0 20 40 60 80 100
0 20 40 60 80 100
0 20 40 60 80 100
0 20 40 60 80 100
0 20 40 60 80 100
0 20 40 60 80 100
0 20 40 60 80 100
0 20 40 60 80 100
Input imageFukui, Pedestrian Detection Based on Deep Convolutional Neural Network with Ensemble Inference Network, IV2015 43
CNNの課題
物体検出への応用の難しさ
http://image-net.org/challenges/LSVRC/2014/slides/ILSVRC2014_09_12_14_det.pdf
与えられた領域の名称を認識することは得意
問題:どのように物体の領域(=位置)を与えるか?
CNNだけでは物体らしい領域を抽出ことは困難
物体検出とは?
画像中の物体の名称と位置
を特定する
44
物体検出への応用方法
2段階の検出構造
• 前段:物体領域候補を検出
• 後段:検出した物体領域候補から最終的な物体の領域を検出
入力画像 前段処理 後段処理
45
前段の検出手法
Aggregate  Channel  Features  (ACF)
・入力画像からチャンネル特徴量を生成(LUV,  勾配強度,勾配ヒストグラム)
・生成したチャンネル特徴量から特徴ピラミッドを作成
・Boosted  treeによりチャンネル特徴量から歩行者検出に有効な
特徴量を選択
46
後段の検出処理
前段処理
0.97
0.03
2段階の検出構造
• 前段:物体領域候補を検出
• 後段:検出した物体領域候補から最終的な物体の領域を検出
47
10
-3
10
-2
10
-1
10
0
10
1
.05
.10
.20
.30
.40
.50
.64
.80
1
false positives per image
missrate
30% ACF-Caltech+
16% ACF-Caltech+ -AlexNet
ディープラーニングを利用した歩行者検出
Caltech  Pedestrian  Detection  Benchmarkにおける性能
48Fukui, 2016
歩行者検出結果例
Fukui, 2016 49
歩行者検出結果例
Fukui, 2016 50
S. Zhang , How Far are We from Solving Pedestrian Detection?, CVPR2016
ディープラーニングを利用した歩行者検出
人と機械学習手法との比較
51
一般物体検出
• Selective  Searchにより物体候補を検出
• CNNで抽出した特徴量をSVMでクラス識別
R−CNN
4つのステップから構成
1)局所領域の切り出し
2)領域の変形
3)CNNによる特徴抽出
4)SVMによる識別
R.  Girshick,  Rich  feature  hierarchies  for  accurate  object  detection  and  semantic  segmentation,  
CVPR2014
R-CNNの課題
処理時間がかかる
• 1画像あたり:47秒 (VGGネットを使用時)
学習・検出プロセスが複雑
• 処理ごとに個別の学習とデータの準備が必要
特徴抽出
(CNN)
特徴抽出
(CNN)
特徴抽出
(CNN)
物体識別
(SVM)
物体識別(  
SVM)
物体識別
(SVM)
入力画像
領域切り出し
領域変形
背景
人
馬
領域ごとに実行
座標補正 (  
回帰)
座標補正 (
回帰)
R.  Girshick,  Rich  feature  hierarchies  for  accurate  object  detection  and  semantic  segmentation,  
CVPR2014
Fast R-CNN
特徴抽出処理をまとめて行うことで高速化
• R-CNNと比べて10-100倍高速
学習・検出プロセスをシンプルに
• 領域切り出しの処理をCNNの構成で行う(SVMなし)
特徴抽出
(CNN)
特徴座標 識別層・回帰層
(CNN)
入力画像
領域切り出し
領域変形
物体:背景
座標情報
(-­1,-­1,-­1,-­1)
物体:人
座標情報
(10,3,40,100)
物体:馬
座標情報
(5,100,80,20)
領域ごとに実行
識別層・回帰層
(CNN)
識別層・回帰層
(CNN)
R.  Girshick,,  Fast  RCNN,  ICCV2015
Fast R-CNN
特徴抽出処理をまとめて行うことで高速化
• R-CNNと比べて10-100倍高速
学習・検出プロセスをシンプルに
• 領域切り出しの処理をCNNの構成で行う(SVMなし)
特徴抽出
(CNN)
特徴座標 識別層・回帰層
(CNN)
入力画像
領域切り出し
領域変形
物体:背景
座標情報
(-­1,-­1,-­1,-­1)
物体:人
座標情報
(10,3,40,100)
物体:馬
座標情報
(5,100,80,20)
領域ごとに実行
識別層・回帰層
(CNN)
識別層・回帰層
(CNN)Selective  Searchによる切り出し
=>この処理が時間かかる
R.  Girshick,,  Fast  RCNN,  ICCV2015
Faster R-CNN
領域切り出しもCNNで行うことでさらなる高速化
• R-CNNと比べて10-100倍高速
学習・検出プロセスをさらにシンプルに
• すべてをCNNで行う
特徴抽出
(CNN)
検出層
(全結合)
入力画像
回帰層
(全結合)
識別層
(Fast R-­CNN)
Region  Proposal  
Network
S. Ren,, Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, NIPS2015
Region Proposal Network(RPN)
特徴抽出
(CNN)
入力画像
CNNで抽出した特徴マップ上の各注目点について
検出:k個のアンカーに対する物体か否か
回帰:k個のアンカーに対する座標
を行う 形状は1:1,1:2,2:1の3種類
大きさは128,  256,  512の3スケール
アンカー=注目領域の形状と
大きさのパターン
S. Ren,, Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, NIPS2015
Faster R-CNNによる物体検出例
S. Ren,, Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks, NIPS2015
Faster R-CNNによる物体検出の速度
• 特徴マップ作成をVGGで行った場合,selective  searchの
場合よりも約10倍高速化
• ZFを特徴マップ作成に利用するとさらに3倍高速化
59
YOLO
GPU上でリアルタイムでの一般物体検出(22ms)
画像全体をCNNに入力
グリッドごとに物体らしさと矩形を算出
各グリッドがどの物体クラスかを判定
NMSでグリッドを選択し,物体矩形として出力
You  Only  Look  Once:  Unified,  Real-­Time  Object  Detection,  CVPR2016
YOLOの処理の流れ
入力画像 各グリットでの矩形と
物体クラスを算出
CNN
矩形算出結果
各グリッドの代表クラスを算出 各グリッドの代表矩形を選択
NMSで出力矩形を選択
You  Only  Look  Once:  Unified,  Real-­Time  Object  Detection,  CVPR2016
YOLOの出力内容
各グリッドは,
• 矩形(x,y,幅,高さ)
• 物体らしさ
をクラスの数だけ出力する
各グリッドは,
複数の矩形を出力することも可能
Pascal  VOCの場合
グリッド数:7x7
矩形数:2
クラ数数:20
出力ユニット数:1470    (7  x  7  x  (2  x  5  +  20)  =  7  x  7  x  30  tensor)
You  Only  Look  Once:  Unified,  Real-­Time  Object  Detection,  CVPR2016
YOLOによる検出結果例
63
You Only Look Once: Unified, Real-Time Object Detection, 2016
YOLOの精度
Pascal 2007 mAP Speed
DPM v5 33.7 .07 FPS 14 s/img
R-CNN 66.0 .05 FPS 20 s/img
Fast R-CNN 70.0 .5 FPS 2 s/img
Faster R-CNN 73.2 7 FPS 140 ms/img
YOLO 63.4 69.0 45 FPS 22 ms/img
You  Only  Look  Once:  Unified,  Real-­Time  Object  Detection,  CVPR2016
SSD
複数の特徴マップから物体らしさと矩形を出力
小さな物体から大きな物体まで検出できる
SSD:  Single  Shot  MultiBox Detector,  ECCV2016
ディープラーニングベース手法の比較
SSD:  Single  Shot  MultiBox Detector,  ECCV2016
SSDによる検出結果例
コンピュータビジョンで目指す姿
これは,人手でアノテーションをしているが...
68
シーンラベリング
69
V. Badrinarayanan,  SegNet: A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labelling, 2015
シーンラベリング手法
Fully  Convolutional  Neural  Network
プーリング層後の特徴マップを拡大し,結合
70J. Long, Fully Convolutional Networks for Semantic Segmentation, CVPR2015
SegNet
エンコーダ・デコーダの構成
Max Poolingを行う時に位置情報を記憶
最大値&圧縮前の位置情報を参照
データがない座標には「0」を補完
71
V. Badrinarayanan,  SegNet: A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labelling, 2015
Cityscapes
車載用セグメンテーションのデータセット
→  既存のセグメンテーションデータセット(CamVid)より,大規模
Dataset  URL  :  https://www.cityscapes-­dataset.com/
50都市で撮影
30クラスのラベリング
評価には19クラスを利用
(頻出頻度の低いクラスは対象外)
The  Cityscapes  Dataset  for  Semantic  Urban  Scene  Understanding
72M. Cordts, The Cityscapes Dataset for Semantic Urban Scene Understanding, CVPR2016
シーンラベリング
[Yamashita, 2016] 73
シーンラベリング
74[Yamashita, 2016]
ヘテロジニアスラーニング(1)
ディープラーニングのメリット
複数の異なる情報を同時に学習・認識できる
年齢と性別の同時推定
Convolution Layer Fully Connection Layer
Male  or  Female
input  samples
Age
75Heterogeneous Learningと重み付き誤差関数の導入による顔画像解析, 2015
ヘテロジニアスラーニング(2)
出力情報の種類を増やすことが可能
Convolution Layer Fully Connection Layer
Male  or  Female
input  samples
Age
Race
Smile  degree
76
ディープラーニングのメリット
複数の異なる情報を同時に学習・認識できる
Heterogeneous Learningと重み付き誤差関数の導入による顔画像解析, 2015
ヘテロジニアスラーニング(3)
77Heterogeneous Learningと重み付き誤差関数の導入による顔画像解析, 2015
ヘテロジニアスラーニング(4)
ヘテロジニアスラーニングによる歩行者検出と部位推定
1
0.0001 0.001 0.01 0.1 1 10
MissRate
False Positive per Image
回帰型DCNN 31.77%
単体のDCNN 38.38%  
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
Daimler	
  Mono-­‐Pedestrian	
  Benchmark	
  Dataset
の評価結果
距離[m] 距離推定結果[m] 誤差[%]
5 4.89 2.2
10 9.26 5.3
15 14.12 5.8
回帰型Deep Convolutional Neural Networkによる人検出と部位の位置推定, 2015 78
ヘテロジニアスラーニング(5)
歩行者の属性推定
Task.2
身体の向き推定
Task.3
顔の向き推定
Task.4
性別認識
Task.5
傘の所持認識
Task.1
歩行者部位位置推定
全結合層
傘をさしているか
男性 女性
: 歩行者部位検出
( 頭と両足 )
身体の向き
( 前 , 後 , 左 , 右 )
顔の向き
( 前 , 後 , 左 , 右 )
識別するタスク
Pedestrian Attribute Recognition for an Unbalanced Dataset Using Mini-Batch
Training with Rarity Rate, 2016
79
ディープラーニングのフレームワーク
80
ディープラーニングのフレームワーク
81
@fcholletのTwitterより
まとめ
画像認識分野におけるディープラーニング
畳み込みニューラルネットワークとその変遷
一般物体検出
シーンラベリングへの応用
ヘテロジニアスラーニング
質問などは yamashita@cs.chubu.ac.jp へ
@takayosiy 山下隆義
83
畳み込み層(1)
カーネルをスライドさせて画像に畳み込む
近接の画素とのみ結合する(局所受容野)
Convolution
Response
f
Input  image Feature  map10x10 kernel 3x3 8x8
Activation  
function
Convolutions
プーリング層
Feature mapのサイズを縮小させる
Max	
  pooling
2x2の領域
での最大値
Average	
  pooling
2x2の領域
での平均値
Lp pooling
f (xi ) = ( I(i, j)p
*G(i, j))
1
p
i=1
m
∑
j=1
n
∑
Sampling
ピークをより強調

More Related Content

What's hot (20)

PDF
20190804_icml_kyoto
Takayoshi Yamashita
 
PPTX
Cvim saisentan-6-4-tomoaki
tomoaki0705
 
PDF
GTC 2016 ディープラーニング最新情報
NVIDIA Japan
 
PPTX
深層学習 第4章 大規模深層学習の実現技術
孝昌 田中
 
PDF
MIRU_Preview_JSAI2019
Takayoshi Yamashita
 
PPTX
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
PDF
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
 
PDF
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
PPT
Deep Learningの技術と未来
Seiya Tokui
 
PDF
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
nlab_utokyo
 
PPTX
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
Takashi Abe
 
PDF
MIRU2018 tutorial
Takayoshi Yamashita
 
PDF
深層学習入門
Danushka Bollegala
 
PDF
Convolutional Neural Network @ CV勉強会関東
Hokuto Kagaya
 
PDF
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
tm_2648
 
PDF
Introduction to Deep Compression
WEBFARMER. ltd.
 
PDF
LSTM (Long short-term memory) 概要
Kenji Urai
 
PDF
【2017.04】cvpaper.challenge 2017
cvpaper. challenge
 
PPTX
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
Ryosuke Okuta
 
PDF
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Takayoshi Yamashita
 
20190804_icml_kyoto
Takayoshi Yamashita
 
Cvim saisentan-6-4-tomoaki
tomoaki0705
 
GTC 2016 ディープラーニング最新情報
NVIDIA Japan
 
深層学習 第4章 大規模深層学習の実現技術
孝昌 田中
 
MIRU_Preview_JSAI2019
Takayoshi Yamashita
 
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
「ゼロから作るDeep learning」の畳み込みニューラルネットワークのハードウェア化
marsee101
 
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
Deep Learningの技術と未来
Seiya Tokui
 
Deep Learningによる画像認識革命 ー歴史・最新理論から実践応用までー
nlab_utokyo
 
多層NNの教師なし学習 コンピュータビジョン勉強会@関東 2014/5/26
Takashi Abe
 
MIRU2018 tutorial
Takayoshi Yamashita
 
深層学習入門
Danushka Bollegala
 
Convolutional Neural Network @ CV勉強会関東
Hokuto Kagaya
 
畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり
tm_2648
 
Introduction to Deep Compression
WEBFARMER. ltd.
 
LSTM (Long short-term memory) 概要
Kenji Urai
 
【2017.04】cvpaper.challenge 2017
cvpaper. challenge
 
DLフレームワークChainerの紹介と分散深層強化学習によるロボット制御
Ryosuke Okuta
 
NVIDIA Seminar ディープラーニングによる画像認識と応用事例
Takayoshi Yamashita
 

Viewers also liked (9)

PPTX
Microsoft Ignite! AI ソリューションアップデート
Hirono Jumpei
 
PDF
ChainerMNが即座に使える環境を提供するXTREME DNA HPC Cloud
Hirono Jumpei
 
PDF
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
Microsoft Azure Japan
 
PPTX
DLL Community Update 10月版
Hirono Jumpei
 
PDF
一般社団法人 日本ディープラーニング協会の取り組み
Hirono Jumpei
 
PPTX
[Ridge-i] Deep Learning Lab - ディープラーニング 導入の課題と実例
Ridge-i
 
PDF
最近のSingle Shot系の物体検出のアーキテクチャまとめ
Yusuke Uchida
 
PDF
20171024 DLLab#04_PFN_Hiroshi Maruyama
Preferred Networks
 
PDF
Scikit learnで学ぶ機械学習入門
Takami Sato
 
Microsoft Ignite! AI ソリューションアップデート
Hirono Jumpei
 
ChainerMNが即座に使える環境を提供するXTREME DNA HPC Cloud
Hirono Jumpei
 
S07 Azure バックアップを利用したオンプレミス Windows Server のバックアップ
Microsoft Azure Japan
 
DLL Community Update 10月版
Hirono Jumpei
 
一般社団法人 日本ディープラーニング協会の取り組み
Hirono Jumpei
 
[Ridge-i] Deep Learning Lab - ディープラーニング 導入の課題と実例
Ridge-i
 
最近のSingle Shot系の物体検出のアーキテクチャまとめ
Yusuke Uchida
 
20171024 DLLab#04_PFN_Hiroshi Maruyama
Preferred Networks
 
Scikit learnで学ぶ機械学習入門
Takami Sato
 
Ad

Similar to Tutorial-DeepLearning-PCSJ-IMPS2016 (20)

PDF
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
RCCSRENKEI
 
PDF
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
 
PDF
Semantic segmentation
Takuya Minagawa
 
PDF
ConditionalPointDiffusion.pdf
Takuya Minagawa
 
PDF
Pythonで体験する深層学習 5章
孝好 飯塚
 
PDF
これから始める人のためのディープラーニング基礎講座
NVIDIA Japan
 
PPTX
低価格・高信頼見守りシステム(MIMAMORIシステム)のためのハードウェア開発
Nara Institute of Science and Technology
 
PDF
object detection with lidar-camera fusion: survey
Takuya Minagawa
 
PPTX
深層学習①
ssuser60e2a31
 
PDF
GTC 2016 ディープラーニング最新情報
NVIDIA Japan
 
PDF
bigdata2012ml okanohara
Preferred Networks
 
PPTX
Icml2019 kyoto ohno_ver20190805
Shuntaro Ohno
 
PDF
SBRA2018講演資料
Hiroki Nakahara
 
PPTX
LUT-Network Revision2
ryuz88
 
PDF
DSF2018講演スライド
Hiroki Nakahara
 
PPTX
深層学習入門 スライド
swamp Sawa
 
PPTX
ae-3. ディープラーニングの基礎
kunihikokaneko1
 
PDF
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
 
PPTX
ae-4. ディープラーニングでの物体認識,画像分類
kunihikokaneko1
 
PDF
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
NVIDIA Japan
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
RCCSRENKEI
 
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
 
Semantic segmentation
Takuya Minagawa
 
ConditionalPointDiffusion.pdf
Takuya Minagawa
 
Pythonで体験する深層学習 5章
孝好 飯塚
 
これから始める人のためのディープラーニング基礎講座
NVIDIA Japan
 
低価格・高信頼見守りシステム(MIMAMORIシステム)のためのハードウェア開発
Nara Institute of Science and Technology
 
object detection with lidar-camera fusion: survey
Takuya Minagawa
 
深層学習①
ssuser60e2a31
 
GTC 2016 ディープラーニング最新情報
NVIDIA Japan
 
bigdata2012ml okanohara
Preferred Networks
 
Icml2019 kyoto ohno_ver20190805
Shuntaro Ohno
 
SBRA2018講演資料
Hiroki Nakahara
 
LUT-Network Revision2
ryuz88
 
DSF2018講演スライド
Hiroki Nakahara
 
深層学習入門 スライド
swamp Sawa
 
ae-3. ディープラーニングの基礎
kunihikokaneko1
 
深層学習フレームワーク Chainer の開発と今後の展開
Seiya Tokui
 
ae-4. ディープラーニングでの物体認識,画像分類
kunihikokaneko1
 
ハンズオン セッション 3: リカレント ニューラル ネットワーク入門
NVIDIA Japan
 
Ad

Tutorial-DeepLearning-PCSJ-IMPS2016