SlideShare a Scribd company logo
単語埋込みモデルによる
意味論,統語論,隠喩,暗喩の計算(仮)
浅川伸一 Shin Asakawa <asakawa@ieee.org>
2
謝辞
発表の機会を与えてくださいました京都大
学楠見孝先生に感謝申し上げます。
3
自己紹介
浅川伸一 東京女子大学 情報処理センター勤務。早稲田大
学在学時はピアジェの発生論的認識論に心酔する。卒業後
エルマンネットの考案者ジェフ・エルマンに師事,薫陶を受け
る。以来人間の高次認知機能をシミュレートすることを目指
している。知的情報処理機械を作ることを通して知的情報処
理とは何かを考えたいと思っている。著書に「 Python で実践する深層学
習」( 2016) コロナ社 . 「ディープラーニング,ビッグデータ,機械学習 --- あるいはその心理学」
(2015) 新曜社。「ニューラルネットワークの数理的基礎」「脳損傷とニューラルネットワークモデ
ル,神経心理学への適用例」いずれも守一雄他編 コネクショニストモデルと心理学(2001) 北
大路書房などがある
4
師匠ジェフ・エルマンとUCSDキャンパス内 2002年ころ
5
←2016年
2015年→
6
表記と基本グラフ
h
y
x
y: 出力層ニューロン
h: 中間層ニューロン
x: 入力層ニューロン
7
h
y
x
再帰結合(recurrent connections)
8
h
y
x
Wx
Wy
Wh
Wy:結合係数行列(中間から出力)
Wh:結合係数行列(再帰結合)
Wx:結合係数行列(入力から中間)
9
h
y
x
Wx+bx
Wy+by
Wh+bh
by:バイアス(中間から出力)
bh:バイアス(再帰結合)
bx:バイアス(入力から中間)
Bias terms will be omitted, henceforth
以降バイアス項は省略します
10
h0
y0
x0
h1
y1
x1
Digits subscripted indicate time
t:= 0...
下付き添字は時刻を表す。
カッコで表記する流儀もある
(e.g. x(t))
11
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
12
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
13
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
14
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
15
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
teacher
16
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
17
Full BPTT
h0
y0
x0
h1
y1
x1
h1
y1
x1
h2
y2
x2
h3
y3
x3
h4
y4
x4
h4
y4
x4
h5
y5
x5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
18
Trancated BPTT(window width=5)
ht+0
yt+0
xt+0
h1
y1
x1
ht+1
yt+1
xt+1
ht+2
yt+2
xt+2
ht+3
yt+3
xt+3
h4
y4
x4
ht+4
yt+4
xt+4
ht+5
yt+5
xt+5
teacher
error
Loss(t,y)
Wh Wh Wh Wh Wh
19
LSTM
改良可能?
Can we improve?
ゲートの導入 introducing gates to control hidden state
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
ゲートの導入 introducing gates to control hidden state
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
でも,
なぜゲート?
Why gates?
忘却ゲートの導入
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
Who can control
gates?
誰がどうやって
ゲート制御?
忘却ゲートの導入
ht-1
yt-1
xt-1
h1
y1
x1
ht
yt
xt
gate
Who can control
gates?
誰がどうやって
ゲート制御?
Who can tell me
how can I
control myself?
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
It’s me
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
Me, too
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
2. yt
I can, too
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
who can control gates?
誰がどうやって
ゲートを制御?
3つ候補
1. ht
2. yt
3. xt+1
忘却ゲートの導入
ht
yt
xt
h1
y1
x1
ht+1
yt+1
xt+1
gate
ゲート制御
1. ht
2. yt
3. xt+1
ht+1 = ht s(x)
● s(x) = (1+e-x
)-1
● x = Wf (yt + ht + xt+1)
ゲートによって長距離依存LTDを解消可能
もっと改良可能?
Can we improve more?
入力ゲートの導入
ht
yt
xt
ht+1
yt+1
xt+1
gate
gate
ht+1 = ht s(w(ht + xt+1))
● s(x) = (1+e-x
)-1
● x = yt + ht + xt+1
もっともっと可能?
You need more?
出力ゲートの導入
ht
yt
xt
ht+1
yt+1
xt+1
gate
gate
gate
ht+1 = ht s(w(ht + xt+1 + yt+1))
● s(x) = (1+e-x
)-1
● x = yt + ht + xt+1
LSTM
LSTM の生理学的対応物
How does LSTM work?
1. LSTM replaces logistic or tanh hidden units with “memory cells” that
can store an analog value.
2. Each memory cell has its own input and output gates that control.
3. There is a forget gate which the analog value stored in the memory ce
decays.
4. For periods when the input and output gates are off and the forget gate is
not causing decay, a memory cell simply holds its value over time.
Le, Jaitly, & Hinton (2015)
別モデル GRU An alternative of the LSTM
h
~h
x
y
r: reset
gate
input
output
uupdate
gate
ut
= s (Wu
+ uu
)
ht
= f(Wh
+ uh
(ut
@ )
rt
= s (Wr
+ ur
ht-1
)
tilde(h) = (1- rt
) ht
+ rt
tilde(ht-1
)
yt
= Wy
tilde(ht
)
別モデル GRU An alternative of the LSTM
h
~h
x
y
r: reset
gate
input
output
uupdate
gate
ut = σ (Wuxt + Uuht−1) .
ht = ϕ (Wxt + Uh (ut ⊙ht−1)) ,
rt = σ (Wr xt + Urht−1) ,
˜ht = (1 − rt) ht + rt
˜ht−1,
yt = Wy
˜ht
双方向RNN (Bidirectional RNN)
前行
ステート
逆行
ステート
yt-1
xt-1
yt
xt
yt+1
xt+1
グレーブス (Graves, 2013)の生成 LSTM
出力
中
間
層
入力
深層 LSTM Depth Gated LSTM
ht− 1
( a ) 直 前 ( b ) 生 成 ( c ) 再 帰 ( d ) 推 論 ( e ) 全関与
ht
zt
xt
ht− 1 ht
zt
xt
ht− 1 ht
zt
xt
ht− 1 ht
zt
xt
ht− 1 ht
zt
xt
図 4.31 種々の LSTM 変種
Pascanu (2014) より
y( t )
h( t )h( t − 1)
x( t )
y( t )
h( t )h( t − 1)
x( t )
y( t )
h( t )h( t − 1)
x( t )
( a ) ( b ) ( c )
y( t )
h( t )h( t − 1)
x( t )
y( t )
h( t − 1)
x( t ) z( t )
z( t )h( t )
( d ) ( e )
図 4.27 パスカヌらの文献 108) の図 2 を改変
Pascanu (2014)より
I * xi
m
h
m ′1h ′1
m ′2
h ′2
m 1h1
m 2
h2
m ′
h ′
h ′
2 次元格子状 LSTM
ブロック
標準の LSTM
ブロック
1 次元格子状 LSTM
ブロック
3 次元格子状 LSTM
ブロック
Pascanu (2014) より
出力層
入力層
隠れ層
T1 T2 Tg
図 4.33 時 計 状 LSTM
47
Actor is Schmithuber who proposed LSTM
https://www.youtube.com/watch?v=-OodHtJ1saY

More Related Content

PDF
機械学習ゴリゴリ派のための数学とPython
Kimikazu Kato
 
PDF
IT エンジニア本大賞 2021 講演資料
Kensuke Otsuki
 
PDF
Sapporo20140709
Kimikazu Kato
 
PDF
Pythonによる機械学習
Kimikazu Kato
 
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
PDF
アルゴリズムを楽しく!@PiyogrammerConference
Kensuke Otsuki
 
PDF
3次元レジストレーション(PCLデモとコード付き)
Toru Tamaki
 
PDF
DS Exercise Course 3
大貴 末廣
 
機械学習ゴリゴリ派のための数学とPython
Kimikazu Kato
 
IT エンジニア本大賞 2021 講演資料
Kensuke Otsuki
 
Sapporo20140709
Kimikazu Kato
 
Pythonによる機械学習
Kimikazu Kato
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
 
アルゴリズムを楽しく!@PiyogrammerConference
Kensuke Otsuki
 
3次元レジストレーション(PCLデモとコード付き)
Toru Tamaki
 
DS Exercise Course 3
大貴 末廣
 

What's hot (13)

PDF
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Yuya Unno
 
PDF
深層学習時代の自然言語処理
Yuya Unno
 
PDF
最適化超入門
Takami Sato
 
PPTX
ChainerでDeep Learningを試す為に必要なこと
Jiro Nishitoba
 
PDF
Jubatusの特徴変換と線形分類器の仕組み
JubatusOfficial
 
PDF
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
 
PDF
実装ディープラーニング
Yurie Oka
 
PDF
統計的係り受け解析入門
Yuya Unno
 
PDF
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
 
PDF
Python 機械学習プログラミング データ分析演習編
Etsuji Nakai
 
PDF
Pystan for nlp
Xiangze
 
PDF
第1回 Jubatusハンズオン
Yuya Unno
 
PDF
DATUM STUDIO PyCon2016 Turorial
Tatsuya Tojima
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Yuya Unno
 
深層学習時代の自然言語処理
Yuya Unno
 
最適化超入門
Takami Sato
 
ChainerでDeep Learningを試す為に必要なこと
Jiro Nishitoba
 
Jubatusの特徴変換と線形分類器の仕組み
JubatusOfficial
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Yuya Unno
 
実装ディープラーニング
Yurie Oka
 
統計的係り受け解析入門
Yuya Unno
 
LCCC2010:Learning on Cores, Clusters and Cloudsの解説
Preferred Networks
 
Python 機械学習プログラミング データ分析演習編
Etsuji Nakai
 
Pystan for nlp
Xiangze
 
第1回 Jubatusハンズオン
Yuya Unno
 
DATUM STUDIO PyCon2016 Turorial
Tatsuya Tojima
 
Ad

Viewers also liked (20)

PDF
第4回MachineLearningのための数学塾資料(浅川)
Shin Asakawa
 
PDF
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12
Project Samurai
 
PDF
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9
Project Samurai
 
PDF
深層学習(ディープラーニング)入門勉強会資料(浅川)
Shin Asakawa
 
DOC
Wujud benda sumber
ken Dfsfs
 
PDF
titulos junior
Junior Linares, MGP
 
PPTX
Discapacidad
soraya771
 
PPTX
Не віднімай у себе завтра
zolka2016
 
DOC
Skripsi anggunan
ken Dfsfs
 
PDF
Laboratoryequipment.doc
jimenaeningles
 
PDF
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3
Project Samurai
 
PDF
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -
Project Samurai
 
DOCX
hubungan karakteristik ibu dengan kecukupan asi
nikenwahyu
 
PDF
2016tensorflow ja001
Shin Asakawa
 
PDF
Plano de MARKETING LACQUA DI FIORI
Tiago Daniel NEXT21
 
PDF
chapter 11 structural svm
Taikai Takeda
 
PDF
Introduction to fuzzy kmeans on mahout
takaya imai
 
PDF
MLP SVM Chapter 7 分割法
Taikai Takeda
 
PDF
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...
takaya imai
 
PDF
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...
Masaki Saito
 
第4回MachineLearningのための数学塾資料(浅川)
Shin Asakawa
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 12
Project Samurai
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 9
Project Samurai
 
深層学習(ディープラーニング)入門勉強会資料(浅川)
Shin Asakawa
 
Wujud benda sumber
ken Dfsfs
 
titulos junior
Junior Linares, MGP
 
Discapacidad
soraya771
 
Не віднімай у себе завтра
zolka2016
 
Skripsi anggunan
ken Dfsfs
 
Laboratoryequipment.doc
jimenaeningles
 
数学的基礎から学ぶ Deep Learning (with Python) Vol. 3
Project Samurai
 
Pythonで画像処理をやってみよう!第7回 - Scale-space 第6回 -
Project Samurai
 
hubungan karakteristik ibu dengan kecukupan asi
nikenwahyu
 
2016tensorflow ja001
Shin Asakawa
 
Plano de MARKETING LACQUA DI FIORI
Tiago Daniel NEXT21
 
chapter 11 structural svm
Taikai Takeda
 
Introduction to fuzzy kmeans on mahout
takaya imai
 
MLP SVM Chapter 7 分割法
Taikai Takeda
 
New Approach to Data Analysis System “Tableau + TreasureData” at Tableau User...
takaya imai
 
Discrete MRF Inference of Marginal Densities for Non-uniformly Discretized Va...
Masaki Saito
 
Ad

Similar to 2016word embbed supp (20)

PDF
Rnncamp2handout
Shin Asakawa
 
PDF
TensorFlow math ja 05 word2vec
Shin Asakawa
 
PPTX
Ordered neurons integrating tree structures into recurrent neural networks
Kazuki Fujikawa
 
PDF
4thNLPDL
Sho Takase
 
PPTX
survey on math transformer 2023 0628 sato
satoyuta0112
 
DOCX
レポート深層学習Day3
ssuser9d95b3
 
PPTX
深層学習による自然言語処理 第2章 ニューラルネットの基礎
Shion Honda
 
PDF
ニューラルネットワークを用いた自然言語処理
Sho Takase
 
PDF
Recurrent Neural Networks
Seiya Tokui
 
PDF
Deep Learningの基礎と応用
Seiya Tokui
 
PDF
深層ニューラルネットワーク による知識の自動獲得・推論
Naoaki Okazaki
 
PDF
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
 
PDF
ニューラル論文を読む前に
Hayahide Yamagishi
 
PDF
詳説word2vec
Haruka Oikawa
 
PDF
dl-with-python01_handout
Shin Asakawa
 
PDF
BERTに関して
Saitama Uni
 
PDF
Learning to forget continual prediction with lstm
Fujimoto Keisuke
 
PDF
2016word embbed
Shin Asakawa
 
PDF
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
 
PPTX
Variational Template Machine for Data-to-Text Generation
harmonylab
 
Rnncamp2handout
Shin Asakawa
 
TensorFlow math ja 05 word2vec
Shin Asakawa
 
Ordered neurons integrating tree structures into recurrent neural networks
Kazuki Fujikawa
 
4thNLPDL
Sho Takase
 
survey on math transformer 2023 0628 sato
satoyuta0112
 
レポート深層学習Day3
ssuser9d95b3
 
深層学習による自然言語処理 第2章 ニューラルネットの基礎
Shion Honda
 
ニューラルネットワークを用いた自然言語処理
Sho Takase
 
Recurrent Neural Networks
Seiya Tokui
 
Deep Learningの基礎と応用
Seiya Tokui
 
深層ニューラルネットワーク による知識の自動獲得・推論
Naoaki Okazaki
 
[最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
Yuki Arase
 
ニューラル論文を読む前に
Hayahide Yamagishi
 
詳説word2vec
Haruka Oikawa
 
dl-with-python01_handout
Shin Asakawa
 
BERTに関して
Saitama Uni
 
Learning to forget continual prediction with lstm
Fujimoto Keisuke
 
2016word embbed
Shin Asakawa
 
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
 
Variational Template Machine for Data-to-Text Generation
harmonylab
 

More from Shin Asakawa (8)

PDF
primers neural networks
Shin Asakawa
 
PDF
回帰
Shin Asakawa
 
PDF
Linera lgebra
Shin Asakawa
 
PDF
2016 dg2
Shin Asakawa
 
PDF
2016人工知能と経済の未来合評会資料
Shin Asakawa
 
PDF
2016tf study5
Shin Asakawa
 
PDF
Rnncamp01
Shin Asakawa
 
PDF
Rnncamp01
Shin Asakawa
 
primers neural networks
Shin Asakawa
 
回帰
Shin Asakawa
 
Linera lgebra
Shin Asakawa
 
2016 dg2
Shin Asakawa
 
2016人工知能と経済の未来合評会資料
Shin Asakawa
 
2016tf study5
Shin Asakawa
 
Rnncamp01
Shin Asakawa
 
Rnncamp01
Shin Asakawa
 

2016word embbed supp