SlideShare a Scribd company logo
DEEPLEARNINGJP
[DL Seminar]
Relational inductive biases,
deep learning, and graph networks
Hiromi Nakagawa, Matsuo Lab
http://deeplearning.jp/
• 2018/06/04にarXivに投稿
– https://arxiv.org/abs/1806.01261
– position paper
– 23pある
• 著者(27人)
書誌情報
• 近年のDeep Learningの発展=膨大なデータと計算力によるもの
– 大量のデータを突っ込んで学習
– hand-engineeringが不要、EEnndd--ttoo--EEnnddであることが正義
• しかし、それだけでは解決できない問題が現実世界には数多く存在
– 人間に近しいタスクを行っていくには、人間同様にssttrruuccttuurreedd kknnoowwlleeddggeeを使う必要がある
• より一般的な推論方法としてGGrraapphh NNeettwwoorrkkを提案
– FCNやCNN、RNNなどをより一般化したネットワーク
– ssttrruuccttuurreedd kknnoowwlleeddggeeとDeep Learningのfflleexxiibbiilliittyyを相互補完的に活用できる
Summary
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• 人間の知能:”Infinite use of finite means”
– 少数のentityを組み合わせてあらゆるものを作り出す
– ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonn (組み合わせ一般化?)
– 既知の要素(building blocks)から新たなinference, prediction, behaviorを生み出す
• 学習を行う時
– 新たな知識を既存のssttrruuccttuurreedd rreepprreesseennttaattiioonnssに当てはめる
– または、structure自体を調整する
1. Introduction
• Structured approachはAI研究における長きに渡るテーマ
• 従来の機械学習ではSSttrruuccttuurreedd aapppprrooaacchhが重視されていた
– 計算資源やデータが貴重
– 強力なiinndduuccttiivvee bbiiaass((帰帰納納ババイイアアスス))によってサンプル効率を向上させることの価値が大きかった
1. Introduction
帰納バイアス
• 学習の過程で、entity同士の関係などに対して制約を課すこと
• 学習データに現れないデータを予測するために必要
• モデルの柔軟性が失われる代わりに、サンプル効率が改善される
• 例
• 線形回帰における目的関数の二乗誤差
• ベイズ推定における事前分布
• 正則化
• 近年では最小限のa prioriの表現・仮定の元でEEnndd--ttoo--EEnnddにに学学習習すするるDDLLが好まれている
– explicit structureとhand-engineeringは避けられている
– 画像認識や自然言語処理などで大きな成果
• 一方で、ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonnをを要要すするるタタススククはは従従来来ののDDLLののアアププロローーチチでではは困困難難
– 複雑な言語・情景認識
– Structured dataに対する推論
– 訓練環境にない環境での転移学習
– 少数の経験からの学習
1. Introduction
• これからのAI研究ではcombinatorial generalizationが大事
– ssttrruuccttuurreeととfflleexxiibbiilliittyyをを両両立立させるような手法が求められている
• これまでもそのような研究は存在したが、近年ではググララフフの活用によってDLの枠組みを活かし
ながらexplicit structure dataについて推論できる研究が登場しつつある
– 離散のentityとそれらの関係性を扱うことが可能
– entityとrelationのrepresentation/structureを学習することが可能 = rreellaattiioonnaall iinndduuccttiivvee bbiiaass
• 本論文ではentity-/relation-basedな推論のための一般的なフレームワークとして、既存の手法
を統合/拡張したGraph Networkについて説明
– より効果的なアーキテクチャ設計のためのデザイン原則も検討
1. Introduction
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• Relational reasoning
– eennttiittyyとrreellaattiioonnのstructured representationを、それらがどのように構成されるかというrruulleeを用
いて扱う
– entity:なんらかの属性(attributes)を有する要素
• 例:サイズと質量を有する物体
– relation:entityの間の性質(property)。属性を有する
• 例:”Same size as”, “Heavier than”
– rule:entityとrelationを別のentityとrelationに写像する関数
• 例:”Is entity X heavier than Y?”
2. Relational inductive biases
• Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている
– 複数層積み上げることによる階層的処理のバイアスや、特殊なブロックによるバイアス
2. Relational inductive biases
• Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている
– いずれも「デフォルト」にはなりえない
– 任任意意のの関関係係構構造造をを扱扱ええるるような、entityとrelationのruleを見つけ出すアルゴリズムが必要
• 現実世界のentityは根本的には順序を持たないものが多い
– entity同士の関係性によって順序付けられる(サイズ、年齢、価格...)
– 順順序序不不変変性性はrelational reasoningを行う上では満たされるべき性質
• entityの順序が定義されず不変なもの→集集合合(Sets)
– MLPで扱うの場合、出力の総和を取るようなsymmetric aggregationでないと順序不変でない
– 一方で、集合内の特定の要素間にrelationが存在する場合、aggregationはx
– どうする?
2. Relational inductive biases
• 現実世界のシステムは関係性のある部位/ない部位が入り混じっている→グラフを使おう
– 近接する成分とのみ関係し合う=グラフ構造
– 任意のrelational structureを表現でき、複数グラフ間の演算でinductive biasを反映できる
2. Relational inductive biases
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• Graph neural networkは様々なタスクで有効性が検証されてきた
– visual scene understanding tasks (Raposo et al., 2017; Santoro et al., 2017)
– few-shot learning (Garcia and Bruna, 2018)
– learn the dynamics of physical systems (Battaglia et al., 2016; Chang et al., 2017; Watters et al., 2017; van Steenkiste et al., 2018;
Sanchez-Gonzalez et al., 2018)
– multi-agent systems (Sukhbaatar et al., 2016; Hoshen, 2017; Kipf et al., 2018)
– reason about knowledge graphs (Bordes et al., 2013; Onoro-Rubio et al., 2017; Hamaguchi et al., 2017)
– predict the chemical properties of molecules(Duvenaud et al., 2015; Gilmer et al., 2017)
– predict traffic on roads (Cui et al., 2018)
– classify and segment videos (Wang et al., 2018c) and 3D meshes and point clouds (Wang et al., 2018d)
– classify regions in images (Chen et al., 2018a)
– perform semi-supervised text classification (Kipf and Welling, 2017)
– machine translation (Vaswani et al., 2017; Shaw et al., 2018; Gulcehre et al., 2018)
– model-free (Wang et al., 2018b) and model-based (Hamrick et al., 2017; Pascanu et al., 2017; Sanchez-Gonzalez et al., 2018) continuous
control,
– model-free reinforcement learning (Hamrick et al., 2018; Zambaldi et al., 2018)
– more classical approaches to planning (Toyer et al., 2017).
3. Graph networks
• Graph network (GN) Block
– グラフを入力としてグラフを出力する「graph-to-graph」モジュール
– 1つのグラフは G = (u, V, E)で表される
• u:グラフ全体のproperty、global attribute(例:重力場)
• V:entityであるnode( vi )の集合(例:位置、速度などの属性を有する一つ一つのボール)
• E:relationであるedgeの集合(ek)(例:ボールの間のばねの有無と、ばね定数という属性)
3. Graph networks
• GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する
– φは各node/edge/global attributeごとに更新を行う関数
– ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要
3. Graph networks
各ボール間の張力を更新
各ボールに働く全張力を集計
各ボールの位置・速度などを更新
全体の張力の合計(=0)を集計
全体の運動エネルギーを集計
全体のエネルギーの総和を更新
• GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する
– φは各node/edge/global attributeごとに更新を行う関数
– ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要
3. Graph networks
各ボール間の張力を更新 各ボールに働く全張力を集計
各ボールの位置・速度などを更新
全体の張力の合計(=0)を集計
全体の運動エネルギーを集計
全体のエネルギーの総和を更新
• GNは強力なinductive biasesを学習に反映できる
– entity間の任意の関係性を表現できる
• GNへの入力が表現同士のinteraction/isolationを決定できる(cf. 固定のアーキテクチャ)
– entityとrelationを順序不変に表現できる
• 順序性を反映したければindexを入れ込めばいい(例:positional encoding)
– per-edge/per-nodeの関数をネットワーク全体で再利用(共有)できる
• nodeやedgeの数、edge間の接続形式などが違うグラフも共通して扱える
• combinatorial generalizationを自動的にサポートしている
3. Graph networks
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• 特にDeep Learningのアーキテクチャとして、学習可能なgraph-to-graphの関数近似器とし
ての特徴に注目し、以下を解説
– Flexible representations
– Configurable within
– Composable multi-block architectures-block structure
4. Design principles for graph network architectures
• Flexible representations
– global/node/edgeのattributeには任意の表現が使える
• 実数ベクトル、テンソル、系列、集合、グラフ
– 出力もテンソルなので、出力をMLP/CNN/RNNなどにつなぐことも可能
• edge-focused output:entity間のinteractionについて知りたい時
• node-focused output:物理システムについて推論したい時
• graph-focused output:物理システムのpotential energyを予測したい時
• これらを組み合わせることも可能
4. Design principles for graph network architectures
• Flexible representations
– 入力のrelational structureを明示的に指定することが可能
• knowledge graphs, social networks, parse trees, optimization problems, chemical graphs, road
networks, and physical systems with known interactions
4. Design principles for graph network architectures
• Flexible representations
– 指定せずにrelational structure自体を推論させることも可能
• visual scenes, text corpora, programming language source code, and multi-agent systems
– ただしrelationが全くわからない場合に全結合させると計算量が爆発するので、unstructured dataか
らスパースな構造を推定する手法が必要[Kipf et al. 2018]
4. Design principles for graph network architectures
• Configurable within-block structure
– GN Block内の関数は様々に設定できる
4. Design principles for graph network architectures
• Composable multi-block architectures
– GN blockを組み合わせることで複雑なアーキテクチャを実現可能
– 例:(c)Recurrent GN architecture → trajectory of a dynamical system over time
4. Design principles for graph network architectures
1. Introduction
2. Relational inductive biases
3. Graph Network
4. Design principles for graph network architectures
5. Discussion
Agenda
• Combinatorial generalization in graph networks
– GNの構造はcombinatorial generalizationをサポートしている
• システム全体だけでなく、entityやrelationに対しても処理を共有
– 未知のシステムにおいても、その構成要素についてわかっていれば推論可能
• Limitations of graph networks
– recursion, control flow, and conditional iterationなどはグラフで表現しにくい
5. Discussion
• Open questions
– センサ値をグラフなどの構造化表現に落とし込む最適な方法の考案
• 全結合してもいいが、そもそものentityの定義や、スパースな表現の獲得の必要がある
– 演算中にグラフ構造が変わるなどの状況への対処
• ノードが分裂する
– より解釈性の高い分析や可視化手法の開発
• 世界がobjectとrelationによって構成されている、という人間の認知と近いためそもそもの解釈性
は高い
5. Discussion
• 近年、特にDLによってAIが大きく進歩しているものの、人間の知能のようなefficient
generalizable learningとの間には大きな壁
• 著者らはこれをcombinatorial generalizationによって解決すべきと主張
• 人間の認知や従来のengineeringなどのstructured knowledgeとDLを組み合わせることで、
強力なrelational inductive biasesを反映し、かつ柔軟な学習ができるように、これまでの
Graph Networkの研究を統一的に扱えるフレームワークを提案
• Graph Networkはまだ発展途上であるものの今後に期待
まとめ
• 現在ある多くのDLモデルがinductive biasを反映していて、それを踏まえてGraph Networkと
してより一般化するという考え、entity, relation, ruleによる表現などは興味深い
• relationやrule自体が学習されるのは面白そう、可視化・解釈で知見を得られる&その知見をモ
デルに反映する、とか
• 提案しているフレームワークで具体的なデータとStructured knowledgeをどう定義するのか、
学習するとどういう結果になるのかとかはそこまでイメージがわかず
– 参考文献読めばある程度はわかるのかもしれないが
– 180件くらいある
感想

More Related Content

What's hot (20)

PPTX
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
 
PDF
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
 
PPTX
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
 
PDF
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
 
PPTX
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
 
PPTX
モデルアーキテクチャ観点からの高速化2019
Yusuke Uchida
 
PDF
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
PDF
グラフィカル Lasso を用いた異常検知
Yuya Takashina
 
PDF
PRML学習者から入る深層生成モデル入門
tmtm otm
 
PPTX
近年のHierarchical Vision Transformer
Yusuke Uchida
 
PPTX
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
 
PDF
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
 
PDF
Bayesian Neural Networks : Survey
tmtm otm
 
PPTX
SakataMoriLab GNN勉強会第一回資料
ttt_miura
 
PPTX
Graph convolution (スペクトルアプローチ)
yukihiro domae
 
PDF
グラフデータ分析 入門編
順也 山口
 
PDF
最適輸送の解き方
joisino
 
PDF
【DL輪読会】Implicit Behavioral Cloning
Deep Learning JP
 
PDF
Hyperoptとその周辺について
Keisuke Hosaka
 
PDF
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
 
[DL輪読会]Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
Deep Learning JP
 
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
 
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
 
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
 
モデルアーキテクチャ観点からの高速化2019
Yusuke Uchida
 
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
 
グラフィカル Lasso を用いた異常検知
Yuya Takashina
 
PRML学習者から入る深層生成モデル入門
tmtm otm
 
近年のHierarchical Vision Transformer
Yusuke Uchida
 
[DL輪読会]Neural Ordinary Differential Equations
Deep Learning JP
 
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
 
Bayesian Neural Networks : Survey
tmtm otm
 
SakataMoriLab GNN勉強会第一回資料
ttt_miura
 
Graph convolution (スペクトルアプローチ)
yukihiro domae
 
グラフデータ分析 入門編
順也 山口
 
最適輸送の解き方
joisino
 
【DL輪読会】Implicit Behavioral Cloning
Deep Learning JP
 
Hyperoptとその周辺について
Keisuke Hosaka
 
cvpaper.challenge 研究効率化 Tips
cvpaper. challenge
 

Similar to [DL輪読会]Relational inductive biases, deep learning, and graph networks (20)

PDF
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
Deep Learning JP
 
PPTX
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
 
PDF
三次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
 
PDF
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
 
PPTX
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Deep Learning JP
 
PPTX
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Takumi Ohkuma
 
PPTX
survey on math transformer 2023 0628 sato
satoyuta0112
 
PDF
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks
 
PDF
優れた問いを見つける(中京大学講演)
cvpaper. challenge
 
PDF
効率的学習 / Efficient Training(メタサーベイ)
cvpaper. challenge
 
PPTX
[DL輪読会]Learning to Navigate in Cities Without a Map
Deep Learning JP
 
PDF
仮想化とシステムソフトウェア研究
Kazuhiko Kato
 
PDF
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Masayoshi Kondo
 
PDF
幾何と機械学習: A Short Intro
Ichigaku Takigawa
 
PDF
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
PDF
大規模ネットワークの性質と先端グラフアルゴリズム
Takuya Akiba
 
PDF
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する
DNA Data Bank of Japan center
 
PDF
【2016.08】cvpaper.challenge2016
cvpaper. challenge
 
PDF
先端技術とメディア表現 第1回レポートまとめ
Digital Nature Group
 
PDF
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
cvpaper. challenge
 
【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-I...
Deep Learning JP
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
 
三次元点群を取り扱うニューラルネットワークのサーベイ
Naoya Chiba
 
[DL輪読会]Convolutional Sequence to Sequence Learning
Deep Learning JP
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Deep Learning JP
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Takumi Ohkuma
 
survey on math transformer 2023 0628 sato
satoyuta0112
 
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks
 
優れた問いを見つける(中京大学講演)
cvpaper. challenge
 
効率的学習 / Efficient Training(メタサーベイ)
cvpaper. challenge
 
[DL輪読会]Learning to Navigate in Cities Without a Map
Deep Learning JP
 
仮想化とシステムソフトウェア研究
Kazuhiko Kato
 
Graph-to-Sequence Learning using Gated Graph Neural Networks. [ACL'18] 論文紹介
Masayoshi Kondo
 
幾何と機械学習: A Short Intro
Ichigaku Takigawa
 
深層生成モデルと世界モデル(2020/11/20版)
Masahiro Suzuki
 
大規模ネットワークの性質と先端グラフアルゴリズム
Takuya Akiba
 
[DDBJing31] 軽量仮想環境を用いてNGSデータの解析再現性を担保する
DNA Data Bank of Japan center
 
【2016.08】cvpaper.challenge2016
cvpaper. challenge
 
先端技術とメディア表現 第1回レポートまとめ
Digital Nature Group
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
cvpaper. challenge
 
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
PPTX
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
PPTX
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
PPTX
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
Ad

Recently uploaded (7)

PDF
20250711JIMUC総会_先進IT運用管理分科会Connpass公開資料.pdf
ChikakoInami1
 
PDF
Google Driveハブ型Obsidian同期環境:PC編集とモバイル閲覧を安全・効率的に実現するクロスデバイス構築ガイド
honeshabri
 
PDF
LoRaWAN ウェザーステーションキット v3 -WSC3-L 日本語ユーザーマニュアル
CRI Japan, Inc.
 
PDF
20250717_Devin×GitHubCopilotで10人分の仕事は出来るのか?.pdf
Masaki Yamakawa
 
PDF
20250711JIMUC総会IBM Automation_Platform最新情報_Connpass公開版.pdf
ChikakoInami1
 
PDF
【AI論文解説】 RLHF不要なLLMの強化学習手法: Direct Preference Optimization(+α)
Sony - Neural Network Libraries
 
PPTX
Devcontainerのススメ(1)-Devcontainerとはどういう技術?-
iPride Co., Ltd.
 
20250711JIMUC総会_先進IT運用管理分科会Connpass公開資料.pdf
ChikakoInami1
 
Google Driveハブ型Obsidian同期環境:PC編集とモバイル閲覧を安全・効率的に実現するクロスデバイス構築ガイド
honeshabri
 
LoRaWAN ウェザーステーションキット v3 -WSC3-L 日本語ユーザーマニュアル
CRI Japan, Inc.
 
20250717_Devin×GitHubCopilotで10人分の仕事は出来るのか?.pdf
Masaki Yamakawa
 
20250711JIMUC総会IBM Automation_Platform最新情報_Connpass公開版.pdf
ChikakoInami1
 
【AI論文解説】 RLHF不要なLLMの強化学習手法: Direct Preference Optimization(+α)
Sony - Neural Network Libraries
 
Devcontainerのススメ(1)-Devcontainerとはどういう技術?-
iPride Co., Ltd.
 

[DL輪読会]Relational inductive biases, deep learning, and graph networks

  • 1. DEEPLEARNINGJP [DL Seminar] Relational inductive biases, deep learning, and graph networks Hiromi Nakagawa, Matsuo Lab http://deeplearning.jp/
  • 2. • 2018/06/04にarXivに投稿 – https://arxiv.org/abs/1806.01261 – position paper – 23pある • 著者(27人) 書誌情報
  • 3. • 近年のDeep Learningの発展=膨大なデータと計算力によるもの – 大量のデータを突っ込んで学習 – hand-engineeringが不要、EEnndd--ttoo--EEnnddであることが正義 • しかし、それだけでは解決できない問題が現実世界には数多く存在 – 人間に近しいタスクを行っていくには、人間同様にssttrruuccttuurreedd kknnoowwlleeddggeeを使う必要がある • より一般的な推論方法としてGGrraapphh NNeettwwoorrkkを提案 – FCNやCNN、RNNなどをより一般化したネットワーク – ssttrruuccttuurreedd kknnoowwlleeddggeeとDeep Learningのfflleexxiibbiilliittyyを相互補完的に活用できる Summary
  • 4. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 5. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 6. • 人間の知能:”Infinite use of finite means” – 少数のentityを組み合わせてあらゆるものを作り出す – ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonn (組み合わせ一般化?) – 既知の要素(building blocks)から新たなinference, prediction, behaviorを生み出す • 学習を行う時 – 新たな知識を既存のssttrruuccttuurreedd rreepprreesseennttaattiioonnssに当てはめる – または、structure自体を調整する 1. Introduction
  • 7. • Structured approachはAI研究における長きに渡るテーマ • 従来の機械学習ではSSttrruuccttuurreedd aapppprrooaacchhが重視されていた – 計算資源やデータが貴重 – 強力なiinndduuccttiivvee bbiiaass((帰帰納納ババイイアアスス))によってサンプル効率を向上させることの価値が大きかった 1. Introduction 帰納バイアス • 学習の過程で、entity同士の関係などに対して制約を課すこと • 学習データに現れないデータを予測するために必要 • モデルの柔軟性が失われる代わりに、サンプル効率が改善される • 例 • 線形回帰における目的関数の二乗誤差 • ベイズ推定における事前分布 • 正則化
  • 8. • 近年では最小限のa prioriの表現・仮定の元でEEnndd--ttoo--EEnnddにに学学習習すするるDDLLが好まれている – explicit structureとhand-engineeringは避けられている – 画像認識や自然言語処理などで大きな成果 • 一方で、ccoommbbiinnaattoorriiaall ggeenneerraalliizzaattiioonnをを要要すするるタタススククはは従従来来ののDDLLののアアププロローーチチでではは困困難難 – 複雑な言語・情景認識 – Structured dataに対する推論 – 訓練環境にない環境での転移学習 – 少数の経験からの学習 1. Introduction
  • 9. • これからのAI研究ではcombinatorial generalizationが大事 – ssttrruuccttuurreeととfflleexxiibbiilliittyyをを両両立立させるような手法が求められている • これまでもそのような研究は存在したが、近年ではググララフフの活用によってDLの枠組みを活かし ながらexplicit structure dataについて推論できる研究が登場しつつある – 離散のentityとそれらの関係性を扱うことが可能 – entityとrelationのrepresentation/structureを学習することが可能 = rreellaattiioonnaall iinndduuccttiivvee bbiiaass • 本論文ではentity-/relation-basedな推論のための一般的なフレームワークとして、既存の手法 を統合/拡張したGraph Networkについて説明 – より効果的なアーキテクチャ設計のためのデザイン原則も検討 1. Introduction
  • 10. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 11. • Relational reasoning – eennttiittyyとrreellaattiioonnのstructured representationを、それらがどのように構成されるかというrruulleeを用 いて扱う – entity:なんらかの属性(attributes)を有する要素 • 例:サイズと質量を有する物体 – relation:entityの間の性質(property)。属性を有する • 例:”Same size as”, “Heavier than” – rule:entityとrelationを別のentityとrelationに写像する関数 • 例:”Is entity X heavier than Y?” 2. Relational inductive biases
  • 12. • Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている – 複数層積み上げることによる階層的処理のバイアスや、特殊なブロックによるバイアス 2. Relational inductive biases
  • 13. • Deep Learningの手法の多くも、いくつかのrelational inductive biasを用いている – いずれも「デフォルト」にはなりえない – 任任意意のの関関係係構構造造をを扱扱ええるるような、entityとrelationのruleを見つけ出すアルゴリズムが必要 • 現実世界のentityは根本的には順序を持たないものが多い – entity同士の関係性によって順序付けられる(サイズ、年齢、価格...) – 順順序序不不変変性性はrelational reasoningを行う上では満たされるべき性質 • entityの順序が定義されず不変なもの→集集合合(Sets) – MLPで扱うの場合、出力の総和を取るようなsymmetric aggregationでないと順序不変でない – 一方で、集合内の特定の要素間にrelationが存在する場合、aggregationはx – どうする? 2. Relational inductive biases
  • 14. • 現実世界のシステムは関係性のある部位/ない部位が入り混じっている→グラフを使おう – 近接する成分とのみ関係し合う=グラフ構造 – 任意のrelational structureを表現でき、複数グラフ間の演算でinductive biasを反映できる 2. Relational inductive biases
  • 15. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 16. • Graph neural networkは様々なタスクで有効性が検証されてきた – visual scene understanding tasks (Raposo et al., 2017; Santoro et al., 2017) – few-shot learning (Garcia and Bruna, 2018) – learn the dynamics of physical systems (Battaglia et al., 2016; Chang et al., 2017; Watters et al., 2017; van Steenkiste et al., 2018; Sanchez-Gonzalez et al., 2018) – multi-agent systems (Sukhbaatar et al., 2016; Hoshen, 2017; Kipf et al., 2018) – reason about knowledge graphs (Bordes et al., 2013; Onoro-Rubio et al., 2017; Hamaguchi et al., 2017) – predict the chemical properties of molecules(Duvenaud et al., 2015; Gilmer et al., 2017) – predict traffic on roads (Cui et al., 2018) – classify and segment videos (Wang et al., 2018c) and 3D meshes and point clouds (Wang et al., 2018d) – classify regions in images (Chen et al., 2018a) – perform semi-supervised text classification (Kipf and Welling, 2017) – machine translation (Vaswani et al., 2017; Shaw et al., 2018; Gulcehre et al., 2018) – model-free (Wang et al., 2018b) and model-based (Hamrick et al., 2017; Pascanu et al., 2017; Sanchez-Gonzalez et al., 2018) continuous control, – model-free reinforcement learning (Hamrick et al., 2018; Zambaldi et al., 2018) – more classical approaches to planning (Toyer et al., 2017). 3. Graph networks
  • 17. • Graph network (GN) Block – グラフを入力としてグラフを出力する「graph-to-graph」モジュール – 1つのグラフは G = (u, V, E)で表される • u:グラフ全体のproperty、global attribute(例:重力場) • V:entityであるnode( vi )の集合(例:位置、速度などの属性を有する一つ一つのボール) • E:relationであるedgeの集合(ek)(例:ボールの間のばねの有無と、ばね定数という属性) 3. Graph networks
  • 18. • GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する – φは各node/edge/global attributeごとに更新を行う関数 – ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要 3. Graph networks 各ボール間の張力を更新 各ボールに働く全張力を集計 各ボールの位置・速度などを更新 全体の張力の合計(=0)を集計 全体の運動エネルギーを集計 全体のエネルギーの総和を更新
  • 19. • GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する – φは各node/edge/global attributeごとに更新を行う関数 – ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要 3. Graph networks 各ボール間の張力を更新 各ボールに働く全張力を集計 各ボールの位置・速度などを更新 全体の張力の合計(=0)を集計 全体の運動エネルギーを集計 全体のエネルギーの総和を更新
  • 20. • GNは強力なinductive biasesを学習に反映できる – entity間の任意の関係性を表現できる • GNへの入力が表現同士のinteraction/isolationを決定できる(cf. 固定のアーキテクチャ) – entityとrelationを順序不変に表現できる • 順序性を反映したければindexを入れ込めばいい(例:positional encoding) – per-edge/per-nodeの関数をネットワーク全体で再利用(共有)できる • nodeやedgeの数、edge間の接続形式などが違うグラフも共通して扱える • combinatorial generalizationを自動的にサポートしている 3. Graph networks
  • 21. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 22. • 特にDeep Learningのアーキテクチャとして、学習可能なgraph-to-graphの関数近似器とし ての特徴に注目し、以下を解説 – Flexible representations – Configurable within – Composable multi-block architectures-block structure 4. Design principles for graph network architectures
  • 23. • Flexible representations – global/node/edgeのattributeには任意の表現が使える • 実数ベクトル、テンソル、系列、集合、グラフ – 出力もテンソルなので、出力をMLP/CNN/RNNなどにつなぐことも可能 • edge-focused output:entity間のinteractionについて知りたい時 • node-focused output:物理システムについて推論したい時 • graph-focused output:物理システムのpotential energyを予測したい時 • これらを組み合わせることも可能 4. Design principles for graph network architectures
  • 24. • Flexible representations – 入力のrelational structureを明示的に指定することが可能 • knowledge graphs, social networks, parse trees, optimization problems, chemical graphs, road networks, and physical systems with known interactions 4. Design principles for graph network architectures
  • 25. • Flexible representations – 指定せずにrelational structure自体を推論させることも可能 • visual scenes, text corpora, programming language source code, and multi-agent systems – ただしrelationが全くわからない場合に全結合させると計算量が爆発するので、unstructured dataか らスパースな構造を推定する手法が必要[Kipf et al. 2018] 4. Design principles for graph network architectures
  • 26. • Configurable within-block structure – GN Block内の関数は様々に設定できる 4. Design principles for graph network architectures
  • 27. • Composable multi-block architectures – GN blockを組み合わせることで複雑なアーキテクチャを実現可能 – 例:(c)Recurrent GN architecture → trajectory of a dynamical system over time 4. Design principles for graph network architectures
  • 28. 1. Introduction 2. Relational inductive biases 3. Graph Network 4. Design principles for graph network architectures 5. Discussion Agenda
  • 29. • Combinatorial generalization in graph networks – GNの構造はcombinatorial generalizationをサポートしている • システム全体だけでなく、entityやrelationに対しても処理を共有 – 未知のシステムにおいても、その構成要素についてわかっていれば推論可能 • Limitations of graph networks – recursion, control flow, and conditional iterationなどはグラフで表現しにくい 5. Discussion
  • 30. • Open questions – センサ値をグラフなどの構造化表現に落とし込む最適な方法の考案 • 全結合してもいいが、そもそものentityの定義や、スパースな表現の獲得の必要がある – 演算中にグラフ構造が変わるなどの状況への対処 • ノードが分裂する – より解釈性の高い分析や可視化手法の開発 • 世界がobjectとrelationによって構成されている、という人間の認知と近いためそもそもの解釈性 は高い 5. Discussion
  • 31. • 近年、特にDLによってAIが大きく進歩しているものの、人間の知能のようなefficient generalizable learningとの間には大きな壁 • 著者らはこれをcombinatorial generalizationによって解決すべきと主張 • 人間の認知や従来のengineeringなどのstructured knowledgeとDLを組み合わせることで、 強力なrelational inductive biasesを反映し、かつ柔軟な学習ができるように、これまでの Graph Networkの研究を統一的に扱えるフレームワークを提案 • Graph Networkはまだ発展途上であるものの今後に期待 まとめ
  • 32. • 現在ある多くのDLモデルがinductive biasを反映していて、それを踏まえてGraph Networkと してより一般化するという考え、entity, relation, ruleによる表現などは興味深い • relationやrule自体が学習されるのは面白そう、可視化・解釈で知見を得られる&その知見をモ デルに反映する、とか • 提案しているフレームワークで具体的なデータとStructured knowledgeをどう定義するのか、 学習するとどういう結果になるのかとかはそこまでイメージがわかず – 参考文献読めばある程度はわかるのかもしれないが – 180件くらいある 感想