SlideShare a Scribd company logo
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
EfficientNet: Rethinking Model Scaling for
Convolutional Neural Networks (ICML2019)
MasashiYokota, RESTAR Inc.
書誌情報
• 著者
– Mingxing Tan, Quoc V. Le
– Google Researchのチーム
– ICML2019 採択
• CNNの層数、チャネル数、解像度を単一のパラメータで最適化す
る手法を提案
2
1. 背景
3
1. 背景
ハイパーパラメータ: 多
チューニングコスト: 大
4
莫大なパラメータを持つネットワークは
数多く提案されている
Gpipe [Huang et. al. 2018]より引用
1.2. 現行の問題点(もう少し具体的に)
• 従来は層数、チャネル数、解像度をそれぞれ独立したパラメータを
チューニングしていた。
→ 探索空間が広く、チューニングが大変 5
ベースライン チャネル数 増加 層数 増加 解像度 増加
1.3. 提案手法の概要
6
• 筆者らの事前実験により各パラメータをバランスよく調整することが
重要だという考察から単一パラメータで層数、チャネル数、解像度を
複合的に調整することで、高精度・高効率なモデルの探索を容易にした。
単一パラメータφ
のみ調整し、
3パラメータを
バランスよく調整
2. 関連研究
7
2.1. 関連研究 (枝切り・量子化等によるモデル圧縮)
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman
Coding [Han et. al. ICLR2016]
• 大きなモデルをscale downしてモデルを効率化する。具体的には、枝
切り、量子化、ハフマン符号化を同時に行うことで精度を落とさず
AlexNetとVGG-16をそれぞれ35倍、49倍圧縮した。 8
• モバイル端末用のモデルのネットワーク構造探索を強化学習で
行った研究。精度とモバイル端末のレイテンシ双方を考慮した指
標を提案し、それを報酬として強化学習を行うことで、
実行環境に最適なモデルを自動構築する。 9
2.2. 関連研究 (探索によるモデル構築)
MnasNet: Platform-Aware Neural Architecture Search for Mobile
[Tan et. al. CVPR2019]
2.3. 関連研究の問題点
• これらの手法は小さなモデルに適用されており、設計が複雑で探
索がより困難な巨大なモデルへどのように適用するかは不明。
• 本論文では巨大なCNNにフォーカスし、モデル圧縮のように大き
なモデルを小さくするのではなく、モデルをscale upさせることで、
高精度・高効率なモデル探索を可能にしている。
10
3. 提案手法
Compound Model Scaling
11
3. 提案手法
1. 問題の定式化
2. パラメータについて
3. Compound Scaling
4. アーキテクチャ探索
12
3.1. 問題の定式化
13
3.1.1. CNNの定式化
• i番目Conv層を以下のように定義:
• また、シンプルなk層のCNNは以下のように定義する:
• ResNetのように一つのブロックが同じタイプのConv層を複数持
つことを考慮し、CNNを以下のように定義する:
14
𝑌𝑖: 𝑖層の出力, 𝑋𝑖: 𝑖層の入力, 𝐹𝑖: 𝑖層の𝑜𝑝𝑒𝑟𝑎𝑡𝑖𝑜𝑛
𝐹𝑖
𝐿 𝑖
: 𝑖番目の𝑠𝑡𝑎𝑔𝑒で𝐹𝑖を𝐿𝑖回リピート
𝐻𝑖: 𝑖番目の入力Height
𝑊𝑖: 𝑖番目の入力𝑊𝑖𝑑𝑡ℎ
𝐶𝑖: 𝑖番目の入力𝐶ℎ𝑎𝑛𝑛𝑒𝑙
3.1.2 問題の定式化
• 本研究では先の式にd,w,rを導入し以下の式を最適化する:
15
𝑑: Depth (層数), 𝑤: 𝑊𝑖𝑑𝑡ℎ(チャネル数), 𝑟: 𝑅𝑒𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 (解像度)
3.2. パラメータについて
16
3.2.1 Depth (d)
• Depth(d): 層数
• dを増やすとモデルがよりリッチな特
徴量を取得できる一方で、深すぎる
と勾配消失問題が起こる。
• 左図では、dがある程度大きくなると
改善幅が頭打ちしていることがわ
かる
17
3.2.2. Width (w)
• Width(w): チャネル数
• wを増やすと、よりfine-grainedな
特徴量を獲得できる
• 一方で、wに比べてネットワークが
浅いと高レベルな特徴量を捉えら
れず、左図のようにwがある程度
大きくなると精度の改善幅が小さ
くなってくる
18
3.2.3. Resolution (r)
• Resolution(r): 解像度
• 初期CNNのImageNet入力画像解
像度は224x224であり、そこから
480x480(ex. Gpipe [Huang et. al.
2018])まで大きくなっている。それ
に比例し良い性能を達成している。
• 一方で、rが大きくなるにつれ多様
な特徴量を獲得できるようにモデ
ルのパラメータ数も増やす必要が
ある。
19
※ r=1.0の時: 解像度224x224
r=2.5の時: 解像度560x560
3.2.4 各パラメータの予備実験から得られた考察
• モデルの層数や、チャンネル数、解像度の各パラメータを大きくす
ると性能が向上するが、大きくするに従い改善幅は小さくなってい
く 20
3.3. Compound Scaling
21
3.3.1 Compound Scalingの予備実験
• 各パラメータすべてをチューニン
グしたときの性能を比較
• 各パラメータを上手く調整するこ
とで、少ないFLOPSで高いパ
フォーマンスを出せる
各パラメータをバランスよく
調整することが重要
22
3.3.2 提案手法 Compound Scaling Method
• 先の予備実験から、d,w,rをバランスよく増加させるために
共通のパラメータφを導入し、以下の式でd,w,rを決定する:
• α,β,γはハイパーパラメータ。 の制限により、FLOPS
が2 𝜙
で増加していくのでFLOPSを見積もりやすくしている
23
メモ: CNNの式
3.4. アーキテクチャ探索
24
3.4.1 アーキテクチャー探索の全体像
本論文では①ベースモデルを決定し、②α,β,γを探索し各パラメータの重
みを決め、③φのチューニングをすることで徐々にモデルのスケールを
上げている。それにより、できるだけ小さい探索空間でモデル探索を可
能にしている。
25
Step1:
ベースモデル
の探索
Step2:
α,β,γの
探索
Step3:
φの
探索
3.4.2. [Step1] ベースモデルのアーキテクチャ探索
• 本提案手法はベースモデルをscale upしていくためモデルはでき
るだけ筋が良いモデルである必要がある。
→MNasNetを用いて精度とFLOPS双方を実現できるモデルを構
築する。この際に以下を報酬としてモデル探索を行う。
26
𝑚: モデル
𝑇: ターゲット𝐹𝐿𝑂𝑃𝑆
𝜔(=−0.07): ACCとFLOPSの
バランスを取るハイパーパラメータ
3.4.3 [Step1] 探索によって得られたアーキテクチャ
• squeeze-and-excitationを持つmobile inverted bottleneck
MBConvをメインに構成されている18層CNN 27
3.4.4 [Step2-3] パラメータチューニング
1. α,β,γの探索:
φ=1で固定し、α,β,γをグリッドサーチする
※ グリッドサーチしていているが、小さいCNNかつ
𝛼 ∙ 𝛽2
∙ 𝛾2
≈ 2の制約があるので探索空間は小さい
2. φの探索:
α,β,γを固定し、φのパラメータをチューニングする
28
4. 実験
29
4. 実験
1. compound scaling自体の有効性検証:
既存モデル(ResNet, MobileNet)にcompound scalingを用いてス
ケールアップ
2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習
3. 転移学習における有効性検証:
EfficientNetの転移学習
30
4.1. compound scaling自体の有効性検証:
既存モデルのcompound scalingを用いたスケールアップ
• MobileNet V1/2とResNet
をベースモデルとし、提案
手法でスケールアップす
る
• ほぼ同程度のFLOPSで
あってもcompound scaling
させる方が性能が良い
• 学習率等の実験条件は
不明
31
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習
• 実験条件:
– Optimizer: RMSProp (decay: 0.9, momentum: 0.9)
– Learning Rate: 0.256 (2.4epoch毎に0.97 decayしていく)
– Dropout Ratio: φの増加するに従って0.2から0.5へ段階的に上げる
– その他:
• Weight decay: 1e-5
• swish activation
• fixed AutoAugment policy
• stochastic depth (drop connect ratio: 0.2)
32
33
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習 (実験結果)
34
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習(FLOPSと精度の比較)
35
4.2. EfficientNet + compound scalingの有効性検証:
EfficientNetをImageNetで学習
(Intel Xeon CPU E5-2690での推論速度比較)
• ImageNetで学習したモデルから以下のデータセットでそれぞれ転
移学習を行う
36
4.3. 転移学習における有効性検証:
EfficientNetの転移学習
37
4.3. 転移学習における有効性検証:
EfficientNetの転移学習(実験結果 1/2)
38
4.3. 転移学習における有効性検証:
EfficientNetの転移学習(実験結果 2/2)
5. Discussion
39
5. Discussion
• Compound scaling自体がどれくらい有益か詳しく分析する
1. 単体パラメータチューニングとcompound scalingの性能比較
2. Class Activation Mapによる活性領域の可視化
3. 2.で可視化したモデルの性能比較
40
5.1. 単体パラメータチューニングとcompound scalingの性能比較
• バランスよくパラメータをチューニングすることは、性能向上に大
きく寄与している
41
5.2. Class Activation Mapによる活性領域の可視化
• Compound scalingが最も上手く特徴量を取れていることがわかる
42
5.3. 可視化したモデルの性能比較
• 先で可視化したモデルの性能を比較。FLOPSが同等な一方で精
度は他より大きく改善されており、compound scalingは少ない
FLOPSでより良い性能のモデルが構築できている
43
まとめと感想
• CNNの層数、チャネル数、解像度を単一のパラメータφでチュー
ニングする手法を提案
• 小さいモデルをMNasNetで構築し、3つのパラメータ(α,β,γ)をグ
リットサーチで探索。その後、3パラメータを固定し、φのパラメー
タチューニングを行っている
• 他手法よりも少ないパラメータ数、FLOPSで高性能を実現
• (感想)CNNを単一パラメータでチューニングできるのは感動。予備
実験からの考察も面白い。一方で思った以上にφチューニングに
至るまでのプロセスが多いので改善の余地がありそう。また、学
習率等も一緒にチューニングできると面白そう。
44

More Related Content

What's hot (20)

PDF
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
 
PPTX
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
 
PDF
Optimizer入門&最新動向
Motokawa Tetsuya
 
PDF
【DL輪読会】GPT-4Technical Report
Deep Learning JP
 
PPTX
画像処理AIを用いた異常検知
Hideo Terada
 
PDF
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
Deep Learning JP
 
PPTX
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
PDF
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
 
PDF
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
 
PDF
【DL輪読会】Segment Anything
Deep Learning JP
 
PPTX
Triplet Loss 徹底解説
tancoro
 
PPTX
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida
 
PPTX
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
西岡 賢一郎
 
PDF
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
 
PDF
Attentionの基礎からTransformerの入門まで
AGIRobots
 
PPTX
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
 
PDF
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
Deep Learning JP
 
PDF
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
 
PPTX
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Kento Doi
 
PPTX
モデル高速化百選
Yusuke Uchida
 
Transformerを多層にする際の勾配消失問題と解決法について
Sho Takase
 
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
 
Optimizer入門&最新動向
Motokawa Tetsuya
 
【DL輪読会】GPT-4Technical Report
Deep Learning JP
 
画像処理AIを用いた異常検知
Hideo Terada
 
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
Deep Learning JP
 
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
 
【論文読み会】Self-Attention Generative Adversarial Networks
ARISE analytics
 
【DL輪読会】Segment Anything
Deep Learning JP
 
Triplet Loss 徹底解説
tancoro
 
You Only Look One-level Featureの解説と見せかけた物体検出のよもやま話
Yusuke Uchida
 
大域的探索から局所的探索へデータ拡張 (Data Augmentation)を用いた学習の探索テクニック
西岡 賢一郎
 
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
 
Attentionの基礎からTransformerの入門まで
AGIRobots
 
[DL輪読会]MetaFormer is Actually What You Need for Vision
Deep Learning JP
 
[DL輪読会]Geometric Unsupervised Domain Adaptation for Semantic Segmentation
Deep Learning JP
 
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
 
[解説スライド] NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Kento Doi
 
モデル高速化百選
Yusuke Uchida
 

Similar to [DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (20)

PPTX
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
 
PDF
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
 
PDF
効率的学習 / Efficient Training(メタサーベイ)
cvpaper. challenge
 
PDF
深層学習 - 画像認識のための深層学習 ①
Shohei Miyashita
 
PDF
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
cvpaper. challenge
 
PDF
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
PDF
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Preferred Networks
 
PPTX
Deep learning入門
Keita Neriai
 
PPTX
深層学習とTensorFlow入門
tak9029
 
PDF
画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutio...
Takahiro Kubo
 
PPTX
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
 
PDF
[Dl輪読会]dl hacks輪読
Deep Learning JP
 
PPTX
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
 
PDF
画像認識のための深層学習
Saya Katafuchi
 
PPTX
20190316_Let's try low power-consumption ai with sony's spresense hands-on
Sony Network Communications Inc.
 
PPTX
CNNの構造最適化手法について
MasanoriSuganuma
 
PPTX
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
PDF
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
RCCSRENKEI
 
PPTX
葉物野菜を見極めたい!by Keras
Yuji Kawakami
 
PPTX
Deep Learningについて(改訂版)
Brains Consulting, Inc.
 
PRML 5.5.6-5.6 畳み込みネットワーク(CNN)・ソフト重み共有・混合密度ネットワーク
KokiTakamiya
 
Convolutional Neural Networks のトレンド @WBAFLカジュアルトーク#2
Daiki Shimada
 
効率的学習 / Efficient Training(メタサーベイ)
cvpaper. challenge
 
深層学習 - 画像認識のための深層学習 ①
Shohei Miyashita
 
【CVPR 2020 メタサーベイ】Efficient Training and Inference Methods for Networks
cvpaper. challenge
 
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
 
Deep learningの発展と化学反応への応用 - 日本化学会第101春季大会(2021)
Preferred Networks
 
Deep learning入門
Keita Neriai
 
深層学習とTensorFlow入門
tak9029
 
画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutio...
Takahiro Kubo
 
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
 
[Dl輪読会]dl hacks輪読
Deep Learning JP
 
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
 
画像認識のための深層学習
Saya Katafuchi
 
20190316_Let's try low power-consumption ai with sony's spresense hands-on
Sony Network Communications Inc.
 
CNNの構造最適化手法について
MasanoriSuganuma
 
Image net classification with Deep Convolutional Neural Networks
Shingo Horiuchi
 
DEEP LEARNING、トレーニング・インファレンスのGPUによる高速化
RCCSRENKEI
 
葉物野菜を見極めたい!by Keras
Yuji Kawakami
 
Deep Learningについて(改訂版)
Brains Consulting, Inc.
 
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
PPTX
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
PPTX
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
PPTX
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
Ad

Recently uploaded (10)

PDF
SIG-AUDIO 2025 Vol.02 オンラインセミナー SIG-Audioプレゼン資料_オーディオプラグイン開発_塩澤達矢.pdf
IGDA Japan SIG-Audio
 
PDF
Hyperledger Fabric最新v3.x系での機能強化、変更点にキャッチアップ!
LFDT Tokyo Meetup
 
PDF
生成AIパネルトーク(Interop25Tokyo APPS JAPAN M1-07,M2-07 嶋ポジショントーク)
嶋 是一 (Yoshikazu SHIMA)
 
PDF
プライバシ保護のためのインターネットアーキテクチャの進化 (2025-07-11)
Jun Kurihara
 
PDF
20250710_Devinで切り拓くDB革命_〜価値創出に集中せよ〜.pdf
Masaki Yamakawa
 
PDF
Hyperledger Fabric公式サンプル fabric-samples徹底解説
LFDT Tokyo Meetup
 
PDF
人気ブロックチェーン基盤「Hyperledger Fabric」最新版を動かしてみた!
LFDT Tokyo Meetup
 
PDF
ABC2025S LT講演「世界の窓から Androidこんにちは2025」アプリ自動生成の将来?ロボティクスの夢再び?
嶋 是一 (Yoshikazu SHIMA)
 
PDF
20250630_aws_reinforce_2025_aws_sheild_network_security_director
uedayuki
 
PDF
[Hardening Designers Confernece 2025]ランサムウェアでの見えざるログ・見えるログ
kataware
 
SIG-AUDIO 2025 Vol.02 オンラインセミナー SIG-Audioプレゼン資料_オーディオプラグイン開発_塩澤達矢.pdf
IGDA Japan SIG-Audio
 
Hyperledger Fabric最新v3.x系での機能強化、変更点にキャッチアップ!
LFDT Tokyo Meetup
 
生成AIパネルトーク(Interop25Tokyo APPS JAPAN M1-07,M2-07 嶋ポジショントーク)
嶋 是一 (Yoshikazu SHIMA)
 
プライバシ保護のためのインターネットアーキテクチャの進化 (2025-07-11)
Jun Kurihara
 
20250710_Devinで切り拓くDB革命_〜価値創出に集中せよ〜.pdf
Masaki Yamakawa
 
Hyperledger Fabric公式サンプル fabric-samples徹底解説
LFDT Tokyo Meetup
 
人気ブロックチェーン基盤「Hyperledger Fabric」最新版を動かしてみた!
LFDT Tokyo Meetup
 
ABC2025S LT講演「世界の窓から Androidこんにちは2025」アプリ自動生成の将来?ロボティクスの夢再び?
嶋 是一 (Yoshikazu SHIMA)
 
20250630_aws_reinforce_2025_aws_sheild_network_security_director
uedayuki
 
[Hardening Designers Confernece 2025]ランサムウェアでの見えざるログ・見えるログ
kataware
 

[DL輪読会]EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks