SlideShare a Scribd company logo
5
Most read
7
Most read
18
Most read
1
DEEP LEARNING JP
[DL Papers]
http://deeplearning.jp/
StyleGAN-T: Unlocking the Power of GANs for Fast Large-
ScaleText-to-Image Synthesis
University ofTsukuba M1,Yuki Sato
2023/2/17
書誌情報
StyleGAN-T: Unlocking the Power of GANs for
Fast Large-Scale Text-to-Image Synthesis
Axel Sauer1,2, Tero Karras2, Samuli Laine2,
Andreas Geiger1,Timo Aila2,
1University of Tübingen, Tübingen AI Center 2NVIDIA
• 投稿先: arXiv(2023/01/23)
• プロジェクトページ: https://github.com/autonomousvision/stylegan-t
• 選定理由:
Ø StyleGANをText-to-Imageへ応用.
Ø Diffusion modelが主流となっているText-to-Imageタスクにおいて,GANの立ち位置を明確
化.
※出典が明記されていない限り図表は論文・プロジェクトページより引用
2
2023/2/17
概要
• 幅広い構造を含むデータを学習
可能なStyleGAN-XL[1]をベース
に,⼤規模なtext-to-Imageモデル
を構築,学習させた.
• StyleGAN-Tでは⾼速かつ⾼品質
な画像⽣成を実現した.
3
1. Sauer, Axel, Katja Schwarz, and Andreas Geiger. "Stylegan-xl: Scaling stylegan to large diverse datasets." ACM SIGGRAPH 2022
conference proceedings. 2022.
2023/2/17
背景: text-to-image におけるGAN
⼤規模で多様なドメインを含むImageNetでの学習を安定に⾏えるStyleGAN-
XLをベースとして,StyleGANの利点を活かしつつ,text-to-imageへ応⽤できな
いか.
4
2023/2/17
StyleGAN[2]に⾒られるGANは潜在空間を制御することで,⽣成画像を制御可能
であり,また,⾼速な画像⽣成が可能である.
GANのメリット
GANのデメリット
データ数が少なく,狭いドメインのデータセットでは⾼い精度を⽰すが,データ
数が急速に増加しているこのタスクでは安定した学習が難しい.
– テキストデータから画像を⽣成するtext-to-imageでは,Diffusion Model(DM)や
Autoregressive Model(ARM)が主流である.
2. arras, Tero, Samuli Laine, and Timo Aila. "A style-based generator architecture for generative adversarial networks." Proceedings of the
IEEE/CVF conference on computer vision and pattern recognition. 2019.
StyleGAN-XL
• StyleGANの⽣成画像を制御可能な設計がImageNetの
ような⼤規模で多様なデータセットで著しく性能が低
下するという問題に対処した.
• StyleGAN3[3]をベースとして以下の点を改良した.
1. 正則化の廃⽌
2. 潜在変数の低次元化(512→64), Projected GAN[4]の導⼊
3. 各クラスラベルの埋め込み表現の事前学習
4. 徐々に⽣成画像の解像度を上げるProgressive Growingの再
導⼊
5. Feature NetworkとしてCNNとViTの2つのネットワークを
使⽤
6. Classifier Guidance[5]の導⼊
5
2023/2/17
3. Karras, Tero, et al. "Alias-free generative adversarial networks." Advances in Neural Information Processing Systems 34 (2021): 852-863.
4. Sauer, Axel, et al. "Projected gans converge faster." Advances in Neural Information Processing Systems 34 (2021): 17480-17492.
5. Dhariwal, Prafulla, and Alexander Nichol. "Diffusion models beat gans on image synthesis." Advances in Neural Information Processing
Systems 34 (2021): 8780-8794.
StyleGAN-T
• StyleGAN-XLをベースにtext-to-Imageタスクへ拡張した.
6
2023/2/17
StyleGAN-T: Generator
• StyleGAN2のGeneratorをベースとする.
– StyleGAN3で導⼊された変形に対する等価性は
このタスクでは必要なく,計算コストが⼤きくな
るため.
• Residual blockを導⼊.
– ⼤規模データセットを学習できるように層を深
くした際の,学習の安定化のため.
• Layer scaleの導⼊.
– 深い層の学習を改善するため.
7
2023/2/17
StyleGAN-T: Generator
• CLIPから得られる特徴量𝑐!"#!を潜在変数𝑤
に直接concatする.
– 𝑐!"#!が⽣成画像のスタイルに⼤きく影響するた
め.
• ⽣成した各層のスタイル ̃
𝑠について,3つのベ
クトル ̃
𝑠$ , ̃
𝑠% , ̃
𝑠&に分解して,
𝑠 = ̃
𝑠$ ⊙ ̃
𝑠% + ̃
𝑠&として⼊⼒する.
– そのまま⼊⼒するより表現⼒が増加する(ポリノ
ミアルネットワーク[6],[7]で提案されている).
8
2023/2/17
6. Chrysos, Grigorios G., et al. "P-nets: Deep polynomial neural networks." Proceedings of the IEEE/CVF Conference on Computer Vision and
Pattern Recognition. 2020.
7. Chrysos, Grigorios, Markos Georgopoulos, and Yannis Panagakis. "Conditional generation using polynomial expansions." Advances in
Neural Information Processing Systems 34 (2021): 28390-28404.
StyleGAN-T: Discriminator
• Discriminatorの⼊⼒に,微分可能な変換を適
⽤する.
• ⼊⼒が224%となるようにランダムクロップ.
• Feature Networkには,⾃⼰教師あり学習を
⽤いたDINOを⽤いる.
– ⾃⼰教師あり学習による事前学習は精度向上に
有効.
9
2023/2/17
𝑐!"#!
Generated Image
StyleGAN-T: text encoder
• Text encoderには事前学習済みのCLIP text
encoderを⽤いる.
• ⽣成画像をCLIP image encoderに通して得
られる𝑐()*+"と,𝑐!"#!の球⾯距離の2乗誤差
を損失として⽤いる.
𝐿$%&' = arccos((𝑐)*+," * 𝑐!"#!)
– ⼊⼒されたテキストと⽣成画像のキャプション
が近づくように制約をつける.
– 学習に⼤きな影響を与えるため,重み付けを⾏
う.(論⽂内では0.2)
• 実験より𝐿,-./が有効であるのは64%の解像
度までと確認されたため,⾼解像度では64%
にランダムクロップして適⽤.
10
2023/2/17
StyleGAN-T: 学習⽅法
• 2つの学習⽅法を⽤いる.
– Phase 1: Text encoderを固定して学習する.
– Phase 2: Generatorを固定して学習する.
• 実験では,phase1で64%の解像度まで学習を⾏い,その後phase2の学習を挟ん
で,phase1の学習を最後まで⾏う.
– phase1の事前学習で得られるGeneratorを⽤いることで,⽣成された低解像度画像にアーチ
ファクトが出ることを防ぐことが可能である.
– Phase2では,アーチファクトを発⽣させずに𝐿$%&'を⼤きくして学習が可能である.これにより,
画像の品質を保ったまま,text encoderの精度を改善可能である.
– Phase2が収束したのち,phase1を再開する.
2023/2/17 11
StyleGAN-T: truncation trick
• StyleGANでは,類似した画像ばかりを⽣成
することを防ぐために導⼊した.
• StyleGAN-Tでは,潜在変数𝑤について,𝑐!"#!
をconcatする前の潜在変数に基づいて,潜在
変数を変換した.
• 実験より,truncationによりスケーリングパ
ラメータ𝜓を⼩さくすると,CLIPスコアが⼤
きくなり,⼊⼒に忠実になるが,⽣成画像の多
様性が⼩さくなった.
2023/2/17 12
実験設定
• 学習には複数のデータセットを⽤い,合計25億個の画像とテキストのペアデータを
⽤いた.
• 学習時間の合計はStable Diffusion[8]の
$
0
程度に抑えられた.
2023/2/17 13
8. CompVis. Stable diffusion model card, 2022. https://github.com/CompVis/stable-diffusion/blob/main/Stable_Diffusion_v1_Model_Card.md
評価⽅法
• zero-shot MS COCOを⽤いた性能評価を⾏った.
– 64(, 256(の2つの解像度で評価した.
• 評価指標としてFIDとCLIP scoreを⽤いた.
– 学習で⽤いたCLIPとは異なるモデルでCLIP scoreを算出した.
2023/2/17 14
実験結果: ⽣成精度の評価
• 64%では最も良い精度であり,かつ⽣成
速度も速かった.
• 256%ではGANモデルの中では最も良
い精度だが,DMに劣る精度だった.
2023/2/17 15
実験結果: ⽣成画像の多様性と⼊⼒への忠実度
• truncationを⾏う事で,FID, CLIP
scoreの両⽅でSD-distilledを上回った.
– SD-distilledではサンプリングのステップ
数を増加,eDiff-Iではguidance scaleを増
加させることがtruncationにあたる.
– ⽣成速度について,eDiff-Iが32s,
SD-distilledが0.6sであったのに対
し,StyleGAN-Tは0.1sであった.
• Phase2でtext encoderを学習するこ
とで,FIDを⼤きく上昇させる事な
く,CLIP scoreを⼤幅に向上させるこ
とができていた.
2023/2/17 16
実験結果: 視覚評価
• 潜在変数を変化させた際,⽣成された
画像も滑らかに変化していた.
• 様々なスタイルの画像を⽣成可能で
あった.
2023/2/17 17
考察
• GANは低解像度画像における⼤規模text-to-image syntehsisにおいて,DM以上の
性能を持っていた.
• eDiff-Iが64% → 256%でFIDが減少したのに対し,StyleGAN-Tでは上昇してお
り,StyleGAN-Tの超解像モデルは性能が低かった.
– この差を,⻑時間の学習やモデルの拡張で埋めらるかは不明.
• DALL-E2[9]と同様に,オブジェクトの結合やテキストの⽣成は失敗した.
– CLIPよりも巨⼤な⾔語モデルを使⽤することで解決できると考えている.
2023/2/17 18
9. Ramesh, Aditya, et al. "Hierarchical text-conditional image generation with clip latents." arXiv preprint arXiv:2204.06125 (2022).
Future works
• 𝐿,-./によるアーチファクトが発⽣するため,⾼解像度の画像でCLIPを再学習する
などDiscriminatorの条件付けについて⾒直す必要がある.
• GANにおけるtruncationは,DMのguidanceと異なるため,truncationにかわる⼿法
を⾒つければ,改善の余地がある.
• モデルの巨⼤化と学習時間の増加による⾼解像度画像の⽣成精度向上.
2023/2/17 19
感想
• ⽣成精度はDMと⽐較して数値以上に劣っているよう
に⾒える.
– LDMと⽐較して潜在変数の次元が⾮常に⼩さく,上⼿く情報を
圧縮できていない.
• データセットのドメインを絞ってfine-tuningなどする
とどうなるか.
– 画像のドメインが絞られれば,必然的にテキストの表現も限ら
れるため,StyleGANが得意とする学習内容となる.
• 超解像モデルをLDMのようなDecoderにするとどうな
るか.
– LDMではテキストによる条件付けは潜在変数にしか⾏ってお
らず,Decoderによる⾼解像度化の処理には含まれていない.
2023/2/17 20

More Related Content

What's hot (20)

PDF
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
 
PDF
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
Deep Learning JP
 
PDF
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
Deep Learning JP
 
PDF
[DL輪読会]Causality Inspired Representation Learning for Domain Generalization
Deep Learning JP
 
PPTX
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
PDF
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
 
PDF
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
 
PPTX
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Deep Learning JP
 
PPTX
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
PDF
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
cvpaper. challenge
 
PPTX
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
PPTX
畳み込みLstm
tak9029
 
PDF
【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features
Deep Learning JP
 
PDF
GAN(と強化学習との関係)
Masahiro Suzuki
 
PPTX
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
 
PDF
CV分野におけるサーベイ方法
Hirokatsu Kataoka
 
PDF
【メタサーベイ】Vision and Language のトップ研究室/研究者
cvpaper. challenge
 
PDF
【DL輪読会】Scaling laws for single-agent reinforcement learning
Deep Learning JP
 
PPTX
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
 
PDF
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
 
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
Deep Learning JP
 
【DL輪読会】"Masked Siamese Networks for Label-Efficient Learning"
Deep Learning JP
 
[DL輪読会]Causality Inspired Representation Learning for Domain Generalization
Deep Learning JP
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
 
Anomaly detection 系の論文を一言でまとめた
ぱんいち すみもと
 
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
 
【DL輪読会】ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Deep Learning JP
 
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
 
【メタサーベイ】Transformerから基盤モデルまでの流れ / From Transformer to Foundation Models
cvpaper. challenge
 
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
 
畳み込みLstm
tak9029
 
【DL輪読会】Domain Generalization by Learning and Removing Domainspecific Features
Deep Learning JP
 
GAN(と強化学習との関係)
Masahiro Suzuki
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII
 
CV分野におけるサーベイ方法
Hirokatsu Kataoka
 
【メタサーベイ】Vision and Language のトップ研究室/研究者
cvpaper. challenge
 
【DL輪読会】Scaling laws for single-agent reinforcement learning
Deep Learning JP
 
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
 

Similar to 【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-Image Synthesis (20)

PPTX
Ocha 20191204
Atsushi Hashimoto
 
PDF
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
 
PPTX
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
 
PDF
グラフデータ分析 入門編
順也 山口
 
PDF
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Daiki Shimada
 
PPTX
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
 
PPTX
CNNの構造最適化手法について
MasanoriSuganuma
 
PPTX
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Takumi Ohkuma
 
PPT
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
kanejaki
 
PDF
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks
 
PPTX
Graph Neural Networks
tm1966
 
PPTX
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
 
PDF
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19
Tatsuya Shirakawa
 
PDF
先端技術とメディア表現 第1回レポートまとめ
Digital Nature Group
 
PDF
NeurIPS2021論文読み会 (parameter prediction for unseen deep architecture)
Kshinmei
 
PDF
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
PDF
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
MasanoriSuganuma
 
PPTX
【DL輪読会】Reflash Dropout in Image Super-Resolution
Deep Learning JP
 
PDF
The SGGX Microflake Distribution 実装
Takashi Imagire
 
PDF
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
Akira Shibata
 
Ocha 20191204
Atsushi Hashimoto
 
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
 
CNNの構造最適化手法(第3回3D勉強会)
MasanoriSuganuma
 
グラフデータ分析 入門編
順也 山口
 
Adversarial Networks の画像生成に迫る @WBAFLカジュアルトーク#3
Daiki Shimada
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
Deep Learning JP
 
CNNの構造最適化手法について
MasanoriSuganuma
 
「解説資料」ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation
Takumi Ohkuma
 
第18回コンピュータビジョン勉強会@関東「ICCV祭り」発表資料(kanejaki)
kanejaki
 
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
Preferred Networks
 
Graph Neural Networks
tm1966
 
[DL輪読会]Life-Long Disentangled Representation Learning with Cross-Domain Laten...
Deep Learning JP
 
医療ビッグデータの今後を見通すために知っておきたい機械学習の基礎〜最前線 agains COVID-19
Tatsuya Shirakawa
 
先端技術とメディア表現 第1回レポートまとめ
Digital Nature Group
 
NeurIPS2021論文読み会 (parameter prediction for unseen deep architecture)
Kshinmei
 
【DLゼミ】XFeat: Accelerated Features for Lightweight Image Matching
harmonylab
 
When NAS Meets Robustness: In Search of Robust Architectures against Adversar...
MasanoriSuganuma
 
【DL輪読会】Reflash Dropout in Image Super-Resolution
Deep Learning JP
 
The SGGX Microflake Distribution 実装
Takashi Imagire
 
makoto shing (stability ai) - image model fine-tuning - wandb_event_230525.pdf
Akira Shibata
 
Ad

More from Deep Learning JP (20)

PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
PPTX
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
PPTX
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
PPTX
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
PPTX
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
 
【DL輪読会】事前学習用データセットについて
Deep Learning JP
 
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
 
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
 
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
 
【DL輪読会】マルチモーダル LLM
Deep Learning JP
 
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
 
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
 
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
 
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
 
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
 
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
 
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
 
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
 
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
 
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
 
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
 
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
 
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
 
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
 
Ad

Recently uploaded (8)

PDF
PostgreSQL18新機能紹介(db tech showcase 2025 発表資料)
NTT DATA Technology & Innovation
 
PDF
論文紹介:OVO-Bench: How Far is Your Video-LLMs from Real-World Online Video​ Unde...
Toru Tamaki
 
PPTX
Devcontainerのススメ(1)-Devcontainerとはどういう技術?-
iPride Co., Ltd.
 
PDF
【AI論文解説】 RLHF不要なLLMの強化学習手法: Direct Preference Optimization(+α)
Sony - Neural Network Libraries
 
PDF
20250711JIMUC総会_先進IT運用管理分科会Connpass公開資料.pdf
ChikakoInami1
 
PDF
20250717_Devin×GitHubCopilotで10人分の仕事は出来るのか?.pdf
Masaki Yamakawa
 
PDF
Google Driveハブ型Obsidian同期環境:PC編集とモバイル閲覧を安全・効率的に実現するクロスデバイス構築ガイド
honeshabri
 
PDF
20250711JIMUC総会IBM Automation_Platform最新情報_Connpass公開版.pdf
ChikakoInami1
 
PostgreSQL18新機能紹介(db tech showcase 2025 発表資料)
NTT DATA Technology & Innovation
 
論文紹介:OVO-Bench: How Far is Your Video-LLMs from Real-World Online Video​ Unde...
Toru Tamaki
 
Devcontainerのススメ(1)-Devcontainerとはどういう技術?-
iPride Co., Ltd.
 
【AI論文解説】 RLHF不要なLLMの強化学習手法: Direct Preference Optimization(+α)
Sony - Neural Network Libraries
 
20250711JIMUC総会_先進IT運用管理分科会Connpass公開資料.pdf
ChikakoInami1
 
20250717_Devin×GitHubCopilotで10人分の仕事は出来るのか?.pdf
Masaki Yamakawa
 
Google Driveハブ型Obsidian同期環境:PC編集とモバイル閲覧を安全・効率的に実現するクロスデバイス構築ガイド
honeshabri
 
20250711JIMUC総会IBM Automation_Platform最新情報_Connpass公開版.pdf
ChikakoInami1
 

【DL輪読会】StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-Image Synthesis