
综述与回顾、年度总结、
文章平均质量分 89
survey
曾小蛙
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【论文目录】2013-2024年AI图像生成技术30篇+经典论文—— 图像生成Diffusion模型演化进程——扩散or自回归 ?
从2013-2024 图像生成,文生图经典论文目录原创 2025-01-20 16:52:51 · 1753 阅读 · 1 评论 -
2024年AI图像生成热门模型回顾
2024.01.04 阿里开源中文文字图像生成2024.01.15 小红书开源InstantID, 上传真人图片的生成ID一致的AI形象2024.02.22 字节开源了 SDXL-Lighting (1,2,4,8步快速出图)2024.03.05 开源了SD3 (重点,因为有论文)2024.03.29 PixArt-Σ (sigma)华为诺亚方舟实验室开源英文4K 文生图模型2024.04 字节提出了视觉自回归文生图模型VAR (2024年某顶会最佳论文)原创 2025-01-06 18:37:42 · 1825 阅读 · 0 评论 -
【综述+LLMs+中文图书】国内团队大语言模型综述(截止2024.02)——A Survey of Large Language Models
大语言模型使用无标注语料库进行预训练,当模型大小达到一定数量,出现智能涌现,能够进行小模型不具备的能力:下文学习,在未经过特定任务微调的情况下能够理解并响应复杂指令**;以及对新任务的适应性,即基于给定的输入示例就能够推断出相应的输出模式原创 2024-03-25 18:11:14 · 2560 阅读 · 0 评论 -
【论文综述+多模态】腾讯发布的多模态大语言模型(MM-LLM)综述(2024.02)
多模态大语言模型:Multimodal Large Language ModelsMM-LLM =预训练单模态模型( 含LLMs) + 微调对齐所有模态 + 输出调整MM-LLMs 利用现成的预训练单模态基础模型,特别是强大的大型语言模型(LLMs), 作为认知核心,赋予各种多模态任务能力。LLMs 提供了稳健的语言生成、zero-shot 迁移能力和上下文学习(ICL)等可取特性在这一领域中,主要关注点是通过多模态预训练(MM PT, Pre-Training)+ 多模态指令调整。原创 2024-02-29 15:43:23 · 7307 阅读 · 0 评论 -
【综述+3D】基于NeRF的三维视觉2023年度进展报告(截止2023.06.10)
NeRF的核心优化手段: 端到端可微渲染(紧致-高效的三维视觉信息表达)从更本质的角度建立了二维图像与三维世界的联系原创 2023-09-04 18:22:57 · 9545 阅读 · 1 评论