[Semantic Seg][KD]FreeKD: Knowledge Distillation via Semantic Frequency Prompt

1. BaseInfo

TitleFreeKD: Knowledge Distillation via Semantic Frequency Prompt
Adresshttps://arxiv.org/abs/2311.12079
Journal/TimeCVPR 2024
Author北大,浙大
Code
Read

2. Creative Q&A

Knowledge Distillation, KD

  1. 目前知识蒸馏的问题:但教师模型在空间域的连续下采样会干扰学生模型分析需模仿的特定信息,导致精度下降。频域蒸馏面临新挑战,低频带上下文信息,高频带信息更丰富但引入噪声,且并非频带内每个像素对性能贡献相同。
  2. 提出 Frequency Prompt,插入教师模型,在微调时吸收语义频率上下文。
  3. 蒸馏期间,通过 Frequency Prompt 生成像素级频率掩码,定位不同频带中感兴趣像素(Pol)。
  4. 针对密集预测任务,采用位置感知关系频率损失,为学生模型提供高阶空间增强。
    该方法称为 FreeKD,可确定频率蒸馏的最佳定位和范围。
    在这里插入图片描述

在空间域,随着下采样比例增加,图像分辨率降低;在频域,不同下采样比例呈现出不同的频率信息分布,直观呈现下采样操作对图像在空间域和频域表现的影响

在这里插入图片描述

(a) Token Insertion:提示作为 token 插入编码器层。
(b) Sum - wise Insertion:提示在输入图像 RGB 通道上求和插入。
© Ours Insertion(本文方法):提示与中间特征相互作用,从中间特征中提炼频率信息,定位感兴趣像素(Pol)并优化频率带,更好地服务于知识蒸馏过程 。
以往知识蒸馏多使用传统损失函数(如 Kullback - Leibler 散度、均方误差 )处理分类和回归输出或中间特征。


频域
这个没怎么看懂暂时放过。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值