一些大佬的可解释人工智能的优质资料整理及总结(更新中)

本文探讨了Transformer系列模型,特别是VIT模型的可解释性,涉及人机交互式解释方法,并对深度学习的可解释性进行了入门概述,强调了可解释性在AI中的重要性,如准确性、相关性和实际应用需求。同时提到了图宾根大学的机器学习可解释性研究课程资源。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

针对Transformer系列模型的模型可解释性分析: 

1.关于Transformer可解释性的介绍: Transformer模型的可解释性

内容总结: 

2. 关于VIT模型的可解释性研究介绍:  Vision Transformer的可解释性 

内容总结: 

3. 关于Human-in-the-loop的可解释性算法介绍:深度学习的可解释性 XAI-6-人机交互类解释(Human-in-the-loop Explanation)

 内容总结: 

4.关于可解释深度学习入门综述:

 深度学习的可解释性 XAI-1-综述

 深度学习的可解释性 XAI-2 面向测试集数据的解释

深度学习的可解释性 XAI-4 面向模型自身的解释

内容总结:

   1.可解释机器学习算法的分类:Intrinsic / post-hoc, Global / local explainability, Attributing to training sample / test sample;

   2. 什么是可解释性:通过观察intrinsically explainable model的特点,如线性模型:线性模型的解释,各个自变量就是生成因变量的依据,自变量的系数就是各个自变量影响力的大小;决策树:模型一看就懂,先根据跟节点做判断,最后再根据叶节点做判断。其它建议看链接的原文。

   3. 为什么人工智能模型需要可解释性:一个相对容易理解的系统更容易被控制;可解释性作为一个工具,可以给很多应用提供帮助(例如在医疗和法律领域提高信任度;在Fairness和Robustness这2个领域中帮助选择正确的特征。);可解释性是客户的权力(一些地区的法律规定)

   4. 什么是好的可解释模型(可解释模型的评价)

   (1)Soundness准确性、正确性):确定事件的真实原因,大部分可解释性算法满足的都是这个,比如常见的saliency map;

   (2)Relevance(相关性):与最终目标保持一致,需要根据解释目标进行可解释优化,实际应用中,这个因素考虑得更多。因为这类特点将客户的需求考虑进来了,所以就不能只给客户一个类似上面的图。比如有时候需要给一个具体的文字解释,有时候需提升客户使用你AI产品的信心等等;

  (3)其它的评价指标。如,简单(尽可能使用更少的特征)、通用(可解释性算法能适用于更多的应用场景)等等                   

4. 国外图宾根大学的可解释性研究课程:机器学习可解释性研究 

内容总结: 包含了机器学习模型泛化性,不确定性,可解释性研究的课件内容,适合后期拓宽研究视野查看。里面推荐了很多相关的论文,其中关于可解释性的论文我已经全部下载完成。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Trouville01

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值