集成学习中的多样性密码:量化学习器的多样性

在集成学习中,多样性是一个关键概念,简单来说,多样性衡量的是各个学习器之间的差异程度。

如果学习器之间差异很大,那么它们的组合就更有可能覆盖更多的情况,从而提高集成模型的性能,

就像足球队需要不同位置的球员配合一样。

下面介绍四种常用的多样性度量方法及其实现。

1. 不合度量(Disagreement Measure)

不合度量是一种非常直观的多样性度量方法。

它通过计算两个学习器在样本上的预测结果不一致的比例来衡量它们之间的差异。

不合度量的值介于0到1之间,值越接近 1,说明两个学习器的预测结果越不一致,多样性越高。

假设我们有两个学习器$ L_1 L_2 x_i , 如 果 L_1 L_2 $的预测结果不同,那么就认为它们在这个样本上“不合”

不合度量就是这种“不合”情况的比例。

为了演示如何度量多样性,我们先创建两个不同的决策树模型:

import numpy as np
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier

# 生成数据
X, y = make_classification(
    n_samples=100, n_features=20, n_informative=10, n_redundant=10, random_state=42
)
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 训练两个不同的决策树
clf1 = DecisionTreeClassifier(random_state=42)
clf2 = DecisionTreeClassifier(random_state=43)
clf1.fit(X_train, y_train)
clf2.fit(X_train, y_train)

# 预测测试集
y_pred1 = clf1.predict(X_test)
y_pred2 = clf2.predict(X_test)

然后,我们看看如何计算两个模型的不合度量Disagreement Measure)。

# 计算不合度量
disagreement = np.mean(y_pred1 != y_pred2)
print(f"不合度量: {disagreement}")

## 输出结果:
# 不合度量: 0.2

2. 相关系数(Correlation Coefficient)

相关系数衡量的是两个学习器预测结果之间的线性相关性

如果两个学习器的预测结果完全一致,相关系数为1

如果完全相反,相关系数为-1

如果两者之间没有线性关系,相关系数接近 0

在集成学习中,我们希望相关系数越低越好,因为这意味着学习器之间的差异更大。

相关系数是通过计算两个学习器预测结果的协方差与它们各自的标准差的比值来得到的。

其公式为:ρ=Cov(L1,L2)σL1σL2

其中,$ Cov(L_1,L_2) 是 协 方 差 , \sigma{L_1} \sigma{L_2} L_1 L_2 $的标准差。

使用代码来计算相关系数也很简单,同样使用上面创建的两个决策树模型。

import numpy as np

# 计算相关系数
correlation = np.corrcoef(y_pred1, y_pred2)[0, 1]
print(f"相关系数: {correlation}")

## 输出结果:
# 相关系数: 0.6637465183030644

3. Q-统计量(Q-Statistic)

Q-统计量是另一种衡量学习器之间一致性和差异性的指标。

它通过比较两个学习器在样本上的预测结果来计算。

Q-统计量的值介于-1 到 1 之间,值越接近 1,说明两个学习器的预测结果越一致;

值越接近-1,说明它们的预测结果越不一致。

Q-统计量的计算公式为:Q=a×db×c(a+b)×(c+d)

其中:

  • a a 是两个学习器都正确预测的样本数
  • b b 是第一个学习器正确预测,第二个学习器错误预测的样本数
  • c c 是第一个学习器错误预测,第二个学习器正确预测的样本数
  • d d 是两个学习器都错误预测的样本数

计算Q-统计量的示例代码如下:

from sklearn.metrics import confusion_matrix

# 计算混淆矩阵
cm = confusion_matrix(y_test, y_pred1, labels=[0, 1])
a = np.sum((y_pred1 == y_test) & (y_pred2 == y_test))
b = np.sum((y_pred1 == y_test) & (y_pred2 != y_test))
c = np.sum((y_pred1 != y_test) & (y_pred2 == y_test))
d = np.sum((y_pred1 != y_test) & (y_pred2 != y_test))

# 计算 Q-统计量
q_statistic = (a * d - b * c) / ((a + b) * (c + d))
print(f"Q-统计量: {q_statistic}")

## 输出结果:
# Q-统计量: 0.5757575757575758

4. k-统计量(Kappa Statistic)

k-统计量是一种衡量分类器性能的指标,它考虑了分类器的正确率和随机猜测的正确率。

在集成学习中,k-统计量可以用来衡量两个学习器之间的多样性。

k-统计量的值介于-1 到 1 之间,值越接近 1,说明两个学习器的预测结果越一致;

值越接近-1,说明它们的预测结果越不一致。

k-统计量的计算公式为:κ=PoPe1Pe κ = P o − P e 1 − P e

其中:

  • Po P o 是两个学习器预测结果一致的比例
  • Pe P e 是随机猜测下两个学习器预测结果一致的比例

计算k统计量的示例代码如下:

from sklearn.metrics import cohen_kappa_score

# 计算 k-统计量
kappa_statistic = cohen_kappa_score(y_pred1, y_pred2)
print(f"Kappa 统计量: {kappa_statistic}")

## 输出结果:
# Kappa 统计量: 0.6116504854368932

5. 指标使用建议

在实际场景中,我们应该如何使用这些指标呢?下面是一些使用建议:

  1. Bagging中优先关注不合度量
  2. 构建Stacking时参考相关系数
  3. 使用Q-statistic诊断高相关模型
  4. Kappa值过低时考虑增加模型类型差异

各个指标的数值可参考:

指标理想范围应用场景
不合度量0.3-0.7快速评估模型差异度
相关系数[-0.5, 0.5]分析模型互补性
Q-统计量(-0.5, 0.5)研究预测结果关联强度
Kappa统计量<0.4综合评估一致性水平

6. 总结

在集成学习中,度量学习器的多样性是非常重要的。

通过计算不合度量相关系数Q-统计量k-统计量,我们可以更好地了解学习器之间的差异。

这些指标可以帮助我们选择合适的集成策略,从而提高集成模型的性能。

在实际应用中,可以根据具体问题选择合适的多样性度量指标,并结合scikit-learn等工具进行计算和分析。

原创作者: wang_yb 转载于: https://www.cnblogs.com/wang_yb/p/18875672
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值