【机器学习】西瓜书笔记(二)-线性模型

本文深入解析线性模型的向量形式,包括线性回归的均方误差最小化、对数几率回归的逻辑连接,以及线性判别分析(LDA)的分类原理。了解这些方法如何利用权重解释性,及其在实际任务中的应用和优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文主要记录《机器学习》第三章-线性模型的部分内容。

线性模型基本形式

线性模型的向量形式:
f(x)=wTx+bf(\bm x) = \bm w^T \bm x + b f(x)=wTx+b线性模型形式简单、建模也容易,权重向量w\bm ww直观表达了输入样本x\bm xx各个特征维度在预测中的重要性,从而具有很好的可解释性(comprehensibility),这是线性模型的优点。

另外,线性模型蕴涵机器学习的一些重要思想,许多功能更为强大的非线性模型(nolinear model)是在线性模型的基础上引入 层级结构 或 高级映射 而得。

线性回归

线性模型的经典任务之一就是回归任务,所谓“线性回归”(linear regression)任务,就是试图训练一个线性模型,以尽可能准确地对新样本预测其输出标签。

一般的情形是:
对于给定的数据集D={(x1,y1),(x2,y2),⋯ ,(xm,ym)}D=\{(\bm x_1,y_1), (\bm x_2,y_2), \cdots, (\bm x_m,y_m)\}D={(x1,y1),(x2,y2),,(xm,ym)},其中xi=(xi1;xi2;⋯ ;xid),yi∈R.\bm x_i=(x_{i1}; x_{i2}; \cdots; x_{id}), y_i \in \mathbb R.xi=(xi1;xi2;;xid),yiR. 线性回归的任务是试图学得
f(x)=wTx+b,使得f(xi)≃yi f(\bm x) = \bm w^T \bm x + b,使得f(\bm x_i) \simeq y_i f(x)=wTx+b,使f(xi)yi这称为“多元线性回归”(multivariate linear ergression).

学习的任务就是确定权值向量w\bm ww 以及偏置量bbb,为了便于讨论,记w^=(w;b)\hat {\bm w} = (\bm w; b)w^=(w;b)y=(y1;y2;⋯ ;ym)\bm y = (y_1;y_2;\cdots;y_m)y=(y1;y2;;ym),
在这里插入图片描述
那要如何确定w^\hat {\bm w}w^呢?首先需要有一个衡量模型预测值f(xi)f(\bm x_i)f(xi)与实际值yyy之间差别的指标,常用的一个指标就是均方误差
Ew^=(y−Xw^)T(y−Xw^) E_{\hat {\bm w}} = (\bm y - \bm X\hat {\bm w})^T(\bm y - \bm X\hat {\bm w})Ew^=(yXw^)T(yXw^) 让均方误差最小化,可得到w^\hat {\bm w}w^,即w^∗=arg⁡min⁡w^(y−Xw^)T(y−Xw^) \hat {\bm w}^* = \arg \min_{\hat {\bm w}} (\bm y - \bm X\hat {\bm w})^T(\bm y - \bm X\hat {\bm w}) w^=argw^min(yXw^)T(yXw^)进而得到多元线性回归模型。

对数几率回归

线性模型的应用除了回归任务外,还有分类任务
当线性模型应用于分类任务时,只需要找到一个单调可微函数将分类任务的真实标记 yyy 与回归模型的预测值联系起来。

以二分类任务为例,输出标记y∈{0,1}y\in\{0,1\}y{0,1},而线性回归模型产生的预测值z=wTx+bz = \bm w^T \bm x+ bz=wTx+b是实数值,为了将两者联系起来,需要找到一个单调可微函数,常用的是对数几率函数(logistic function):y=11+e−z y = \frac{1}{1 + e^{-z}} y=1+ez1这个函数将zzz值转化为一个接近0或1的值,将z=wTx+bz = \bm w^T \bm x+ bz=wTx+b代入得到y=11+e−(wTx+b)⇒ln⁡y1−y=wTx+b y = \frac{1}{1 + e^{-( \bm w^T \bm x+ b)}} \quad \Rightarrow \quad \ln\frac{y}{1-y} = \bm w^T \bm x+ b y=1+e(wTx+b)1ln1yy=wTx+b可以看出,这样的模型实际上是在用线性回归模型的预测结果 wTx+b\bm w^T \bm x+ bwTx+b 去逼近真实标记yyy的对数几率ln⁡y1−y\ln\frac{y}{1-y}ln1yy,因此被称为“对数几率回归”(logistic regression)模型。虽然名字是“回归”,但实际上是一种分类学习方法

上述方法的优点:

  1. 直接对分类可能性建模,无须事先假设数据分布
  2. 不仅能预测出“类别” ,而且可以得到近似概率预测,在一些需要利用概率辅助决策的任务中将会很有用
  3. 对数几率函数是任意阶可导的凸函数,有很好的数学性质,现有的很多数值优化算法可直接用于求取最优解

确定上述模型中的w和b\bm w和bwb,可通过“极大似然法”来估计。

线性判别分析(LDA)

线性判别分析(Linear Discriminant Analysis, LDA)的基本思想如下:

给定训练样本集,设法将所有样本投影到一条直线,使得属于同一类的样本在该直线上的投影点尽可能接近、而属于不同类的样本的投影点尽可能远离;训练完模型,在应用到新样本时,即对新样本进行分类时,将其投影到同样的直线,根据新样本的投影点到各类样本中心点的距离来确定其类别,距离哪一类近,就属于哪一类。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值