高斯噪声的均值和方差_高斯过程和高斯过程回归

本文介绍了高斯过程及其在机器学习中的应用,特别是在高斯过程回归中的作用。详细讨论了多元高斯分布的定义和性质,以及在贝叶斯线性回归中的应用。还深入探讨了高斯过程的无限域定义、平方指数核,以及在Gauss Process Regression中的预测方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

f32152cb1a0443d6b15f671af0ad25e6.png

本文未经允许禁止转载,谢谢合作。

本文我们介绍高斯过程及其在机器学习中应用的一个例子——高斯过程回归。

高斯过程在语音合成中有广泛的应用,我计划在之后的文章中介绍一些应用,但本节我们重点讨论相关的基础知识。

本文的大部分内容来自Stanford CS229-gaussian_process,有兴趣的同学可以去看英文原版。

明天是元旦,因此也祝大家元旦快乐。

1. 多元高斯分布

1.1 定义

设随机变量

equation?tex=x+%5Cin+R%5En服从均值为μ,协方差矩阵是Σ的
多元高斯分布,如果:

18e8c9c488ce8b3864b2e483a3b84ab8.png

我们用

equation?tex=x+%5Csim+%5Cmathcal%7BN%7D%28%5Cmu%2C+%5CSigma%29来表示。这里Σ是对称正定的n × n矩阵。

多元高斯变量在机器学习中非常常用,主要是因为它有下面两个特点:

① 可以用来建模噪声

② 在很多积分中,如果有高斯分布,则很多情况下可以得到简单的封闭形式的解。

1.2 性质

我们首先假设x被分成了两个部分

equation?tex=x_A
equation?tex=x_B,μ和Σ也一样,满足下式:

06149af0fc7c56ace74534805d7e3788.png

那么有下面的性质成立:

① Normalization

2d2a08ef58a06ca1e4f3505c9acff7e0.png

② Marginalization

equation?tex=x_A
equation?tex=x_B的边缘分布:

4d266c8ad5e157a203a56f5108dafde5.png

也是多元高斯分布,满足:

ce1f482047b7b8703ff71558f4c3cd5a.png

③ Conditioning

以高斯随机变量作为条件的分布还是高斯分布,比如:

6700b210b82815da257b72add5f2158f.png

满足:

9a9c5a9a991d72aa765351522d7f0305.png

证明比较繁琐,这里略过,但这个结论对后面的讲解比较重要,大家需要重点关注一下。

④ Summation

相同维度的独立高斯随机变量的和仍然满足高斯分布:

ec4bbc8f019d57f4b9ae6d0ba14ec943.png

2. Bayesian Linear Regression

equation?tex=S+%3D+%5C%7B%28x_i%2Cy_i%29%5C%7D_%7Bi%3D1%7D%5Em是训练集,分布未知。

回忆线性回归模型:

cfde4806f3c3a04beeaaf1840922549a.png

这里

equation?tex=%5Cvarepsilon_%7Bi%7D是独立同分布的噪声随机变量,服从
equation?tex=%5Cmathcal%7BN%7D%280%2C+%5Csigma%5E2%29,很容易可以得到:

70402cb2a03d461ea64174318f8dd520.png

如果给定了

equation?tex=%5Ctheta
equation?tex=x,那么上式可以等价地表示为:

d53f5b23ec7cf099453584f0bd11519d.png

我们定义下面的符号,用来简化符号:

8d568a8ead1319f0c1f18673adc1e68f.png

当然,参数

equation?tex=%5Ctheta一般是未知的。

为了处理参数,在贝叶斯线性回归中,我们一般会假设参数

equation?tex=%5Ctheta服从一个先验分布,最典型的就是高斯分布:

931a9cda3a3660264ef7ecd91e665b16.png

使用贝叶斯规则,我们可以得到parameter posterior

bc8c592e048c9c0b7abaf67968ebe0c1.png

在这种情况下,如果我们假设测试集中的点也满足和训练集一样的模型,那么贝叶斯回归的输出就不是一个固定的点,而是输出的分布:

8368074d8d6d9d1a4f54c3f0266eee7b.png

我们称这个分布为posterior predictive distribution

当然,上面的式子看起来优雅,但是对于很多模型来说,实际计算时却是基本算不出来的,因为随着训练集或者参数维度的增加,复杂度就会飞速增长。因此一般情况下我们会避开直接计算,使用估计的方法来计算上式,比如最典型的MAP估计。

幸运的是,在贝叶斯回归中,上式是可以计算出来的,经过复杂的计算我们可以得到:

d09019f88720c86cd9a50fe999023e6e.png

其中:

9d8489b3c5808ae045dad01c0bce8bb9.png

从上式中我们可以发现,任何测试点

equation?tex=y%5E%2A的分布都服从某个高斯分布,从直觉上来说,这是因为我们假设参数
equation?tex=%CE%B8和噪声
equation?tex=%5Cvarepsilon都满足高斯分布。

与此相对照,回忆在最简单的线性回归中我们的做法,我们对参数

equation?tex=%CE%B8和偏移
equation?tex=b都没有指定概率分布,而是根据训练集和某个指标(比如MSE)来直接得到参数。

“不确定性”就是两者之间最根本的区别。

0bfaaf3a655cc7a574db95e729cb1b23.png

3. 高斯过程

高斯过程是多元高斯分布在无限实变量集上的扩展。不同于多元高斯分布,高斯过程甚至允许我们考虑随机函数(random function)的分布。

我们这里解释一下随机函数这个概念,一般来说我们理解的随机变量的“随机”都体现在其值上,但在这里,随机函数的“随机”则体现在它的映射规则上,然而,虽然映射是随机的,但一旦我们确定了映射,则函数的值就是确定的。

3.1 有限域上的随机函数概率分布

equation?tex=%5Cmathcal%7BX%7D+%3D+%5C%7Bx_1%2C...%2Cx_m%5C%7D实任意有限集,我们考虑所有可能的
equation?tex=f%3AX%5Crightarrow+R所组成的函数集合
equation?tex=%5Cmathcal%7BH%7D,比如:

9df249ffe00f3a3983f48382e1345210.png

因为

equation?tex=f的定义域是有限的,因此我们可以用向量来表示这个函数:

cf4dd11d83e2b08f513585cbb1029890.png

这种向量表示为我们将概率分配给某个函数提供了一种渠道,我们假设:

ca21767ee124349b81e08cf01a93104f.png

这样我们就可以得到

equation?tex=f的pdf:

f98a72bf37f02ba5b8c8f710c784fe4c.png

上面的例子是典型的有限定义域上随机函数的建模方法,那么无限域上怎么做呢?

3.2 无限域上的随机函数概率分布和高斯过程

所谓随机过程就是一个随机变量的集:

8fd23b7b4ba5489378ea78b7de782e7f.png

这里

equation?tex=%5Cmathcal%7BX%7D是index set。

我们定义高斯过程是一个随机过程,满足随机变量集合的任意有限子集都服从多元高斯分布。

为了解释这个性质,我们定义均值函数(mean function)

equation?tex=m%28x%29和协方差函数
equation?tex=k%28x1%2Cx2%29

如果随机变量集

c882f33bb8eb0e2a17629e49f6f4e13a.png

是从均值函数为

equation?tex=m、协方差函数为
equation?tex=k的高斯过程中取出的变量集,那么对于任意有限集合:

3d71bce7e00c2d9d4db6308eac85c43d.png

它们相对应的随机变量f(xi)服从多元高斯分布:

6dac97f1f2b49b8acb6d363b17c10bfc.png

记为:

452a2c52086f524e59ac3ab22a924686.png

我们可以将均值函数和协方差函数理解为,对任意

equation?tex=x%2Cx%5E%7B%27%7D+%5Cin+%5Cmathcal%7BX%7D,有:

803f8ce8b60430a6a7efcb6fd215915b.png

给定定义之后,我们可能会问,什么样的

equation?tex=m
equation?tex=k才是有效的呢?从均值和协方差的角度我们可以想象到,
equation?tex=m可以是任何实函数,但是对于
equation?tex=k,由于:

0a83f8eae623d56072287f8767d54a5e.png

是一个多元高斯分布的协方差矩阵,因此

equation?tex=K必须是半正定的。

看到这个条件,对SVM中核函数很熟悉的同学应该懂了,这个条件其实和合法核函数的条件(Mercer条件)是等价的,因此任何合法的核函数都可以作为协方差函数

equation?tex=k

你可能已经发现,在上一节中我们利用多元高斯分布解决了有限域上的随机函数的定义问题,既然高斯过程定义在无限域上,那么我们在上一节最后提出的问题也就迎刃而解。

3.3 平方指数核

考虑零均值高斯过程(今后为了简便,称高斯过程为GP):

261be8818425354bc81fe2eaecae27ff.png

作为对随机函数

equation?tex=h%3A+X%5Crightarrow+R的定义。这里我们令
equation?tex=X%3DR,我们选择平方指数核(也就是SVM中的高斯核)作为核函数:

6655bc6e5dc5a32fad97fc5d43c47136.png

这里

equation?tex=%CF%84%3E0

这个随机函数

equation?tex=h是什么样的呢?

首先,我们知道任意采样点的均值为0,那么函数肯定在0附近振荡。另外,由于我们使用的是平方指数核,当采样点越近,则协方差越接近1,反之当采样点距离远,则协方差接近0.

什么意思呢?协方差为1说明点和点之间的关联性高,因此函数在局部应该是平滑的,而协方差为0说明关联性低,则振荡幅度变大。另外,超参数τ实际上控制了函数整体的平滑程度,如下图所示:

ac818263760214e30e3221382d67e372.png

4. Gauss Process Regression

GP提供了建模无限域上随机函数的方法,这一节我们介绍如何将随机函数的概率分布的概念应用到贝叶斯回归的框架上。

4.1 模型

equation?tex=S为训练集,训练数据独立同分布,分布未知,我们定义高斯过程回归模型(Gaussian Process Regression,以下简称GPR)的表达式为:

ab97c9eb80a9b129e8499a92458627a7.png

其中

equation?tex=%5Cvarepsilon_i是独立同分布的噪声变量,服从
equation?tex=%5Cmathcal%7BN%7D%280%2C+%5Csigma%5E2%29

和贝叶斯线性回归一样,我们需要为函数

equation?tex=f假设一个prior distribution,在GPR中,我们假设
equation?tex=f服从均值为0的GP:

69ed8b3c798f28af32d795c3106c4dea.png

现在设

equation?tex=T是测试集,独立同分布且和
equation?tex=S的分布相同。

定义:

d3ec429134e99a74d52f8624fcf1a390.png

我们的任务就是计算posterior predictive distribution

equation?tex=P%28y%5E%2A%7Cx%5E%2A%2C+S%29,虽然接下来会讲计算的方法,但是我们可以先猜测一下这个概率分布是什么,直觉告诉我们,既然
equation?tex=f满足GP,噪声
equation?tex=%5Cvarepsilon也满足高斯分布,那么这个分布就一定是高斯分布。

4.2 预测

根据高斯过程的性质,有:

7c020ab23f1b467c63bf709231bea46a.png

其中:

16cbb2ea1b210bec192f7aa9dd1da1c5.png

同样的,对噪声也有类似的结论:

7ede939bde7d38eb8aadf3038b4a2d84.png

因为两个独立多元高斯变量的和还是多元高斯变量,因此有:

181b6b6bf22f6f6f0cee833cdc78a403.png

我们回忆多元高斯分布的第三个性质(conditioning),可以看出,

equation?tex=y%5E%2A满足多元高斯分布,

41f638a89cf97892d06feda0d28d3e51.png

利用这个性质有:

f9830c29ed17dc04bca8062f61320b05.png

这样我们就完成了预测,几个预测的例子如下图所示:

00931861c739d98d776b1ea243f6bc8f.png

5. 总结

GPR是一个非参数模型,它通过GP为模型赋予了更多不确定性,这也是它的优势所在;且虽然GP比较复杂,但是用于回归时却计算简单,非参数模型让它能够建模任意函数,核函数也让这个模型能利用数据的内在结构。

创作不易,求大家点赞收藏支持一下~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值