1. 协方差
概念
方差和标准差的原理和实例演示,请参考
方差
方差(Variance)是度量一组数据的分散程度。方差是各个样本与样本均值的差的平方和的均值:
标准差
标准差是数值分散的测量。
标准差的符号是 σ (希腊语字母 西格马,英语 sigma)
公式很简单:方差的平方根。
协方差
通俗理解
可以通俗的理解为:两个变量在变化过程中是同方向变化?还是反方向变化?同向或反向程度如何?
你变大,同时我也变大,说明两个变量是同向变化的,这时协方差就是正的。
你变大,同时我变小,说明两个变量是反向变化的,这时协方差就是负的。
从数值来看,协方差的数值越大,两个变量同向程度也就越大。反之亦然。
通俗易懂的理解看知乎文章 或者 gitlab转载
协方差矩阵
协方差(Covariance)在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。 这个解释摘自维基百科,看起来很是抽象,不好理解。其实简单来讲,协方差就是衡量两个变量相关性的变量。当协方差为正时,两个变量呈正相关关系(同增同减);当协方差为负时,两个变量呈负相关关系(一增一减)。而协方差矩阵,只是将所有变量的协方差关系用矩阵的形式表现出来而已。通过矩阵这一工具,可以更方便地进行数学运算。
数学定义
回想概率统计里面关于方差的数学定义:
协方差的数学定义异曲同工:
这里的 x和y表示两个变量空间。用机器学习的话讲,就是样本有 x和 y两种特征,
而 X 就是包含所有样本的 x特征的集合,
Y就是包含所有样本的 y特征的集合。
用一个例子来解释会更加形象。
用一个矩阵表示为:
现在,我们用两个变量空间X ,Y 来表示这两个特征:
由于协方差反应的是两个变量之间的相关性,因此,协方差矩阵表示的是所有变量之间两两相关的关系,具体来讲,一个包含两个特征的矩阵,其协方差矩阵应该有 2*2 大小:
接下来,就来逐一计算 Cov(Z)的值。 首先,我们需要先计算出 X,Y 两个特征空间的平均值:
AVG(X)=3.25,AVG(Y)=3 , 。 然后,根据协方差的数学定义,计算协方差矩阵的每个元素:
所以协方差矩阵
好了,虽然这只是一个二维特征的例子,但我们已经可以从中总结出协方差矩阵
的「计算套路」:
python协方差原理
# 协方差主要是多个特征
pa=np.array([
[1,2] ,
[3,6] ,
[4,2] ,
[5,2]
])
'''
x应该是个二维矩阵表示
[
[1] ,
[3] ,
[4] ,
[5]
]
'''
x=np.array([pa[:,0]]).reshape((4,1))
'''
y应该是个二维矩阵表示
[
[2] ,
[6] ,
[2] ,
[2]
]
'''
y=np.array([pa[:,1]]).reshape((4,1))
print("分别获取X和Y:",x,y)
x_mean=np.mean(x)
y_mean=np.mean(y)
print("x和y特征的均值",x_mean,y_mean)
'''
这里只是求第一个特征x(第一列)和第二个特征(第二列)的方差cov(x,y),
,实际还有cov(x,x),cov(y,x),cov(y,y)
x-x_mean转置T就变成了
[
[1-xmean,3-xmean,4-xmean,5-xmean]
]
y-ymean是
[
[2-ymean] ,
[6-ymean] ,
[2-ymean] ,
[2-ymean]
]
(x-x_mean).T.dot(y-y_mean)就变成了矩阵乘法了
(1-xmean)*(2-ymean)+(3-xmean)*(6-ymean)+(4-xmean)*(2-ymean)+(5-xmean)*(2-ymean)
然后除以n-1就是协方差了cov(x,y)
'''
print("cov(x,y)=",np.sum((x-x_mean).T.dot(y-y_mean))/(len(pa)-1))
#数学表示横表示列,竖表示行,默认行横表示特征
'''
[[1 3 4 5]
[2 6 2 2]]
'''
print(pa.T)
print("conv",np.cov(pa.T))
# 使用rowvar=False,表示列是变量是特征
print("conv",np.cov(pa,rowvar=False))
输出结果可查看:github
方差是一种特殊的协方差,协方差=cov(x,x)
熟悉协方差概念方便理解矩阵构造
2. PCA
概念
主成分分析(Principal Component Analysis):
- 一个非监督的机器学习算法
- 主要用于数据的降维
- 通过降维,可以发现更便于人类理解的特征
- 其他应用:可视化,降噪
假设存在一根直线,将所有的点都映射在该条指直线上,这样的话点的整体分布和原来的点的分布就没有很大的差异(点和点的距离比映射到x轴或者映射到y轴都要大,区分度就更加明显),与此同时所有的点都在一个轴上(理解成一个维度),虽然这个轴是斜着的。用这种方式将二维降到了一维度
下表1是某些学生的语文、数学、物理、化学成绩统计:
学生姓名 | 语文 | 数学 | 英文 |
---|---|---|---|
张三 | 90 | 87 | 75 |
李四 | 90 | 50 | 76 |
王五 | 90 | 99 | 70 |
赵六 | 90 | 60 | 80 |
首先,假设这些科目成绩不相关,那么怎么区分谁的成绩好了,明显语文和英文大家都差不多,数学上就拉开了差距,数学就可以理解为主成分。
理论
先看下面这幅图:
先假定特征只有二维,即只有两个变量,它们由横坐标和纵坐标所代表;因此每个观测值都有相应于这两个坐标轴的两个坐标值;如果这些数据形成一个椭圆形状的点阵,那么这个椭圆有一个长轴和一个短轴。在短轴方向上,数据变化很少;在极端的情况,短轴如果退化成一点,那只有在长轴的方向才能够解释这些点的变化了;这样,由二维到一维的降维就自然完成了。
上图中,u1就是主成分方向,然后在二维空间中取和u1方向正交的方向,就是u2的方向。则n个数据在u1轴的离散程度最大(方差最大),数据在u1上的投影代表了原始数据的绝大部分信息,即使不考虑u2,信息损失也不多。而且,u1、u2不相关。只考虑u1时,二维降为一维。
椭圆的长短轴相差得越大,降维也越有道理。
公式推导
那么如何找到这个让样本间距最大的轴?
如何定义样本间间距? 使用方差(Variance)
方差越大代表样本之间越稀疏,方差越小代表样本之间越紧密。
移动坐标轴,使得样本在每一个维度均值都为0:
创建一个3x+4线性附近20个随机样本,样例和结果:https://github.com/lzeqian/machinelearn/blob/master/sklean_pca/demean.ipynb
import numpy as np;
import matplotlib.pyplot as plot
from commons.common import setXY
#生成一个 3x+4附近的点
np.random.seed(100);
# 获取randc个随机点
randc=20
x1=np.random.rand(randc);
x2=x1*3+4+np.random.rand(randc);
plot.plot(x1,x2,"o");
转换为矩阵表示
#使用矩阵数组表示,x1,x2 x1和x2是两个特征
'''
[ [x1,x2]
[1,2],
[3,4]
]
X=x1.reshape(-1,1); 等价于x1.reshape(len(x1),1)
[1,2]转换为
x1=[
[1],
[2]
]
x2=[
[4],
[5]
]
x1.hstack(x2)
[
[1,4],
[2,5]
]
'''
X=np.hstack((x1.reshape(len(x1),1),x2.reshape(len(x2),1)))
print(X)
[[0.54340494 6.06191901]
[0.27836939 5.77513797]
[0.42451759 6.09120215]
[0.84477613 6.87044035]
[0.00471886 4.18956702]
[0.12156912 4.73753941]
[0.67074908 6.01793576]
[0.82585276 6.72998462]
[0.13670659 5.20578228]
[0.57509333 5.74053496]
[0.89132195 7.27280924]
[0.20920212 5.23141091]
[0.18532822 4.66113234]
[0.10837689 4.70707412]
[0.21969749 4.69556853]
[0.97862378 7.82628292]
[0.81168315 7.4159703 ]
[0.17194101 4.57576503]
[0.81622475 7.33922019]
[0.27407375 5.39912274]]
demean,均值归0处理
np.set_printoptions(suppress=True) #不使用科学计数法
setXY()
def demean(X):
return X-np.mean(X,axis=0) #取对应列的均值
#均值归零的算法是x1-xmean,x2-x2mean
X_demean=demean(X)
plot.plot(X_demean[:,0],X_demean[:,1],"o");
demean之后的方差最大其实就是求映射后每个点到(0,0)的距离最大再求和,假设降维后轴的方向是w=(w1, w2)
,Xi是映射前的向量,Xi(project)是映射后的向量,这里注意w向量是单位向量 |w|=1
以上是推导公式
目标函数是:
通过公司可知
注意i是样本索引,下标1,2是特征数,x1是特征1,x2是特征2 xj是特征j,每个特征xj对应一个维度wj
目标函数即:
对目标函数求梯度:
转化为:
由于最终转换的结果是一个1行m列的矩阵,而我们想要得到一个n行1列的矩阵,所以还要进行一次转置
编程实现(第一主成分)
产生一个 3x+4附近的点
import numpy as np;
import matplotlib.pyplot as plot
from commons.common import setXY
#生成一个 3x+4附近的点
#np.random.seed(100);
# 获取randc个随机点
randc=100
# 0-1的数*多少倍,注意太小的样本点,abs(f(w=w, X=X) - f(w=last_w, X=X)) 的值增量过小可能导致循环次数后,还没有到<epsilon导致拟合不准确
# 如果是1,建议循环次数加大100000
# 如果是100 可以设置为100
blow=100
x1=np.random.rand(randc)*blow;
x2=x1*3+4+np.random.rand(randc)*blow;
plot.plot(x1,x2,"o");
X=np.hstack((x1.reshape(len(x1),1),x2.reshape(len(x2),1)))
np.set_printoptions(suppress=True) #不使用科学计数法
定义目标函数
# 这是目标函数 np.sum((X*W)**2)/M
# 注意目标函数是传入X是已知的数据样本,w是个2个特征向量 ,f(w1,w2)是个三位空间
def f(X,w):
return np.sum((X.dot(w))**2)/len(X)
获取w在各个特征的导数
# 获取各个维度的导数
def df_w(X,w):
return X.T.dot(X.dot(w))*2/len(X)
也可以用这个通用的方法求导数
'''
通用计算某个点的斜率的方法
为了验证我们的这个是正确的,使用这个df_debug这个函数,
和线性下降法一样,使两个点之间连成的直线不断的靠近应得的直线,
使其斜率相当,注意的是,这里的epsilon取值比较小,是因为在PCA的梯度上升法中,
w是一个方向向量,其模为1,所以w的每一个维度其实都很小,那么为了适应,相应的epsilon也要小一些
'''
def df_debug(w,X,epsilon=0.0001):
res = np.empty(len(w))
for i in range(len(w)):
w_1 = w.copy()
w_1[i] += epsilon
w_2 = w.copy()
w_2[i] -= epsilon
res[i] = (f(w=w_1,X=X) - f(w=w_2,X=X)) / (2*epsilon)
将w向量转换为单位向量
# 将任意向量转换为单位向量 np.linalg.norm(w)是 x**2+x1**2开根号
# (3,4)/5=(3/5,4/5)就是单位向量,模是1
def direction(w):
return w / np.linalg.norm(w)
梯度上升测试文章来源:https://www.toymoban.com/news/detail-787659.html
wapp=np.array([])
def gradient_ascent(df, X, initial_w, eta, n_iters=1e4, epsilon=1e-8):
w = direction(initial_w)
i_iter = 1
global wapp
wapp=np.append(wapp,w).reshape((1,len(w)))
while i_iter < n_iters:
gradient = df(w=w, X=X)
last_w = w
# gradient是对每个维度求偏导得到的列表,如果偏导数为负则w的这个维度加上一个负值,降维后的方差趋于变大
# 如果偏导数为正,则w的这个维度加上一个正值,降维后的方差趋于变大,因此w加上导数值,降维后的方差趋于变大
# 在eta合适的情况下,随着循环进行,导数值逐渐趋近0,eta是常数,降维后的方差的变化量会越来越小
w = w + eta * gradient
w = direction(w) # 注意1,每次求一个单位向量
wapp=np.vstack((wapp,np.array([w])))
# abs求绝对值
if (abs(f(w=w, X=X) - f(w=last_w, X=X)) < epsilon):
print("精度:",abs(f(w=w, X=X) - f(w=last_w, X=X)),epsilon)
print("梯度",gradient)
break
i_iter += 1
return w
initial_w = np.random.random(X.shape[1]) # 注意2:不能用0向量开始
eta = 0.0001
# print(gradient_ascent(df_debug, X=X_demean, initial_w=initial_w, eta=eta))
w=(gradient_ascent(df_w, X=X_demean, initial_w=initial_w, eta=eta, n_iters=100))
setXY()
plot.plot(X_demean[:,0],X_demean[:,1],"o");
print(w)
# 单位向量乘同一个,方向是相同的
plot.plot([0,w[0]*(blow)],[0,w[1]*blow])
#plot.plot(X_demean[:,0],w[1]/w[0]*X_demean[:,0])
#%%
fig = plot.figure()
#创建梯度上升的过程
ax = plot.axes(projection='3d')
wappy=[f(w=w_t, X=X) for w_t in wapp]
ax.plot3D(wapp[:,0],wapp[:,1],wappy, 'red')
print("w1值",wapp[:,0])
print("w2值",wapp[:,1])
print("方差:",wappy)
ax.set_title('3D line plot')
plot.show()
拟合的直线
梯度上升过程
文章来源地址https://www.toymoban.com/news/detail-787659.html
到了这里,关于机器学习实战教程(四):从特征分解到协方差矩阵:详细剖析和实现PCA算法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!