![MATLAB金融风险管理师FRM(高阶实战)](https://wfqqreader-1252317822.image.myqcloud.com/cover/187/36862187/b_36862187.jpg)
2.3 数据矩阵
列方向数据矩阵X(n行,q列)每一行看作是一个观察点,每一列代表一个维度;即X数据矩阵为q元随机数矩阵,有n个观察点。图2.12展示三维直角坐标系中三维数据(q = 3)。必须指出,虽然数据在直角坐标系中呈现,但这并不意味着数据列向量正交,即列方向线性相关性为0。数据列向量之间相关性要借助统计学工具来确定。
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P66_3712196.jpg?sign=1739249466-4jNazDOxxMF8IDAXxFdKRL6mcDQ8mtOB-0-9ac8e155fa0a3cfecb98230d1b8cd87a)
图2.12 在三维直角坐标系表达X
为配合MATLAB矩阵运算,本书一般采用列方向数据矩阵形式。请读者注意,很多文献采用行方向数据矩阵X,将每一行代表一个维度,而每一列代表一个观察点。列方向数据矩阵X(n行,q列)转置便得到行方向数据矩阵XT(q行,n列)。
一元数据x1均值(中位数或众数)、方差(或均方差)、分位点、偏度和峰度为常见的几个统计学特征,如图2.13所示。
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P66_3712197.jpg?sign=1739249466-daTRzOMYy6udWucmG3KEpdOjnaywlwIT-0-91136d64e225f1988647647d43799772)
图2.13 数据x1统计学特点
数据x1期望值E(x1),即均值,可以通过下式求得:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P66_3712198.jpg?sign=1739249466-Ck8KUCl0Fpp0pTiFFL9Y17XL6FX4vPBR-0-21d7606ed75c697bb67b2a9ff26b9dc5)
其中,l为全1列向量,列数和x1一致;E() 计算期望。x1期望值E(x1)便是x1数据中心,去中心化列向量通过下式获得:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712201.jpg?sign=1739249466-jX4533Wl8jOTNPnf1CDKYVax0m0Ho6ub-0-6968151f2a7fc1645ee0c7ab011e1ed2)
其中,llT为l向量和其转置lT乘积;为中心化计算矩阵。
如果x1为总体,数据x1方差通过下式获得:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712208.jpg?sign=1739249466-PzQOdi89anzpirYqjafzu0fGxhMx9WAp-0-28cdd48b5449d815b25ee1c0a973faeb)
如果x1为样本,数据x1方差通过下式获得:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712207.jpg?sign=1739249466-a17TMQsLoQjY2m69NYvOzbfjNCgTGsli-0-eda4d8a0f355c27196b69e1c93b1ac79)
多列向量数据矩阵X期望值E(X)通过下式计算获得:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712206.jpg?sign=1739249466-g86vihuzPeimHZFAc9iSRPqhCvUjj7B6-0-e9472efedaec02aa39368e632aeeee8f)
整理上式得到两个等式:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712205.jpg?sign=1739249466-FbhLSmf5yBdL2UtTB7g7kulBAFl1UUcs-0-a0979cee8dfefa17d417feec815a0268)
对于列方向数据矩阵X,下式获得去中心化数据矩阵:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712202.jpg?sign=1739249466-87bCsoa0WbdopfTxoKO74Xuk1GCPgQPA-0-287e39adaf56571df53ce2ea9ce9e957)
其中,l为全1列向量,和X有相同行数。
X列向量总体方差-协方差矩阵通过下式计算获得:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712203.jpg?sign=1739249466-qgEZ3M6SVgCCZAaqevy1YqArQD3Q01pe-0-ea3f14524222e140e52c95da6a3f6b1b)
X列向量样本方差-协方差矩阵通过下式计算获得:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P67_3712204.jpg?sign=1739249466-zt4URVo1Ga73gus118WrI8xpEzn2mEmI-0-8cc440a090b69afea8236025aae1fcbe)
下面用两元数据来看一下几个常见数据统计学性质。对于两个维度数据,协方差研究它们之间线性相关性。比如图2.14中x1和x2这两例数据,下式计算获得两者总体协方差和样本协方差:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P68_3712210.jpg?sign=1739249466-FtuaW2yQDr0GPWkWfzvsBtZNByjvCohX-0-a12bb43bc6c42625713f3dfa7008f6a1)
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P68_3712211.jpg?sign=1739249466-FSO0lMvZLdfREqpqXyHuC4sB7yznj9Vx-0-73dd2d167635ac74b292495e2664972d)
图2.14 数据x1和x2统计学特点
丛书第三册数学部分介绍过向量内积和数据方差、协方差存在诸多相似性,这种现象又叫作余弦相似性(cosine similarity)。x1和x2方差-协方差矩阵(variance-covariance matrix)如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P68_3712212.jpg?sign=1739249466-DaggLK6KV0SJWAN0oz8mVHKOUTBP4An8-0-6ffe29f1cf282c5f9e779205b21c9892)
Σ包含有关数据大量统计学信息,如图2.14所示。下面用之前讲到特征值分解和SVD分解对数据本身和方差-协方差矩阵做进一步分析。
方差-协方差矩阵Σ特征值分解得到如下等式:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P69_3712213.jpg?sign=1739249466-OSOUoZL2HJSLREqJzliyqBtvypUhHoij-0-03ae910899c6a67abdf23e69fe7c0e84)
V包含着两个特征向量v1和v2,即V = [v1, v2];Λ为特征值矩阵,具体如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P69_3712214.jpg?sign=1739249466-K1Hx771bJrsWDXGpl0BNOgiOlvDJr4ty-0-4f81f9d3f3d5191c0ab38ad2dd4c0c20)
v1和v2为正交系,λ1和λ2为数据在v1和v2方向上方差。若x1和x2线性相关系数为0,则x1和x2正交,如下例:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P69_3712215.jpg?sign=1739249466-BMNVOxnF95ZJ4CzF9cdR13cSTave662J-0-f0a0497cd73c187bab84acf5b723bc9f)
x1方差为5,x2方差为1。用mvnrnd() 函数生成1000个中心位于原点,满足如上方差-协方差关系二元随机数组,如图2.15所示。图2.15绘制v1和v2两个特征向量。图中v1和v2这两个向量长度正比于数据在这两个维度上均方差,即特征值平方根。请读者回顾丛书第三册第2章介绍的马哈距离(Mahalanobis distance, Mahal distance)。
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P69_3712216.jpg?sign=1739249466-QY3TFT24akCJuqv967dppDXaOVxvpaix-0-065d3d6d2ae0e351ba0ee3b2cade85b2)
图2.15 二元随机数组(方差-协方差矩阵为[5, 0; 0, 1],中心位于原点)
对二元随机数矩阵X = [x1, x2] 进行奇异值SVD分解:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P69_3712218.jpg?sign=1739249466-gIiNaXIsGQogXfvgFU5bFsWcPWCF5OFm-0-8841f3013b36866ea6fc2ee6c9fec81b)
其中,矩阵V形状为2×2。不考虑随机数数据数量影响,或特征值从大到小或者从小到大排列问题,SVD分解得到的方阵V和特征值分解得到的V一致。
若方差-协方差矩阵Σ取值如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P69_3712219.jpg?sign=1739249466-kHux2iKnGcN1PvuPc20hBsEtOGkog58y-0-b92c98b9bee1f520bc3af8116d11a267)
x1方差为1,x2方差为5,两者线性无关。图2.16展示用mvnrnd() 函数生成1000个中心位于原点,满足如上方差-协方差关系二元随机数,以及v1和v2两个特征向量。
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P70_3712220.jpg?sign=1739249466-OaNZ1NvrXSUZpeUsdQBNbNv4oQ95cigk-0-51aab0161eff3e940fc8ea7773fef8c6)
图2.16 二元随机数组(方差-协方差矩阵为[1, 0; 0, 5],中心位于原点)
若方差-协方差矩阵Σ取值如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P70_3712221.jpg?sign=1739249466-xXB8XMP0veBn3Sd5Fi97qEUXTkJ2ge8z-0-7a1d8de5a8a9e473a6ce53bd0f3b2c67)
x1和x2方差均为3,两者线性相关系数大于0。图2.17展示1000个二元随机数,中心位于原点,满足如上方差-协方差关系。图2.17同时给出v1和v2两个特征向量。特征值分解Σ得到:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P70_3712222.jpg?sign=1739249466-J6NzvABw5CntTIZeCWmwll5lhrqzIop7-0-061aff0a3a175753383d44aadcbff7bf)
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P70_3712223.jpg?sign=1739249466-C98UrQiJhJZBqxtkWGDBXHYzkGa6QTKT-0-3a604c5c2e45a6269d039b59fd232a7b)
图2.17 二元随机数组(方差-协方差矩阵为[3, 2; 2, 3],中心位于原点)
沿着v2(= [-0.7071; 0.7071])和v1(= [0.7071; 0.7071])两个特征向量方向,数据方差值分别为1和5;换句话说,以上特征值大小描述新正交空间中各个方向数据分散集中程度。
若方差-协方差矩阵Σ取值如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P71_3712224.jpg?sign=1739249466-FcXWUIBOYMhzsJJ27wQpVMovsxb1iViH-0-aeb465d25db13ae9f88e2131842d9225)
x1和x2同样均为3,两者线性相关系数小于0。特征值分解Σ得到:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P71_3712225.jpg?sign=1739249466-vLW4XaBCuyUhaSm9uNTz8oTH8gdg42gr-0-3bc942d87d48acb9213f929452f8f0ff)
同样得到,沿着v2(= [0.7071; 0.7071])和v1(= [0.7071; -0.7071])两个特征向量方向,数据方差值分别为1和5,如图2.18所示。如下代码获得图2.15~图2.18:
B4_Ch1_3.m clc; clear all; close all SIGMA = [5,0;0,1]; % SIGMA = [1,0;0,5]; % SIGMA = [3,2;2,3]; % SIGMA = [3,-2;-2,3]; num = 1000; X = mvnrnd([0,0],SIGMA,num); sigma = cov(X) [V_eig_original,LAMBDA_eig_original] = eig(SIGMA) [V_eig,LAMBDA_eig] = eig(sigma); [V_pca,Z,LAMBDA_pca] = pca(X); V_PC1 = V_pca(:,1)*sqrt(LAMBDA_pca(1)); V_PC2 = V_pca(:,2)*sq rt(LAMBDA_pca(2)); centers = mean(X); center_x = centers(1); center_y = centers(2); figure(1) plot(X(:,1),X(:,2),'.'); hold on plot(center_x,center_y,'ok') h = quiver(center_x,center_y,V_PC1(1),V_PC1(2)); h.AutoScaleFactor = 3; h = quiver(center_x,center_y,V_PC2(1),V_PC2(2)); h.AutoScaleFactor = 3; daspect([1, 1,1]); xlim([-8,8]); ylim([-8,8]); xlabel('x_1'); ylabel('x_2')
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P72_3712228.jpg?sign=1739249466-NJj88OJx444BGSUAjgHf61FVUdNx3XhA-0-41447d761da165aab9f5601d3adbd0b5)
图2.18 二元随机数组,方差-协方差矩阵为[3, 2; 2, 3],中心位于原点
上述分析思路同样适用于多维数据。如图2.19所示,三维数据SVD分解或者PCA分析,相当于对原始数据进行正交化(orthogonalization)。这种正交化数据分析思路广泛应用在主元分析、正交回归、主元回归、因素分析等算法,丛书后文将会结合具体实例展开讲解。
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P72_3712229.jpg?sign=1739249466-9psPMTjHglcqoCQlSfzpdMotrQHq5hh0-0-969b8509a580a293cd9e07af27d2289c)
图2.19 三维数据 相关性关系及正交化
这一小节最后,我们聊一聊数据矩阵线性变换(linear transformation)。X为列方向数据矩阵,f()为线性变换方程,X转化为列向量y。
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P72_3712232.jpg?sign=1739249466-Vb0SnsryxM7ep1waTXWfWuqO8E9fPwcN-0-f247cea91673c38f6d010b01abd37a73)
其中,v为线性变换向量,b为常数。列向量y期望值E(y)和矩阵X期望值E(X)关系如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P72_3712234.jpg?sign=1739249466-Kr74c7zARAEAeW6Gan2GcBCRdIHz5Tlq-0-eb4697ac47d342fc3610694753776f34)
列向量y方差var(y)和矩阵X方差var(X)关系为:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712235.jpg?sign=1739249466-sU64rdA7XKqC6NxAivTmwA6XT7VANID5-0-18325c85cb32d1d65a2d2e8052caf7ae)
var(X),即方差-协方差矩阵ΣX。
X为列方向数据矩阵X,而f() 为线性变换方程将X转化为矩阵Y,具体如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712237.jpg?sign=1739249466-0ITqo2PDOvRLHLYLT69YVRMuJdA4JSyV-0-4fcb2aa3406bfc72588e4b5cbe6a1b2d)
其中,V为线性变换矩阵,b为常数向量。矩阵Y期望向量E(Y)和矩阵X期望向量E(X)之间关系如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712239.jpg?sign=1739249466-nq6ZiPkgJQl4HuydXFqXwfPKqyEaq3bF-0-5a2e7ace0bebd2da66965d44af8eed03)
矩阵Y方差var(Y)和矩阵X方差var(X)关系如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712240.jpg?sign=1739249466-LU5z3jaAFYW9oC0U3di6hP6tjrTTZhEa-0-f695e98d7ffba60889ea522605f28596)
上述性质常被称作期望线性性质(linearity of expectation)。
若数据矩阵X,每一行定义为一个维度,而每一列代表一个观察点。这种情况下,线性变换方程f()将X转化为行向量y。
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712242.jpg?sign=1739249466-bPtNAETzyiu2D7BpWko2julaSCqwySlm-0-a156a5bc1eeb12745dcc9367f71cd452)
其中,v为线性变换列向量,b为常数。行向量y期望E(y)和矩阵X期望E(X)之间关系如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712244.jpg?sign=1739249466-xSid0zrfru5p3GVPlD7IqprAkJpYEttU-0-712746d3245467b0185db4673c659af0)
行向量y方差var(y)和矩阵X方差var(X)关系如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712246.jpg?sign=1739249466-mGV5OFIEc6zy3PoGuUgLX4rk6rxEFwEz-0-e7f4316dd601d370892e9f05e6ef4ab5)
如果X和Y均为行方向数据矩阵,而f() 为线性变换方程将X转化为矩阵Y,具体如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712248.jpg?sign=1739249466-2xmApVo4h4Rpua73qR1zYSbkzyA6ibKN-0-d592e4cdd4a8162250afbe2fd7ff24e0)
其中,V为线性变换矩阵,b为常数向量。矩阵Y期望E(Y)和矩阵X期望E(X)之间关系如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P73_3712250.jpg?sign=1739249466-D6bhT1sjKBAEOyCrKSbMFbZytwKzHFgI-0-e83207af265afbf951abfd82bb38899c)
矩阵Y方差var(Y)和矩阵X方差var(X),即方差-协方差矩阵ΣX,之间关系如下:
![](https://epubservercos.yuewen.com/745BB7/19549640201517806/epubprivate/OEBPS/Images/Figure-P74_3712251.jpg?sign=1739249466-URWWIYTUxcySRfxDQQXbCmWE2Hbby0jV-0-ce00f0fedbb4428187c7c6bb641af1a1)
很多读者可能会觉得这一部分内容过于理论化难于理解,事实确实如此,但是,这些线性性质和丛书之前讲到线性相关、Cholesky分解、特征值分解、SVD分解、PCA分析等内容之间有着密切联系。解开这些联系的钥匙将在下一节介绍。