• 在统计学与概率论中,矩阵(covariance matrix)是一个阵,代表著任兩列随机变量(英语:Multivariate random variable)间的,是的直接推广。 定義 —  設 ( Ω , Σ , P ) {\displaystyle (\Omega ,\,\Sigma...
    8 KB (1,678 words) - 18:57, 24 May 2025
  • E(y_{j})=\int _{\Omega }y_{j}\,dP=\nu _{j}} 則这两列隨機变量间的定义成一個 m × n {\displaystyle m\times n} 矩阵 c o v ⁡ ( X , Y ) := [ cov ⁡ ( x i , y j ) ] m × n {\displaystyle...
    5 KB (1,052 words) - 09:19, 21 November 2023
  • 矩阵: P 0 | 0 = [ 0 0 0 0 ] {\displaystyle {\textbf {P}}_{0|0}={\begin{bmatrix}0&0\\0&0\end{bmatrix}}} 如果不确切的知道最初的位置与速度,那么矩阵可以初始化为一个对角线元素是B的矩阵,B取一个合适的比较大的数。...
    35 KB (6,974 words) - 00:38, 4 February 2025
  • 机向量。为了模拟一个任意随机向量,我们使用一个仔细选择的矩阵对白色随机向量进行变换。我们选择的变换矩阵能够是被变换的白色随机向量的平均值和矩阵与模拟的任意向量的平均值和矩阵相匹配。为了白化一个任意的随机向量,我们使用仔细选择的矩阵对它进行变换,这样得到的随机向量就是一个白色随机向量。...
    15 KB (2,746 words) - 04:28, 23 May 2025
  • 主成分分析 (category 矩阵分解)
    \mathbf {I} _{L\times m}} 為 L × m {\displaystyle L\times m} 的單位矩陣。 X 的单向量矩阵W相当于矩阵的特征向量 C = X XT, X X ⊤ = W Σ Σ ⊤ W ⊤ {\displaystyle \mathbf {X} \mathbf...
    21 KB (2,872 words) - 13:10, 8 October 2024
  • {\displaystyle \mu =(\mu _{1},\mu _{2},\mu _{3},\dots ,\mu _{p})^{T}} ,矩阵为 Σ {\displaystyle \Sigma } 的多变量向量 x = ( x 1 , x 2 , x 3 , … , x p ) T {\displaystyle...
    2 KB (488 words) - 10:20, 26 April 2023
  • }^{T}&Z_{23}^{T}+X&Z_{33}\end{bmatrix}}<0} 成立。 反对称阵 循环矩阵 汉克尔矩阵 特普利茨矩阵 中心对称矩阵 希尔伯特矩阵 考克斯特矩阵 矩阵 A. J. Bosch. The factorization of a square matrix into...
    6 KB (1,207 words) - 03:06, 1 July 2022
  • {x} }-{\boldsymbol {\mu }})},} 注意这里的 | Σ | {\displaystyle |\Sigma |} 表示矩阵的行列式。 二元的情况 在二维非奇异的情况下(k = rank(Σ) = 2),向量 [X Y]′ 的概率密度函数为: f ( x , y ) =...
    4 KB (529 words) - 13:44, 29 September 2024
  • 在统计学中,互(英語:Cross-covariance)表示两个随机向量 X 与 Y 之间的 cov(X, Y),以区别于随机向量 X 的“”即 X 的各个标量元素之间的矩阵。 在信号处理领域,互是两个信号 (信息论)之间相似性的度量,它也称为“互相关”。互...
    3 KB (434 words) - 20:33, 31 May 2023
  • Turk和Alex Pentland用于人脸分类。该方法被认为是第一种有效的人脸识别方法[來源請求]。这些特征向量是从高维矢量空间的人脸图像的矩阵计算而来。 一组特征脸 可以通过在一大组描述不同人脸的图像上进行主成分分析(PCA)获得。任意一张人脸图像都可以被认为是这些标准脸的组合。例如,...
    10 KB (1,444 words) - 21:19, 30 September 2024
  • 是一维随机变量的自然推广,其定义为E[(X − μ)(X − μ)T],其中μ = E(X),XT是X的转置。这个是一个非负定的阵,通常称为矩阵。 如果X是一个複數随机变量的向量(向量中每個元素均為複數的隨機變數),那么其定义则为E[(X − μ)(X...
    19 KB (3,561 words) - 08:13, 8 April 2025
  • N(\mu ,\sigma ^{2})} . 多元正态分布的矩陣的估計的推導是比較難於理解的。它需要瞭解譜原理(spectral theorem)以及為什麼把一個標量看做一個1×1矩阵的迹(trace)而不僅僅是一個標量更合理的原因。請參考矩陣的估計(estimation of covariance...
    29 KB (3,770 words) - 09:58, 9 May 2025
  • 互相关 (category 与相关性)
    在统计学中,互相关有时用来表示两个随机矢量 X 和 Y 之间的cov(X, Y),以与矢量 X 的“”概念相区分,矢量 X 的“”是 X 的各标量成分之间的矩阵。 在信号处理领域中,互相关(有时也称为“互”)是用来表示两个信号之间相似性的一个度量,通常通过与已知信号比较...
    4 KB (533 words) - 14:36, 4 August 2024
  • 和均估计量通常小于先前推导的最小二乘估计量。 当求解超定问题(即 A m × n x = b , m > n {\displaystyle A_{m\times n}x=b,m>n} )时, 矩阵 A {\displaystyle A} 的矩阵 A H A {\displaystyle...
    27 KB (3,698 words) - 08:09, 13 February 2025
  • -矩阵即是这类随机变量的随机模型: D = σ 0 2 Q = σ 0 2 P − 1 {\displaystyle D=\sigma _{0}^{2}Q=\sigma _{0}^{2}P^{-1}} 式中, D {\displaystyle D} 是随机变量的-阵,通常直接简称为方差阵或协方差阵;...
    38 KB (4,689 words) - 22:32, 8 January 2022
  • 个多变量样本之一。之后将矩阵 C = 1 N ∑ i = 1 N x i x i ⊤ {\displaystyle C={\frac {1}{N}}\sum _{i=1}^{N}\mathbf {x} _{i}\mathbf {x} _{i}^{\top }} 对角化。换言之,即是对矩阵进行特征分解...
    7 KB (1,250 words) - 10:53, 29 October 2023
  • 都是正态分布有共同的,那么 P ( c ∣ x → ) {\displaystyle P(c\mid {\vec {x}})} 的充分统计量就是矩阵在N个均值构成的子平面上仿射的N个投影值。这些投影值可以通过解广义特征值问题来找到,分子是以均值为样本构成的矩阵,分母是共有矩阵。详情参见上述“多类LDA”。...
    26 KB (4,104 words) - 16:24, 18 January 2025
  • 多元变量统计和概率论中,散布矩阵是一种统计量,用于估计矩阵,例如多元正态分布的矩阵。 给定m维数据的n个样本,写作m×n矩阵 X = [ x 1 , x 2 , … , x n ] {\displaystyle X=[\mathbf {x} _{1},\mathbf {x} _{2},\ldots...
    3 KB (415 words) - 02:41, 1 May 2025
  • 或PCCs,有时简称相关系数)用于度量兩組數據的变量X和Y之间的線性相關的程度。它是兩個變量的與其標準的乘積之比; 因此,它本質上是的歸一化度量,因此結果始終具有介於-1和1之間的值。與本身一樣,該度量只能反映變量的線性相關性,而忽略了許多其他類型的關係或相關性。舉個簡單的例子,...
    34 KB (5,599 words) - 19:50, 17 January 2025
  • 更高的主成分(基于解释变量样本-矩阵对应更大特征值的特征向量)被选为回归量。不过,要预测结果,低的主成分可能也很重要,在某些情况下甚至更重要。 PCR的主要用途之一是克服多重共线性问题,这是说多个解释变量接近共线。PCR可在回归步骤中排除一些低...
    24 KB (4,481 words) - 23:51, 17 October 2023
  • j r j . {\displaystyle S=\sum _{k}\sum _{j}r_{k}W_{kj}r_{j}.} 此时权重矩阵的理想值应为观测误差矩阵的逆。 Kelley, C. T. Iterative Methods for Optimization (PDF). SIAM Frontiers...
    5 KB (1,085 words) - 12:23, 20 October 2023
  • 对称则该格拉姆矩阵对称。 如果向量是随机变量,所得格拉姆矩阵矩阵。 在量子化学中,一组基向量的格拉姆矩阵是重叠矩阵(Overlap matrix)。 在控制论(或更一般的系统理论中),可控制性格拉姆矩阵、可观测性格拉姆矩阵及交叉格拉姆矩陣确定了线性系统的性质。 格拉姆矩阵出现在结构模型中(比如可参见...
    4 KB (738 words) - 05:00, 7 March 2025
  • 矩阵的谱分析理论,分布函数的渐进展开,模型选择,信号处理,M-估计,深度估计,临床试验中的序贯设计,算法中的应用概率等。主要贡献如下: 白志东不等式的建立与经验谱分布收敛速度的估计。给经验谱分布收敛速度的估计开创了一种方法,并且对Wigner矩阵和大维样本矩阵之经验谱分布给出了初步的收敛速度之估计。...
    4 KB (658 words) - 15:15, 3 August 2018
  • PLS-DA)」,是PLS的一个变形。 偏最小二乘用于查找两个矩阵(X和Y)的基本关系,即一个在这两个空间对结构建模的隐变量方法。偏最小二乘模型将试图找到X空间的多维方向来解释Y空间最大的多维方向。偏最小二乘回归特别适合当预测矩阵比观测的有更多变量,以及X的值中有多重共线性的时候。相比之下...
    18 KB (2,455 words) - 02:48, 21 May 2025
  • 然而,K-L轉換雖然具有均方差(MSE)意義下的最佳轉換,但必須事先知道輸入的訊號,並且需經過一些繁雜的數學運算,例如(covariance)以及特徵向量(eigenvector)的計算。因此在工程實踐上K-L轉換並沒有被廣泛的應用,不過K-L轉換是理論上最佳的方...
    8 KB (2,164 words) - 20:40, 31 May 2023
  • 典型相关 (category 与相关性)
    在统计学中,典型相关分析(英語:Canonical Correlation Analysis)是对互矩阵的一种理解。如果我们有两个随机变量向量 X = (X1, ..., Xn) 和 Y = (Y1, ..., Ym) 并且它们是相關的,那么典型相关分析会找出 Xi 和 Yj...
    10 KB (1,658 words) - 20:44, 31 May 2023
  • k} 仍可称为“核”。 若核函数 k {\displaystyle k} 也是高斯过程中使用的函数,那么格拉姆矩阵 K {\displaystyle \mathbf {K} } 也可称为矩阵。 核方法的应用十分广泛,见于地理统计、克里金法、反距离加权、三维重建、生物信息学、化学信息学、信息抽取和手写识别。...
    11 KB (1,542 words) - 16:11, 3 February 2025
  • 可以用卡尔曼滤波器来比喻数据同化过程。其中“分析”步骤类似于观测值与它的预估值的作;预报步骤则相当于系统状态的最优估计。数据同化通常与最优控制过程之不同在于其自由度数量庞大,根本无法得到其矩阵。数据同化常用于涉及大规模时效性数据处理的过程,如现代天气预报。 天气预报...
    2 KB (220 words) - 19:12, 10 December 2022
  • {\displaystyle \Sigma } 分别表示 ε {\displaystyle \varepsilon } 的期望值 和-矩阵, tr 为矩阵的迹。其结果仅仅取决于是否存在 μ {\displaystyle \mu } 和 Σ {\displaystyle \Sigma } ;并且,...
    6 KB (966 words) - 13:00, 7 March 2022
  • {1}{n_{sp}}}\sum _{i=1}^{T}y_{i}\mathbf {x_{i}} \right),} 第一项是原始视觉刺激的矩阵的反转,第二项是标准STA。如果使用矩阵的表示,公式可以写成: S T A w = T n s p ( X T X ) − 1 X T y . {\displaystyle...
    8 KB (1,256 words) - 21:55, 26 September 2020
  • ) = Ω {\displaystyle \mathrm {E} (e_{t}e_{t}')=\Omega \,} —误差项的矩阵为Ω(一个n × 'n半正定矩阵) E ( e t e t − k ′ ) = 0 {\displaystyle \mathrm {E} (e_{t}e_{t-k}')=0\...
    4 KB (1,012 words) - 07:29, 26 April 2023