• 统计学中,主成分回归(PCR)是一种基于主成分分析(PCA)的回归分析方法。更确切地说,PCR用于估计标准线性回归模型中的未知参数。 PCR不是直接将因变量与解释变量进行回归,而是将解释变量的主成分作为回归量。一般只使用所有主成分的一个子集用于回归,因此PCR是一种正则化过程,也是一种收缩估计量。...
    24 KB (4,481 words) - 23:51, 17 October 2023
  • 在多變量分析中,主成分分析(英語:Principal components analysis,縮寫:PCA)是一種統計分析、簡化數據集的方法。它利用正交变换来对一系列可能相关的变量的观测值进行线性变换,从而投影为一系列线性不相关变量的值,这些不相关变量称为主成分(Principal...
    21 KB (2,872 words) - 13:10, 8 October 2024
  • PCR (category 全部條目消歧義頁面)
    PCR可能指: 聚合酶链式反应 磷酸肌酸(英语:Phosphocreatine) 主成分回归 留尼汪共产党 革命共产党 (巴西) 罗马尼亚共产党...
    289 bytes (27 words) - 05:43, 17 June 2024
  • 偏最小二乘回归(英語:Partial least squares regression, PLS回归)是一种统计学方法,与主成分回归有关系,但不是寻找响应和独立变量之间最小方差的超平面,而是通过投影预测变量和观测变量到一个新空间来寻找一个线性回归模型。因为数据X和Y都会投影到新空间,PLS系列的方法...
    18 KB (2,455 words) - 02:48, 21 May 2025
  • 在统计学中,线性回归(英語:linear regression)是利用称为线性回归方程的最小平方函數对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariable...
    21 KB (3,686 words) - 10:14, 4 November 2024
  • 邏輯斯諦迴歸(英語:Logistic regression,又譯作邏輯斯迴歸、羅吉斯迴歸、邏輯迴歸、对数几率迴归),在统计学中是一種对数几率模型(英語:Logit model,又译作逻辑斯谛模型、评定模型、分类评定模型),是离散选择法模型之一,属于多元变量分析范畴,是社会学、生物统计学、临床、数量心...
    9 KB (1,187 words) - 08:51, 15 November 2024
  • 迴歸分析(英語:Regression Analysis)是一種統計學上分析數據的方法,目的在於了解兩個或多個變數間是否相關、相關方向與強度,並建立數學模型以便觀察特定變數來預測研究者感興趣的變數。更具体的来说,回归分析可以帮助人们了解在只有一个自变量变化时因变量的变化量。一般来说,通过回归...
    9 KB (1,193 words) - 12:31, 19 March 2025
  • 方差分析(Analysis of variance) 回归分析 逻辑回归分析(二类评定回归分析,Logit模型) 判别分析(Linear discriminant analysis) 线性判别分析 Linear Structure Relation, LISREL 主成分分析(因子分析)(Factor analysis)...
    2 KB (149 words) - 01:19, 16 January 2025
  • 迴歸分析,是以關係式表示目的變數和解釋變數之間的關係,然後用於預測的方法。它與主成分分析同為多變量分析。在有目的變數的情形下,使用複迴歸分析;在沒有目的變數的情形下,使用主成分分析。通常此種分析方法會藉助統計軟體計算。...
    476 bytes (63 words) - 07:11, 25 September 2022
  • 非参数回归指的是一类回归分析,其中的预测子不是预先确定的,而根据从数据中获得的信息。也就是说,预测子与因变量之间的关系不会假定为参数形式。非参数回归需要更大的样本量,因为数据必须提供参数模型结构和模型估计值。 非参数回归中,有随机变量 X {\displaystyle X} 、 Y {\displaystyle...
    6 KB (658 words) - 18:20, 18 December 2023
  • 在统计学上,泊松回归(英語:Poisson regression)是用来为计数资料(英语:Count data)和列联表建模的一种回归分析。泊松回归假设因变量(英语:response variable)Y是泊松分布,并假设它期望值的对数可由一组未知参数进行线性表达。当其用于列联表分析时,泊松回归模型也被称作对数-线性模型。...
    8 KB (1,533 words) - 11:33, 12 May 2024
  • 在稳健统计中,稳健回归试图克服传统回归分析的一些局限性。回归分析对自变量与因变量的关系进行建模。普通最小二乘法等标准类型的回归,在基本假设为真时有有利的特性,但其他情形下可能产生误导(即对违背假设的情形不稳健)。稳健回归法旨在限制底数据生成中违反假设的情形对回归估计的影响。 例如,最小二乘估计的回归...
    17 KB (2,189 words) - 01:40, 4 July 2024
  • 在統計學中,簡單線性迴歸是指僅具有單一的自變數的線性迴歸,其中「簡單」係單一自變數之意。此迴歸可用於估計有限的截距與斜率以推論應變數在特定自變數為條件下的均值。 普通最小二乘法是常見用於尋求簡單線性迴歸式的方法,目的是得到能使殘差平方和最小的迴歸式。其它方法,諸如最小絕對偏差(英语:Least absolute...
    8 KB (1,326 words) - 16:05, 21 October 2024
  • 统计学中,半参数回归包括结合了参数模型和非参数模型的回归模型。它们通常用于完全非参数模型可能表现不佳的情况,或者研究人员希望使用参数模型,但与回归子集有关的函数形式或误差密度不为人知的情况。半参数回归模型是半参数建模的一种特殊类型。半参数模型包含参数成分,依赖于参数假设,可能会出现规范误差与不一致的情况。...
    6 KB (1,095 words) - 05:54, 18 October 2023
  • constructs 指代潜变量。 使用潜变量的好处之一是潜变量能用来降低数据的维度。大量的观测变量能够被整合起来成为一个潜变量来表示深层次的概念,使得观测数据更容易理解。 隐马可夫模型 Factor analysis 主成分分析 偏最小二乘回归 潜在语义学以及概率潜在语义分析 期望最大化算法 隐含狄利克雷分布...
    2 KB (228 words) - 22:19, 29 April 2023
  • reduction)是指在某些限定条件下,降低随机变量个数,得到一组“不相关”变量的过程。 降维可进一步细分为变量选择和特征提取两大方法。 变量选择假定数据中包含大量冗余或无关变量(或称特征、属性、指标等),旨在从原有变量中找出主要变量。现代统计学中对变量选择的研究文献,大多集中于高维回归分析(英语:High-dimensiona...
    2 KB (303 words) - 20:52, 22 October 2023
  • 回归(英語:ridge regression)是一种在自变量高度相关的情况下估计多元回归模型系数的方法,它已被应用于计量经济学、化学和工程学等许多领域,也称为吉洪諾夫正则化(英語:Tikhonov regularization),以苏联数学家安德烈·吉洪諾夫的名字命名,是一种不适定问题的正则化方法...
    5 KB (523 words) - 19:17, 9 December 2024
  • 分段回归是一种回归分析方法,将自变量划为若干区间,并分别拟合出单独的线段。通过对各种自变量分区,也可以对多元数据进行分区回归分析。自变量聚类为不同组别时,这些区域的变量之间会表现出不同的关系,这时分段回归就非常有用。分段之间的界限就是间断点。 分段线性回归就是分段回归,通过线性回归得到区间内的关系。...
    9 KB (1,324 words) - 16:22, 21 October 2023
  • 保序回归(英語:Isotonic regression)在数值分析中指的是在保序约束下搜索一个加权 w 的最小二乘 y 以拟合变量 x,它是一个二次规划问题: min ∑ i = 1 n w i ( x i − a i ) 2 {\displaystyle \min \sum...
    577 bytes (87 words) - 08:22, 22 July 2023
  • 分位數迴歸(英語:Quantile regression)是迴歸分析的方法之一。最早由Roger Koenker和Gilbert Bassett於1978年提出。 一般地,传统的回归分析研究自变量与因变量的条件期望之间的关系,相应得到的回归模型可由自变量的估计因变量的条件期望;分位数回归...
    1 KB (143 words) - 07:15, 11 March 2022
  • 统计学中,贝叶斯多元线性回归是一种多元线性回归(预测结果为相关随机变量向量,而非标量随机变量的线性回归)的贝叶斯推断方法。这种方法的更一般论述见最小均方误差。 考虑一回归问题,其中需要预测的自变量不是实标量而是相关实数组成的m维向量。与标准回归设置一样,有n个观测值,其中每个观测i包含k−1个解释变量,归为k维向量...
    13 KB (2,607 words) - 05:46, 18 September 2024
  • 最小二乘法 (category 回归分析)
    迴歸分析求得近似解的標準方法。在這整個解決方案中,最小平方法演算為每一方程式的結果中,將殘差平方和的總和最小化。 最重要的應用是在曲線擬合上。最小平方所涵義的最佳擬合,即殘差(殘差為:觀測值與模型提供的擬合值之間的差距)平方總和的最小化。當問題在自變量(x變量)有重大不確定性時,那麼使用簡易迴歸...
    18 KB (3,275 words) - 02:31, 21 May 2025
  • {I_{p+1}} } 方差分析 安斯库姆四重奏 横截面回归 曲线拟合 经验贝叶斯方法 邏輯斯諦迴歸 M估计 非线性回归 非参数回归 多元自适应回归样条 Lack-of-fit sum of squares 截断回归模型 删失回归模型 简单线性回归 分段线性回归 Theil, Henri. Best Linear...
    7 KB (1,186 words) - 05:17, 23 September 2023
  • 回归分析当中,最常用的估计 β {\displaystyle \beta } (回归系数)的方法是普通最小二乘法(英語:ordinary least squares,簡稱OLS),它基於誤差值之上。用這種方法估计 β {\displaystyle \beta } ,首先要計算残差平方和(residual...
    2 KB (407 words) - 06:28, 12 March 2023
  • 吉洪诺夫正则化 (category 回归分析)
    吉洪诺夫正则化得名于安德烈·尼古拉耶维奇·吉洪诺夫,是在自变量高度相关的情景下估计多元回归模型系数的方法。它已被用于许多领域,包括计量经济学、化学和工程学。吉洪诺夫正则化为非适定性问题的正则化中最常见的方法。在統計學中,本方法被称为脊回归回归或岭回归(ridge regression);在机器学习領域則称为权重衰减或权值衰减(weight...
    27 KB (3,698 words) - 08:09, 13 February 2025
  • 误差 (category 回归分析)
    例如总体平均值)的真值之间的差值。残差是观测值与统计量的估计值(例如样本均值)之间的差值。这种区别在迴歸分析中至关重要,回归分析中,这些概念有时称为回归误差(regression errors)和回归残差(regression residuals),它们引出了学生化残差(英语:studentized...
    7 KB (971 words) - 01:43, 27 August 2023
  • 在統計學上,廣義線性模型(英語:generalized linear model,缩写作 GLM)是一種應用灵活的線性迴歸模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。此模型假設實驗者所量測的隨機變數的分佈函數與實驗中系統性效應(即非隨機的效應)可經由一鏈結函數(link function)建立可解釋其相關性的函數。...
    10 KB (1,430 words) - 01:34, 8 February 2024
  • regression model)是一个统计学上常见的线性模型(英语:Linear model)。这个模型在计量经济学的应用中十分重要。不要与多元线性回归,广义线性模型或一般线性方法相混淆。 其公式一般写为: Y = X B + U , {\displaystyle \mathbf {Y} =\mathbf...
    4 KB (664 words) - 01:43, 8 January 2024
  • fail-safe N 分析。 机器学习 :机器学习模块包含13种分析: 回归 提升回归(Boosting Regression) K近邻回归 随机森林回归(Random Forest Regression) 正则线性回归(Regularized Linear Regression) 分类 提升方法分类(Boosting...
    7 KB (561 words) - 15:42, 3 November 2023
  • 非线性最小二乘法 (category 回归分析)
    非线性最小二乘法是非线性形式的最小二乘法,用包含n个未知参数的非线性模型拟合m个观测值( m ≥ n {\displaystyle m\geq n} ),可用于某些形式的非线性回归。该方法的基础是使用线性模型近似并通过连续迭代来优化参数。它与线性最小二乘法既有相同之处、也有一些显著差异。 考虑一组 ( x 1 , y 1 ) ...
    5 KB (1,085 words) - 12:23, 20 October 2023
  • 討資料彼此之間的關聯性或是釐清資料的結構。分類大致如下: 常態多變量分布理論與模型 研究與測量變數之間的關係 多維度機率計算 探討資料構造與模式 主成分分析(Principal Component Analysis, PCA) 因素分析(Factor Analysis) 判別分析(Discriminant...
    3 KB (257 words) - 05:53, 25 October 2022