• 向量自我迴歸模型(英語:Vector Autoregression model,简称VAR模型)是一种常用的计量经济模型,由计量经济学家和宏观经济学家克里斯托弗·西姆斯(英語:Christopher Sims)提出。它擴充了只能使用一個變量的自我迴歸模型(簡稱:AR模型),使容納大於1個變量,因此經常用在多變量時間序列模型的分析上。...
    4 KB (1,012 words) - 07:29, 26 April 2023
  • 種自然資源產量等;對於受社會因素影響較大的經濟現象,不宜採用自我迴歸,而應改採可納入其他變數的向量迴歸模型向量迴归模型(VAR模型) 移动平均模型 (MA模型迴歸滑動平均模型(ARMA模型) 差分迴歸滑動平均模型(ARIMA模型) 格蘭傑因果關係(Granger Causality)...
    2 KB (364 words) - 13:53, 26 January 2022
  • ARMA模型(英語:Autoregressive moving average model,全稱:自我迴歸滑動平均模型)。是研究时间序列的重要方法,由迴歸模型(简称AR模型)与移动平均模型(简称MA模型)为基础“混合”构成。在市场研究中常用于长期追踪资料的研究,如:Panel研究中,用于消费行为模...
    3 KB (593 words) - 13:48, 26 January 2022
  • Estimation;MLE) 回归模型主要包括以下变量: 未知参数,记为 β {\displaystyle \beta } ,可以代表一个标量或一个向量变量, X {\displaystyle \mathbf {X} } 。 因变量, Y {\displaystyle Y} 。 回归模型将 Y {\displaystyle...
    9 KB (1,194 words) - 06:49, 22 April 2024
  • 模型;若偏相关函数和相关函数均是拖尾的,则序列适合ARMA模型。 参数估计,检验是否具有统计意义。 假设检验,判断(诊断)残差序列是否为白噪声序列。 利用已通过检验的模型进行预测。 迴歸模型(AR模型向量回归模型(VAR模型回歸滑動平均模型(ARMA模型) 格蘭傑因果關係(Granger...
    2 KB (377 words) - 06:02, 1 November 2022
  • 在统计学中,线性回归(英語:linear regression)是利用称为线性回归方程的最小平方函數对一个或多个变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个变量的情况称为简单回归,大于一个变量情况的叫做多元回归(multivariable...
    21 KB (3,656 words) - 05:24, 26 April 2024
  • 邏輯斯諦迴歸(英語:Logistic regression,又譯作邏輯斯迴歸、羅吉斯迴歸、邏輯迴歸、对数几率迴归),在统计学中是一種对数几率模型(英語:Logit model,又译作逻辑斯谛模型、评定模型、分类评定模型),是离散选择法模型之一,属于多元变量分析范畴,是社会学、生物统计学、临床、数量...
    9 KB (1,187 words) - 22:46, 16 May 2024
  • 模型可以学习注意力权重,这些权重决定了对每个英语输入状态向量的关注程度。 在RNN模型中添加注意力机制能提高模型的性能。而Transformer架构的发展表明,注意力机制本身就足够强大,并且不需要像RNN模型一样再对数据进行顺序循环处理。Transformer模型采用了没有RNN模型...
    21 KB (2,857 words) - 21:01, 5 May 2024
  • R n {\displaystyle \mathbf {x} \in \mathbb {R} ^{n}} 代表由一组相互独立的变量组成的向量,其泊松回归模型形式为: log ⁡ ( E ⁡ ( Y ∣ x ) ) = α + β ′ x , {\displaystyle \log(\operatorname...
    8 KB (1,533 words) - 11:33, 12 May 2024
  • 回归实验的第一个设计出现在1815年的 Gergonne 的论文中。 在二十世纪,多项式回归回归分析的发展中起着重要作用,更加强调设计和推理的问题。 回归分析的目标是根据变量(或变量向量)x 的值来模拟因变量 y 的期望值。在简单的线性回归中,使用模型 y = β 0 +...
    11 KB (1,742 words) - 11:14, 17 March 2023
  • 横截面回归 曲线拟合 经验贝叶斯方法 逻辑斯蒂回归 M估计 非参数回归 多元适应回归样条 Lack-of-fit sum of squares 截断回归模型 删失回归模型 简单线性回归 分段线性回归 非线性最小二乘法 曲线拟合 广义线性模型 局部回归 RJOosterbaan,1994,频率和回归...
    8 KB (1,143 words) - 20:12, 8 March 2024
  • analysis of covariance),普通线性回归,t检验和F检验。一般线性模型是对多于一个因变量的情况的多元线性回归的推广。如果Y,B和U是列向量,则上面的矩阵方程将表示多元线性回归。 使用一般线性模型的假设检验可以通过两种方式进行:多变量或多个独立的单变量(英语:Uni...
    4 KB (664 words) - 01:43, 8 January 2024
  • 在机器学习中,支持向量机 (台湾称支援向量機,英語:support vector machine,常简称為SVM,又名支援向量网络)是在分类与迴歸分析中分析数据的監督式學習模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配...
    38 KB (6,192 words) - 03:22, 7 May 2024
  • 偏最小二乘回归(英語:Partial least squares regression, PLS回归)是一种统计学方法,与主成分回归有关系,但不是寻找响应和独立变量之间最小方差的超平面,而是通过投影预测变量和观测变量到一个新空间来寻找一个线性回归模型。因为数据X和Y都会投影到新空间,PLS系列的方法...
    17 KB (2,187 words) - 08:18, 8 January 2024
  • 格蘭傑因果關係 (category 迴歸分析)
    {\displaystyle y} 的原因。它的基礎是迴歸分析當中的迴歸模型迴歸分析通常只能得出不同 變量間的同期 相關性;迴歸模型只能得出同一 變量前後期 的相關性;但諾貝爾經濟學獎得主克萊夫·格蘭傑(Clive Granger)於1969年論證 ,在迴歸模型中透過一系列的檢定進而揭示不同變量之間的時間落差相關性是可行的。...
    14 KB (2,060 words) - 17:20, 4 February 2024
  • {\displaystyle y(t)} 的输出模型复杂度為 O ( N M ) {\displaystyle O(NM)} 。如果 y ( t ) {\displaystyle y(t)} 是一个 M {\displaystyle M} 维的向量,则从 x ( t ) {\displaystyle...
    20 KB (3,216 words) - 17:35, 28 April 2024
  • 编码器(英語:autoencoder)也称自动编码器,是一种人工神经网络,用于学习无标签数据的有效编码;属一种无监督学习。 编码(autoencoding)的目的是:学习对高维度数据做低维度“表示”(“表征”或“编码”);因此, 通常用于降维。最近,编码的概念广泛地用于数据的生成模型...
    7 KB (1,073 words) - 10:05, 22 October 2023
  • 虚拟变量 (category 迴歸變數選擇)
    模型同时包含男性和女性虚拟变量,则这些向量的总和是全一向量,因为每个观察都要么归为男性,要么归为女性。因此,这个总和等于常数项的回归量,即第一个向量。结果,即使使用典型的伪逆法,回归方程也无法求解。换句话说:如果全一向量(常数项)回归量和一组穷举的虚拟变量同时存在,则会出现完全多重共线性,回归...
    26 KB (3,625 words) - 05:30, 23 September 2023
  • 相关向量机(Relevance vector machine,RVM)是使用贝叶斯推理得到回归和分类的简约解的机器学习技术。RVM的函数形式与支持向量机相同,但是可以提供概率分类。 其与带协方差函数的高斯过程等效。: k ( x , x ′ ) = ∑ j = 1 N 1 α j ϕ ( x , x...
    2 KB (266 words) - 11:00, 19 January 2022
  • 1988年成为美国文理科学院院士,1989年成为美国科学院院士。 西姆斯在下列領域發表了許多重要的論文:計量經濟學、宏觀經濟學與政策。他最重要的貢獻是推廣向量迴歸模型来做宏觀經濟的實證研究,例如:分析宏觀经济如何受到经济政策的临时性改变和其他因素的影响,央行加息对经济的影响等诸多重要问题。西姆斯也是在經濟學...
    5 KB (360 words) - 01:31, 3 April 2024
  • 模型选择和训练:这一步涉及到从多种统计分类算法中选择合适的模型,并用训练数据来训练模型。训练数据是已经有类别标签的数据,用于让模型学习分类规则。常用地统计分类算法有逻辑回归、朴素贝叶斯、支持向量机、决策树、随机森林、神经网络等。 模型评估和优化:这一步涉及到用测试数据来评估模型...
    3 KB (508 words) - 10:41, 13 May 2024
  • 自由度 (统计学) (category 2015年12月需要专业人士关注的页面)
    {\displaystyle n-1} 。 统计模型的自由度等于可自由取值的变量的个数。如在回归方程中,如果共有 p {\displaystyle p} 个参数需要估计,则其中包括了 p − 1 {\displaystyle p-1} 个变量(与截距对应的变量是常量)。因此该回归方程的自由度为 p − 1 {\displaystyle...
    4 KB (622 words) - 02:42, 16 July 2022
  • 高斯-馬可夫定理(英語:Gauss-Markov Theorem),在統計學中陳述的是在线性回归模型中,如果线性模型满足高斯马尔可夫假定,则回归系数的“最佳线性无偏估计”(BLUE,英語:Best Linear unbiased estimator)就是普通最小二乘法估计。最佳估计是指相较于其他估计...
    7 KB (1,186 words) - 05:17, 23 September 2023
  • 监督学习 (category 2014年1月需补充来源的条目)
    / learning model),並依此模式推測新的实例。訓練資料是由輸入物件(通常是向量)和預期輸出所組成。函數的輸出可以是一個連續的值(稱為迴歸分析),或是預測一個分類標籤(稱作分類)。 一個監督式學習者的任務在觀察完一些事先標記過的訓練範例(輸入和預期輸出)後...
    6 KB (1,034 words) - 10:56, 8 October 2021
  • 线性代数 (category 2012年1月需要专业人士关注的页面)
    消元法和矩阵分解的有效算法上。线性代数成为数字模拟和模型的基本工具。 线性代数起源于对二维和三维直角坐标系的研究。在这里,一个向量是一个有方向的线段,由长度和方向同时表示。这样向量可以用来表示物理量,比如力,也可以和标量做加法和乘法。这就是实数向量空间的第一个例子。 现代线性代数已经扩展到研究任意或无限维空间。一个维数为...
    21 KB (2,548 words) - 00:28, 8 January 2024
  • ,是一种模仿生物神经网络(动物的中樞神經系統,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种适应系统,通俗地讲就是具备学习功能。现代神经网络是一种非线性统计性数据建模工...
    29 KB (4,031 words) - 18:55, 23 May 2024
  • Lasso算法 (category 回归分析)
    回归分析方法,旨在增强统计模型的预测准确性和可解释性,最初由斯坦福大学统计学教授罗伯特·蒂布希拉尼于1996年基于Leo Breiman的非负参数推断(Nonnegative Garrote, NNG)提出。Lasso算法最初用于计算最小二乘法模型...
    22 KB (4,075 words) - 11:47, 12 November 2023
  • Scikit-learn(曾叫做scikits.learn与sklearn)是用于Python编程语言的自由软件机器学习库。它包含了各种分类、回归和聚类算法,包括多层感知器、支持向量机、随机森林、梯度提升、k-平均聚类和DBSCAN,它被设计协同于Python数值库NumPy和和科学库SciPy。 scikit-learn计划开始于scikits...
    6 KB (587 words) - 07:59, 27 December 2023
  • 吉洪诺夫正则化 (category 回归分析)
    吉洪诺夫正则化得名于安德烈·尼古拉耶维奇·吉洪诺夫,是在变量高度相关的情景下估计多元回归模型系数的方法。它已被用于许多领域,包括计量经济学、化学和工程学。吉洪诺夫正则化为非适定性问题的正则化中最常见的方法。在統計學中,本方法被稱為脊迴歸或岭回归(ridge regression);在機器學習領域則稱為權重衰減或權值衰減(weight...
    27 KB (3,702 words) - 15:47, 8 January 2024
  • 都是训练数据的一个输入向量, 而 y i {\displaystyle y_{i}} 则是对应的输出向量。 损失函数的选择是机器学习算法所选的函数 f S {\displaystyle f_{S}} 中的决定性因素。 损失函数也影响着算法的收敛速率。损失函数的凸性也十分重要。 根据问题是回归问题还是分类问题,我们可以使用不同的损失函数。...
    5 KB (830 words) - 20:07, 16 September 2020
  • 大型语言模型 大语言模型(英語:large language model,LLM)是一种语言模型,由具有许多参数(通常数十亿个权重或更多)的人工神经网络组成,使用监督学习或半监督学习对大量未标记文本进行训练。大型语言模型在2018年左右出现,并在各种任务中表现出色。...
    13 KB (1,397 words) - 16:53, 23 May 2024