简单线性回归模型原理推导(最小二乘法)和案例解析

线性回归是一种用于建模自变量与因变量之间线性关系的统计方法,核心是通过最小化误差平方和估计模型参数。以下从数学原理推导和案例两方面详细说明。

一、线性回归模型的数学原理推导

1. 模型定义

线性回归假设因变量 y 与自变量 x 存在线性关系,具体分为:

  • 简单线性回归(单自变量)

yi=β0+β1xi+εi(i=1,2,...,n)y_i = \beta_0 + \beta_1 x_i + \varepsilon_i \quad (i=1,2,...,n)yi=β0+β1xi+εi(i=1,2,...,n)

2. 参数估计:最小二乘法(OLS)

要详细推导 β1=∑(xi−xˉ)(yi−yˉ)∑(xi−xˉ)2\boldsymbol{\beta_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2}}β1=(xixˉ)2(xixˉ)(yiyˉ) 的过程,我们从 最小二乘法的正规方程 出发,逐步化简:

步骤 1:建立误差平方和与正规方程

简单线性回归模型为:
yi=β0+β1xi+εi(i=1,2,...,n)y_i = \beta_0 + \beta_1 x_i + \varepsilon_i \quad (i=1,2,...,n)yi=β0+β1xi+εi(i=1,2,...,n)

误差平方和(SSE)为:
SSE=∑i=1n(yi−β0−β1xi)2\text{SSE} = \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i)^2SSE=i=1n(yiβ0β1xi)2

为最小化 SSE,对 β0\beta_0β0β1\beta_1β1 求偏导并令其为 0,得到 正规方程

(1)对 β0\beta_0β0 求偏导

∂SSE∂β0=−2∑i=1n(yi−β0−β1xi)=0\frac{\partial \text{SSE}}{\partial \beta_0} = -2 \sum_{i=1}^n (y_i - \beta_0 - \beta_1 x_i) = 0β0SSE=2i=1n(yiβ0β1xi)=0

整理得:
∑i=1nyi=nβ0+β1∑i=1nxi\sum_{i=1}^n y_i = n\beta_0 + \beta_1 \sum_{i=1}^n x_ii=1nyi=nβ0+β1i=1nxi

两边除以 nnn(记 xˉ=1n∑xi\bar{x} = \frac{1}{n}\sum x_ixˉ=n1xiyˉ=1n∑yi\bar{y} = \frac{1}{n}\sum y_iyˉ=n1yi,即样本均值),得:
yˉ=β0+β1xˉ⇒β0=yˉ−β1xˉ(1)\bar{y} = \beta_0 + \beta_1 \bar{x} \quad \Rightarrow \quad \boldsymbol{\beta_0 = \bar{y} - \beta_1 \bar{x}} \tag{1}yˉ=β0+β1xˉβ0=yˉβ1xˉ(1)

(2)对 β1\beta_1β1 求偏导

∂SSE∂β1=−2∑i=1nxi(yi−β0−β1xi)=0\frac{\partial \text{SSE}}{\partial \beta_1} = -2 \sum_{i=1}^n x_i (y_i - \beta_0 - \beta_1 x_i) = 0β1SSE=2i=1nxi(yiβ0β1xi)=0

整理得:
∑i=1nxiyi=β0∑i=1nxi+β1∑i=1nxi2(2)\sum_{i=1}^n x_i y_i = \beta_0 \sum_{i=1}^n x_i + \beta_1 \sum_{i=1}^n x_i^2 \tag{2}i=1nxiyi=β0i=1nxi+β1i=1nxi2(2)

步骤 2:代入 β0\boldsymbol{\beta_0}β0 的表达式到方程(2)

将式(1)β0=yˉ−β1xˉ\boldsymbol{\beta_0 = \bar{y} - \beta_1 \bar{x}}β0=yˉβ1xˉ 代入式(2),右边变为:
(yˉ−β1xˉ)∑xi+β1∑xi2(\bar{y} - \beta_1 \bar{x}) \sum x_i + \beta_1 \sum x_i^2(yˉβ1xˉ)xi+β1xi2

利用 ∑xi=nxˉ\sum x_i = n\bar{x}xi=nxˉ(因为 xˉ=1n∑xi\bar{x} = \frac{1}{n}\sum x_ixˉ=n1xi),展开并整理:
右边=yˉ⋅nxˉ−β1xˉ⋅nxˉ+β1∑xi2=nxˉyˉ+β1(∑xi2−nxˉ2)\begin{align*} \text{右边} &= \bar{y} \cdot n\bar{x} - \beta_1 \bar{x} \cdot n\bar{x} + \beta_1 \sum x_i^2 \\ &= n\bar{x}\bar{y} + \beta_1 \left( \sum x_i^2 - n\bar{x}^2 \right) \end{align*}右边=yˉnxˉβ1xˉnxˉ+β1xi2=nxˉyˉ+β1(xi2nxˉ2)

步骤 3:化简方程求 β1\boldsymbol{\beta_1}β1

式(2)左边为 ∑xiyi\sum x_i y_ixiyi,因此:
∑xiyi=nxˉyˉ+β1(∑xi2−nxˉ2)\sum x_i y_i = n\bar{x}\bar{y} + \beta_1 \left( \sum x_i^2 - n\bar{x}^2 \right)xiyi=nxˉyˉ+β1(xi2nxˉ2)

将左边的 nxˉyˉn\bar{x}\bar{y}nxˉyˉ 移到左边,得:
∑xiyi−nxˉyˉ=β1(∑xi2−nxˉ2)(3)\sum x_i y_i - n\bar{x}\bar{y} = \beta_1 \left( \sum x_i^2 - n\bar{x}^2 \right) \tag{3}xiyinxˉyˉ=β1(xi2nxˉ2)(3)

步骤 4:转化为离均差形式

(1)分子:∑xiyi−nxˉyˉ\sum x_i y_i - n\bar{x}\bar{y}xiyinxˉyˉ

展开 离均差 (xi−xˉ)(yi−yˉ)(x_i - \bar{x})(y_i - \bar{y})(xixˉ)(yiyˉ)
∑(xi−xˉ)(yi−yˉ)=∑(xiyi−xiyˉ−xˉyi+xˉyˉ)=∑xiyi−yˉ∑xi−xˉ∑yi+nxˉyˉ=∑xiyi−yˉ⋅nxˉ−xˉ⋅nyˉ+nxˉyˉ(因∑xi=nxˉ,∑yi=nyˉ)=∑xiyi−nxˉyˉ\begin{align*} \sum (x_i - \bar{x})(y_i - \bar{y}) &= \sum \left( x_i y_i - x_i \bar{y} - \bar{x} y_i + \bar{x}\bar{y} \right) \\ &= \sum x_i y_i - \bar{y} \sum x_i - \bar{x} \sum y_i + n\bar{x}\bar{y} \\ &= \sum x_i y_i - \bar{y} \cdot n\bar{x} - \bar{x} \cdot n\bar{y} + n\bar{x}\bar{y} \quad (\text{因} \sum x_i = n\bar{x}, \sum y_i = n\bar{y}) \\ &= \sum x_i y_i - n\bar{x}\bar{y} \end{align*}(xixˉ)(yiyˉ)=(xiyixiyˉxˉyi+xˉyˉ)=xiyiyˉxixˉyi+nxˉyˉ=xiyiyˉnxˉxˉnyˉ+nxˉyˉ(xi=nxˉ,yi=nyˉ)=xiyinxˉyˉ

因此,分子 ∑xiyi−nxˉyˉ=∑(xi−xˉ)(yi−yˉ)\sum x_i y_i - n\bar{x}\bar{y} = \sum (x_i - \bar{x})(y_i - \bar{y})xiyinxˉyˉ=(xixˉ)(yiyˉ)

(2)分母:∑xi2−nxˉ2\sum x_i^2 - n\bar{x}^2xi2nxˉ2

展开离均差平方 (xi−xˉ)2(x_i - \bar{x})^2(xixˉ)2
∑(xi−xˉ)2=∑(xi2−2xixˉ+xˉ2)=∑xi2−2xˉ∑xi+nxˉ2=∑xi2−2xˉ⋅nxˉ+nxˉ2(因∑xi=nxˉ)=∑xi2−nxˉ2\begin{align*} \sum (x_i - \bar{x})^2 &= \sum \left( x_i^2 - 2x_i \bar{x} + \bar{x}^2 \right) \\ &= \sum x_i^2 - 2\bar{x} \sum x_i + n\bar{x}^2 \\ &= \sum x_i^2 - 2\bar{x} \cdot n\bar{x} + n\bar{x}^2 \quad (\text{因} \sum x_i = n\bar{x}) \\ &= \sum x_i^2 - n\bar{x}^2 \end{align*}(xixˉ)2=(xi22xixˉ+xˉ2)=xi22xˉxi+nxˉ2=xi22xˉnxˉ+nxˉ2(xi=nxˉ)=xi2nxˉ2

因此,分母 ∑xi2−nxˉ2=∑(xi−xˉ)2\sum x_i^2 - n\bar{x}^2 = \sum (x_i - \bar{x})^2xi2nxˉ2=(xixˉ)2

步骤 5:最终推导

将分子和分母的离均差形式代入式(3),得:
β1=∑(xi−xˉ)(yi−yˉ)∑(xi−xˉ)2\boldsymbol{\beta_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2}}β1=(xixˉ)2(xixˉ)(yiyˉ)

核心逻辑总结

  1. 通过最小二乘法得到 两个正规方程,分别对应截距 β0\beta_0β0 和斜率 β1\beta_1β1
  2. 利用 β0\beta_0β0 与均值的关系(β0=yˉ−β1xˉ\beta_0 = \bar{y} - \beta_1 \bar{x}β0=yˉβ1xˉ),将其代入 β1\beta_1β1 的正规方程。
  3. 通过 离均差展开 化简,将代数形式转化为更直观的协方差/方差形式(分子是 xxxyyy 的协方差和,分母是 xxx 的方差和)。

这种推导体现了最小二乘法的核心:通过均值和离均差简化计算,最终得到斜率的直观表达式。

二、数学案例(简单线性回归)

问题:

已知5组数据(( x ) 为广告投入,( y ) 为销售额,单位:万元):
( x: [1, 2, 3, 4, 5] ),( y: [2, 4, 5, 7, 8] ),求回归方程 y^=β^0+β^1x\hat{y} = \hat{\beta}_0 + \hat{\beta}_1 xy^=β^0+β^1x

计算步骤:

公式:
β1=∑(xi−xˉ)(yi−yˉ)∑(xi−xˉ)2\boldsymbol{\beta_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2}}β1=(xixˉ)2(xixˉ)(yiyˉ)
β0=yˉ−β1xˉ\beta_0 = \bar{y} - \beta_1 \bar{x}β0=yˉβ1xˉ

  1. 计算均值
    xˉ=1+2+3+4+55=3\bar{x} = \frac{1+2+3+4+5}{5} = 3xˉ=51+2+3+4+5=3yˉ=2+4+5+7+85=5.2\bar{y} = \frac{2+4+5+7+8}{5} = 5.2yˉ=52+4+5+7+8=5.2

  2. 计算分子 ∑(xi−xˉ)(yi−yˉ)\sum (x_i - \bar{x})(y_i - \bar{y})(xixˉ)(yiyˉ)
    (1−3)(2−5.2)=(−2)(−3.2)=6.4(1-3)(2-5.2) = (-2)(-3.2) = 6.4(13)(25.2)=(2)(3.2)=6.4
    (2−3)(4−5.2)=(−1)(−1.2)=1.2(2-3)(4-5.2) = (-1)(-1.2) = 1.2(23)(45.2)=(1)(1.2)=1.2
    (3−3)(5−5.2)=0×(−0.2)=0(3-3)(5-5.2) = 0 \times (-0.2) = 0(33)(55.2)=0×(0.2)=0
    (4−3)(7−5.2)=1×1.8=1.8(4-3)(7-5.2) = 1 \times 1.8 = 1.8(43)(75.2)=1×1.8=1.8
    (5−3)(8−5.2)=2×2.8=5.6(5-3)(8-5.2) = 2 \times 2.8 = 5.6(53)(85.2)=2×2.8=5.6
    总和:6.4+1.2+0+1.8+5.6=156.4 + 1.2 + 0 + 1.8 + 5.6 = 156.4+1.2+0+1.8+5.6=15

  3. 计算分母 ∑(xi−xˉ)2\sum (x_i - \bar{x})^2(xixˉ)2
    (1−3)2=4(1-3)^2 = 4(13)2=4
    (2−3)2=1(2-3)^2 = 1(23)2=1
    (3−3)2=0(3-3)^2 = 0(33)2=0
    (4−3)2=1(4-3)^2 = 1(43)2=1
    (5−3)2=4(5-3)^2 = 4(53)2=4
    总和:4+1+0+1+4=104 + 1 + 0 + 1 + 4 = 104+1+0+1+4=10

  4. 估计参数
    斜率:β^1=1510=1.5\hat{\beta}_1 = \frac{15}{10} = 1.5β^1=1015=1.5
    截距:β^0=yˉ−β^1xˉ=5.2−1.5×3=0.7\hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x} = 5.2 - 1.5 \times 3 = 0.7β^0=yˉβ^1xˉ=5.21.5×3=0.7

结果:

回归方程为 y^=0.7+1.5x\hat{y} = 0.7 + 1.5xy^=0.7+1.5x,即广告投入每增加1万元,销售额平均增加1.5万元。

三、总结

线性回归通过最小二乘法估计参数,核心是最小化误差平方和。简单线性回归的参数可通过均值和协方差直接计算。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/diannao/94256.shtml
繁体地址,请注明出处:http://hk.pswp.cn/diannao/94256.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

主成分分析法 PCA 是什么

主成分分析法 PCA 是什么 主成分分析法(Principal Component Analysis,简称PCA)是一种数据降维与特征提取方法,核心思想是通过线性变换将高维数据映射到低维空间,在尽可能保留原始数据“信息量”(即方差)的同时,减少数据维度,消除特征间的相关性。 主成分分析法(PC…

Elasticsearch太重?试试轻量、极速的Meilisearch

在构建现代化的应用时,“搜索”早已不再是锦上添花的功能,而是决定用户留存体验的关键一环。Meilisearch,作为一款专为速度、易用性与开发者体验而生的开源搜索引擎,正受到越来越多开发者的青睐。 本文将介绍 Meilisearch 的核心…

车载通信架构 ---车内通信的汽车网络安全

我是穿拖鞋的汉子,魔都中坚持长期主义的汽车电子工程师。 老规矩,分享一段喜欢的文字,避免自己成为高知识低文化的工程师: 做到欲望极简,了解自己的真实欲望,不受外在潮流的影响,不盲从,不跟风。把自己的精力全部用在自己。一是去掉多余,凡事找规律,基础是诚信;二是…

MySQL: with as与with RECURSIVE如何混合使用?

文章目录一、with用法系列文章二、前言三、MySQL 普通CTE与递归CTE混合使用的严格规则四、解决方案4.1、方法1:嵌套查询4.2、方法2:使用临时表4.3、方法3:分开执行(应用层处理)本文主要探讨mysql中with普通cte与递归ct…

腕管综合征 : “鼠标手”| “数字时代工伤”,在我国视频终端工作者中患病率达12%到15%。“

文章目录 引言 I 预防“鼠标手” 肌腱的滑动 正中神经的滑动 II “鼠标手”是怎么发生的? 症状 “鼠标手”的高发人群 引言 “鼠标手”发展到晚期会对神经造成不可逆的损伤。 早期刚开始有症状,比如说轻微的麻木,持续的时间也不长,发作频率也不高的情况下,我们可以通过像…

#C语言——刷题攻略:牛客编程入门训练(三):输出格式化、基本运算符

🌟菜鸟主页:晨非辰的主页 👀学习专栏:《C语言刷题合集》 💪学习阶段:C语言方向初学者 ⏳名言欣赏:"代码行数决定你的下限,算法思维决定你的上限。" 目录 1. 牛牛的空格分…

【ELasticsearch】集群故障模拟方案(二):磁盘空间满、重选主节点

《集群故障模拟方案》系列,共包含以下文章: 1️⃣ 集群故障模拟方案(一):节点宕机、节点离线2️⃣ 集群故障模拟方案(二):磁盘空间满、重选主节点 😊 如果您觉得这篇文章…

React中的Hooks

在React 16.8版本之前,组件主要分为两种:类组件(Class Components) 和 函数组件(Function Components)。类组件可以使用 state 来管理内部状态,也能使用生命周期方法(如 componentDi…

【21】C# 窗体应用WinForm ——图片框PictureBox属性、方法、实例应用

文章目录12. 图片框PictureBox12.2 PictureBox插入、删除图片12.2.1 插入方式一:右键导入12.2.2 插入方式二:程序路径读入12.2.3 删除图片:右键清除12.3 实例:一键实现图片交换12.4 图片与窗口尺寸——SizeMode属性——实例对比1 …

Vue-Router 4.0:新一代前端路由管理

🤍 前端开发工程师、技术日更博主、已过CET6 🍨 阿珊和她的猫_CSDN博客专家、23年度博客之星前端领域TOP1 🕠 牛客高级专题作者、打造专栏《前端面试必备》 、《2024面试高频手撕题》、《前端求职突破计划》 🍚 蓝桥云课签约作者、…

vuhub Corrosion2靶场攻略

靶场下载: 下载地址:https://download.vulnhub.com/corrosion/Corrosion2.ova 靶场使用: 我这里是使用Oracle VirtualBox虚拟机打开靶场,使用VMware打开攻击机kali,要使这两个机器能互相通信,需要将这两…

定制开发开源AI智能名片S2B2C商城小程序的特点、应用与发展研究

摘要:本文聚焦定制开发开源AI智能名片S2B2C商城小程序,深入剖析其技术特点、功能优势。通过分析在实体店与线上营销、新零售闭环生态构建、智慧场景赋能以及微商品牌规范化运营等方面的应用,探讨其发展趋势。旨在为营销技术专家中的营销创客及…

ulimit参数使用详细总结

目录 1. 基本介绍 1.1 核心功能 1.2 作用范围 1.3 限制类型 2. 基本语法 3. 常用选项​ 3.1 常见options 3.2 查看当前限制 4. 核心概念 4.1 软限制(Soft Limit) 4.2 硬限制(Hard Limit) 5. 修改限制 5.1 临时修改 …

基于ASIC架构的AI芯片:人工智能时代的算力引擎

基于ASIC架构的AI芯片:人工智能时代的算力引擎在深度学习模型参数量呈指数级增长、训练与推理需求爆炸式发展的今天,通用处理器(CPU、GPU)在能效比和计算密度上的局限日益凸显。基于ASIC(Application-Specific Integra…

Linux信号机制:从硬件中断到用户态处理

当你在终端按下 CtrlC 时,一个简单的组合键触发了操作系统最精妙的异步通信机制。这种跨越硬件与软件的协作,正是Linux信号系统的精髓所在。本文将带你深入探索信号处理的全过程,从CPU中断到用户态函数调用,揭示Linux最强大的进程…

C语言基础:动态申请练习题

1. 动态申请一个具有10个float类型元素的内存空间&#xff0c;从一个已有的数组中拷贝数据&#xff0c;并找出第一次出现 12.35 的下标位置&#xff0c;并输出。#include <stdio.h> #include <stdlib.h> #include <string.h>int main() {// 动态申请10个flo…

MATLAB 实现 SRCNN 图像超分辨率重建

MATLAB 实现 SRCNN 图像超分辨率重建 MATLAB代码实现&#xff0c;用于基于三层卷积神经网络的图像超分辨率重建。代码参考了多个来源&#xff0c;结合了SRCNN的典型实现步骤。 1. MATLAB代码实现 % 超分辨率卷积神经网络(SRCNN)的测试代码 % 参考文献&#xff1a;Chao Dong, Ch…

知识蒸馏 - 基于KL散度的知识蒸馏 HelloWorld 示例

知识蒸馏 - 基于KL散度的知识蒸馏 HelloWorld 示例 flyfish 知识蒸馏 - 蒸的什么 知识蒸馏 - 通过引入温度参数T调整 Softmax 的输出 知识蒸馏 - 对数函数的单调性 知识蒸馏 - 信息量的公式为什么是对数 知识蒸馏 - 根据真实事件的真实概率分布对其进行编码 知识蒸馏 - …

从结构到交互:HTML5进阶开发全解析——语义化标签、Canvas绘图与表单设计实战

一、语义化标签进阶&#xff1a;重构页面结构的「逻辑语言」 在 HTML5 的舞台上&#xff0c;语义化标签是熠熠生辉的主角&#xff0c;它们为网页赋予了清晰的逻辑结构&#xff0c;使其更易被搜索引擎理解和被开发者维护。其中&#xff0c;<section>与<article>标签…

标准七层网络协议和TCP/IP四层协议的区别

分别是什么? OSI七层协议是国际标准组织制定的标准协议。其中七层分别是物理层,数据链路层,网络层,传输层,会话层,表示层,应用层。 TCP/IP协议是美国军方在后期网络技术的发展中提出来的符合目前现状的协议。其中四层分别是网络接口层对应七层中的物理层和数据链路层,…