线性回归(linear regression)学习笔记

本文为线性回归算法的学习笔记

线性回归(linear regression)

有监督学习。

给定数据集\(D=\{(x_1,y_1),\dots,(x_m,y_m)\}\),其中\(x_i=(x_{i1},\dots,x_{id})\),\(\in\mathbb {R}\)。线性回归尝试学得一个模型去准确预测输出值。

按输入变量个数分类 输入变量个数
一元回归 1
多元回归 多个

原理

学得一个模型(1),去由输入预测输出: \[ f(x_i)=w \cdot x_i+b \] 其中("\(\cdot\)"代表向量点积):

\[ w=(w_1,w_2,\dots,w_d)\\ \]

\(w\)代表权值,\(b\)代表偏置

损失函数(cost function)

\[ J=\frac{1}{2}\sum_{i=1}^m[f(x_i;\omega;b)-y_i]^2 \]

目标

最小化代价函数\(J\)

方法

梯度下降

对代价函数求偏导: \[ \frac{\partial J}{\partial w}=(\omega\cdot x_i+b-y_i) \cdot x_i \] \[ \frac{\partial J}{\partial b}=(\omega\cdot x_i+b-y_i) \]

\(w\)\(b\)的更新公式为: \[ \begin{equation} \begin{split} w \leftarrow w-\eta \frac{\partial J}{\partial w}&=w-\eta(w\cdot x_i+b-y_i)\cdot x_i\\ b \leftarrow b-\frac{\partial J}{\partial b}&= b-\eta(w\cdot x_i+b-y_i)\\ \end{split} \end{equation} \] 其中\(\eta\)为学习率。


线性回归(linear regression)学习笔记
http://example.com/2024/11/28/线性回归/
Author
John Doe
Posted on
November 28, 2024
Licensed under