线性回归
Linear Regression
是一种通过属性的线性组合来进行预测的线性模型。其目的是找到一条直线或者一个平面或者更高维的超平面,使得预测值与真实值之间的误差最小化。
代表训练集中样本的数量 代表特征的数量 代表特征/输入变量 代表目标变量/输出变量 代表训练集中的样本 代表第 个观察样本 代表预测的值 代表学习算法的解决方案或函数也称为假设(hypothesis) 为损失函数,采用平方和损失,残差平方和
一、最小二乘法 LSM
不需要选择学习率,需要计算
算法流程:知
二、梯度下降
需要选择学习率
- 批量梯度下降(Batch Gradient Descent,BGD):梯度下降的每一步中,都用到了所有的训练样本
- 随机梯度下降(Stochastic Gradient Descent,SGD):梯度下降的每一步中,用到一个样本,在每一次计算之后便更新参数,而不需要首先将所有的训练集求和
- 小批量梯度下降(Mini-Batch Gradient Descent,MBGD):梯度下降的每一步中,用到了一定批量的训练样本
三、回归的评价指标
均方误差 MSE(Mean Square Error):
均方根误差 RMSE (Root Mean Square Error):
平均绝对误差MAE(Mean Absolute Error):
RSquare