逻辑回归

Logistic Regression
广义线性回归分析,用于分类问题,尤其是二分类问题。权重向量的最大近似然估计

逻辑回归是监督学习 (Supervised Learning) 中一种广泛使用的分类 (Classification) 算法,尽管其名称中包含“回归”,但它主要用于解决二分类问题(例如,是/否,真/假,0/1)。它通过将线性回归的输出通过一个非线性的 Sigmoid函数 (Sigmoid Function) 映射到 0 到 1 之间,从而解释为属于某一类别的概率。

分类基础

分类是监督学习的最主要类型,输入变量可以是离散的,也可以是连续的

Sigmoid 函数

激活函数#Sigmoid
Sigmoid 函数:常见的逻辑函数, S 形函数

z=wTx+bσ(z)=g(z)=11+ezg(z)=g(z)(1g(z))

σ(z)0.5,y=1 ; 当 σ(z)<0.5,y=0

逻辑回归求解

二分类模型:p(yx;w)=(h(x))y(1h(x))1y
逻辑函数:z=wTx+bσ(z)=g(z)=11+ezg(z)=g(z)(1g(z))
损失函数: L(y^,y)=ylog(y^)(1y)log(1y^)
代价函数:J(w)=1mi=1mL(y^,y)

模型原理

逻辑回归的核心思想是:

  1. 线性组合: 首先,像线性回归一样,对输入特征 x 进行线性组合,得到一个线性得分 z

    z=wTx+b

    其中 w 是权重向量,b 是偏置项。

  2. Sigmoid 函数: 将线性得分 z 输入到 Sigmoid 函数(也称为逻辑函数)中。Sigmoid 函数将任意实数映射到 (0, 1) 区间内,其公式为:

    σ(z)=11+ez

    Sigmoid 函数的输出可以被解释为样本属于正类别(通常标记为 1)的概率 P(y=1|x)

    P(y=1|x)=σ(wTx+b)

    那么,属于负类别(通常标记为 0)的概率就是:

    P(y=0|x)=1P(y=1|x)
  3. 分类决策: 通常,如果 P(y=1|x)0.5,则预测为正类别(1);否则预测为负类别(0)。

损失函数 (Cost Function)

与线性回归使用均方误差不同,逻辑回归通常使用交叉熵损失 (Cross-Entropy Loss),也称为对数损失 (Log Loss)。对于二分类问题,其损失函数定义为:

L(w,b)=1mi=1m[y(i)log(y^(i))+(1y(i))log(1y^(i))]

其中 m 是训练样本的数量,y(i) 是第 i 个样本的真实标签(0 或 1),y^(i) 是第 i 个样本预测为 1 的概率。

最小化交叉熵损失的目标是使得模型预测的概率分布尽可能接近真实标签的概率分布。

优化算法

逻辑回归的参数 wb 通常通过梯度下降 (Gradient Descent) 或其变种算法来优化,以最小化交叉熵损失函数。

优点与局限性