1. 逻辑回归介绍

逻辑回归(Logistic Regression)是机器学习中的一种分类模型,逻辑回归是一种分类算法,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛。

1 逻辑回归的应用场景

  • 广告点击率

  • 是否为垃圾邮件

  • 是否患病

  • 金融诈骗

  • 虚假账号

看到上面的例子,我们可以发现其中的特点,那就是都属于两个类别之间的判断。逻辑回归就是解决二分类问题的利器

2 逻辑回归的原理

要想掌握逻辑回归,必须掌握两点:

​ 逻辑回归中,其输入值是什么

​ 如何判断逻辑回归的输出

2.1 输入

h(w)=w1x1+w2x2+w3x3+bh(w)=w_1 x_1+w_2 x_2+w_3 x_3 \ldots+\mathrm{b}

逻辑回归的输入就是一个线性回归的结果。

2.2 激活函数

  • sigmoid函数

g(θTx)=11+eθTxg\left(\theta^T x\right)=\frac{1}{1+e^{-\theta^T x}}
  • 判断标准

    • 回归的结果输入到sigmoid函数当中

    • 输出结果:[0, 1]区间中的一个概率值,默认为0.5为阈值

逻辑回归最终的分类是通过属于某个类别的概率值来判断是否属于某个类别,并且这个类别默认标记为1(正例),另外的一个类别会标记为0(反例)。(方便损失计算)

输出结果解释(重要):假设有两个类别A,B,并且假设我们的概率值为属于A(1)这个类别的概率值。现在有一个样本的输入到逻辑回归输出结果0.6,那么这个概率值超过0.5,意味着我们训练或者预测的结果就是A(1)类别。那么反之,如果得出结果为0.3那么,训练或者预测结果就为B(0)类别。

所以接下来我们回忆之前的线性回归预测结果我们用均方误差衡量,那如果对于逻辑回归,我们预测的结果不对该怎么去衡量这个损失呢?我们来看这样一张图

那么如何去衡量逻辑回归的预测结果与真实结果的差异呢?

3 损失以及优化

3.1 损失

逻辑回归的损失,称之为对数似然损失,公式如下:

  • 分开类别:

cost(hθ(x),y)={log(hθ(x)) if y=1log(1hθ(x)) if y=0\operatorname{cost}\left(h_\theta(x), y\right)= \begin{cases}-\log \left(h_\theta(x)\right) & \text { if } \mathrm{y}=1 \\ -\log \left(1-h_\theta(x)\right) & \text { if } \mathrm{y}=0\end{cases}

怎么理解单个的式子呢?这个要根据log的函数图像来理解

  • 综合完整损失函数

cost(hθ(x),y)=i=1myilog(hθ(x))(1yi)log(1hθ(x))\operatorname{cost}\left(h_\theta(x), y\right)=\sum_{i=1}^m-y_i \log \left(h_\theta(x)\right)-\left(1-y_i\right) \log \left(1-h_\theta(x)\right)

看到这个式子,其实跟我们讲的信息熵类似。

接下来我们呢就带入上面那个例子来计算一遍,就能理解意义了。

我们已经知道,log(P), P值越大,结果越小,所以我们可以对着这个损失的式子去分析

3.2 优化

同样使用梯度下降优化算法,去减少损失函数的值。这样去更新逻辑回归前面对应算法的权重参数,提升原本属于1类别的概率,降低原本是0类别的概率。

Last updated