深度学习之逻辑回归(logistic)
介绍
线性回归
在介绍逻辑回归算法之前,我们来先来讲一个例子,来介绍线性回归。当顾客去挑选一件商品时,我们需要预测顾客挑选这个商品的概率。这个商品包含了许多特征Xn来吸引客户,这些特征值包含了不同的权重Wn,还有一个偏置b,那么线性回归的的结果就是w1x1+w2x2+...+wnxn+b
逻辑回归
逻辑回归有什么用?
我们假设,用户如果选择了这件商品,那么结果值为1
,反之,结果值为0
,那么我们需要将我们的到的线性回归结果去做一个逻辑回归的去做一个预测值,然后通过预测值与结果值通过逻辑回归损失函数进行比较,通过大量的数据对每个特征值的权重和偏置进行调整,使预测值趋向与结果值。
逻辑回归函数
如下是逻辑回归的函数:
这里的𝑤𝑇𝑥+𝑏
就是刚刚线性回归的结果值。
下面是函数图像:
这里我们用表格来形象讲解一下:
对应的权重值如下:
那么我们计算X沐浴露的线性回归可得:W1*98+W2*87+W3*52+b
,Y沐浴露的线性回归为:W1*78+W2*92+W3*58+b
得到了线性回归,那么我们带入Sigmoid函数(逻辑回归),得出如下预测值:
然后我们需要借助逻辑回归损失函数进行比较,让其自动调整权重和偏置,使预测值不断趋近与结果值。
逻辑回归损失率计算函数
当实际结果𝑦=0 时,
此时要想损失函数小,要让^y
尽可能的趋向于0,即^y=0
损失为 0。
当实际结果𝑦= 1时,
此时要想损失函数小,要让^y
尽可能的趋向于1,即^y=1
损失为 0。
成本函数(Cost function)
这个函数是衡量在多个训练样本的表现,相当于求平均损失率,函数如下:
本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 XZRO
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果