AI测试 深度学习基础 (九)--Softmax (多分类与评估指标)

孙高飞 · 2017年12月17日 · 最后由 lm10320 回复于 2023年02月09日 · 5132 次阅读

前言

之前一直在学习回归和二分类, 今天记录一下多分类的情况。

Softmax

二分类和多分类其实没有多少区别。用的公式仍然是 y=wx + b。 但有一个非常大的区别是他们用的激活函数是不同的。 逻辑回归用的是 sigmoid,这个激活函数的除了给函数增加非线性之外还会把最后的预测值转换成在【0,1】中的数据值。也就是预测值是 0<y<1。 我们可以把最后的这个预测值当做是一个预测为正例的概率。在进行模型应用的时候我们会设置一个阈值,当预测值大于这个阈值的时候,我们判定为正例子,反之我们判断为负例。这样我们可以很好的进行二分类问题。 而多分类中我们用的激活函数是 softmax。 为了能够比较好的解释它,我们来说一个例子。 假设我们有一个图片识别的 4 分类的场景。 我们想从图片中识别毛,狗,鸡和其他这 4 种类别。那么我们的神经网络就变成下面这个样子的。

我们最后的一层中使用的激活函数就是 softmax。 我们发现跟二分类在输出层之后一个单元不同的是, 使用 softmax 的输出层拥有多个单元,实际上我们有多少个分类就会有多少个单元,在这个例子中,我们有 4 个分类,所以也就有 4 个神经单元,它们代表了这 4 个分类。在 softmax 的作用下每个神经单元都会计算出当前样本属于本类的概率。如下:

如上图,该样本属于第一个分类的概率是 0.842, 属于第二个分类的概率是 0.042,属于第三个分类的概率是 0.002,属于第四个分类的概率是 0.114. 我们发现这些值相加等于一,因为这些值也是经过归一化的结果。 整个效果图可以参考下面的例子, 这是一个比较直观的图。

Softmax 的损失函数

既然 softmax 的输出变成了多个值,那么我们如何计算它的损失函数呢, 有了损失函数我们才能进行梯度下降迭代并根据前向传播和反向传播进行学习。如下图:

还是假设有 4 个分类,那么实际的预测向量,也会有 4 个维度。 如上图左边的样子。 如果是属于第二个分类,那么第二个值就是 1, 其他值都是 0。 假设右边的向量是预测值, 每个分类都有一个预测概率。 那么我们的损失函数就是。

由于实际值得向量只有一个是 1,其他的都是 0. 所以其实到了最后的函数是下面这个样子的

OK,有了损失函数,我们就可以跟以前做逻辑回归一样做梯度下降就可以了。

混淆矩阵和评估指标

我们之前评价二分类的时候有混淆矩阵,AUC 等评估指标。 在多分类中我们同样有这些指标,只不过计算方式略有不同。 就如混淆矩阵。如有 150 个样本数据,这些数据分成 3 类,每类 50 个。分类结束后得到的混淆矩阵为:

其中第一行说明类 1 的 50 个样本有 43 个分类正确,5 个错分为类 2,2 个错分为类 3。

我们再来看一个更复杂一点的。

上面是一个 7 分类,有 700 个样本,每类一百个共 700 个样本的混淆矩阵。我们可以通过混淆矩阵计算出准确率,同时也可以计算出每一个分类的召回,精准和 F1 score。

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
共收到 13 条回复 时间 点赞

是不是写的很孤独,大多数人学 ai 都是叶公好龙。可以把之前的资料稿个合集啦。

估计这个论坛没几个人搞过这个,纯支持。

是有点孤独~ 不过好在工作上用的到, 坚持的下去。 也算给自己的工作留下点足迹吧。

蒋刚毅 回复

谢谢~~ 总算有点人气儿了~~哈哈

坚持不易,支持!

别怕,先驱都是比较孤独的。

只是 不懂。。。不敢评论而已。。。大佬坚持,等涉及到的时候 会翻你的第一手资料

陈恒捷 回复

坚持坚持~~ 再坚持~~

恒温 回复

还好哈哈,大家多跟我说说话就热闹多了

白纸 回复

恩恩,以后有机会欢迎来探讨

作者您好,我跑 python_confmat.py 时,出现 Can't handle mix of multiclass and known,不知道问题出在哪里怎么解决,我的训练测试数据是四类,分别贴 0,1,2,3 的标签,生成 lmdb,最后用 softmax 来分类,困扰我很久,网上能搜到的资料又少之又少,迟迟未能解决,如果您遇到过,请您帮帮我

谢谢分享这些经验心得,支持!

ABEE ycwdaaaa (孙高飞) 在 TesterHome 的发帖整理 中提及了此贴 01月12日 13:47
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册