首页 >> 百科知识 > 百科精选 >

📚Softmax与Cross Entropy Loss的数学之美🚀

2025-03-25 03:45:39 来源:网易 用户:谭玲菊 

在深度学习中,Softmax 和 Cross Entropy Loss 是一对黄金搭档,它们常常携手出现在分类任务中。今天就来聊聊它们背后的数学逻辑吧!🧐

首先,Softmax 函数将模型输出映射到概率分布上,公式为:

\[ \sigma(z)_j = \frac{e^{z_j}}{\sum_k e^{z_k}} \]

它能让每个类别的预测值直观地表示为概率值,且所有概率和为1。💕

接着是 Cross Entropy Loss,它的作用是衡量预测概率分布与真实标签之间的差距:

\[ L = -\sum_i y_i \log(\hat{y}_i) \]

其中 \(y_i\) 是真实标签的概率(通常是0或1),而 \(\hat{y}_i\) 是预测值的概率。当预测准确时,损失接近于0;反之则增大。🔥

别担心复杂的求导过程,其实它们的导数公式并不难记:

- Softmax 对输入 \(z_j\) 的偏导数为:\[ \frac{\partial \sigma(z)_j}{\partial z_j} = \sigma(z)_j (1 - \sigma(z)_j) \]

- Cross Entropy Loss 对 Softmax 输出的偏导数为:\[ \frac{\partial L}{\partial \hat{y}_i} = -\frac{y_i}{\hat{y}_i} \]

通过这些公式,神经网络可以不断优化权重,从而提升预测能力!🌟

掌握这些基础知识后,你会发现机器学习的世界更加清晰明亮!💪✨

  免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!

 
分享:
最新文章
版权与免责声明:
①凡本网注明"来源:驾联网"的所有作品,均由本网编辑搜集整理,并加入大量个人点评、观点、配图等内容,版权均属于驾联网,未经本网许可,禁止转载,违反者本网将追究相关法律责任。
②本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
③如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,我们将在您联系我们之后24小时内予以删除,否则视为放弃相关权利。