DataLearner logoDataLearnerAI
Latest AI Insights
Model Evaluations
Model Directory
Model Comparison
Resource Center
Tools

加载中...

DataLearner logoDataLearner AI

A knowledge platform focused on LLM benchmarking, datasets, and practical instruction with continuously updated capability maps.

产品

  • Leaderboards
  • 模型对比
  • Datasets

资源

  • Tutorials
  • Editorial
  • Tool directory

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner curates industry data and case studies so researchers, enterprises, and developers can rely on trustworthy intelligence.

隐私政策服务条款
  1. Home/
  2. Blog List/
  3. Blog Detail

超越Cross-Entropy Loss(交叉熵损失)的新损失函数——PolyLoss简介

2022/05/03 17:31:30
2,300 views
损失函数深度学习

Google旗下自动驾驶公司Waymo的研究人员Mingxing Tan发现了一个可以替代Cross-Entropy Loss的新的损失函数:PolyLoss,这是发表在ICLR 22的一篇新论文。什么都不变的情况下,只需要将损失函数的代码替换成PolyLoss,那么模型在图像分类、图像检测等任务的性能就会有很好的提升!

如上图所示,ImageNet的分类、COCO的图像检测与划分以及Waymo开放3D数据集的3D检测等,使用PolyLoss之后的模型,其性能都有所提升。

那么这个神奇PolyLoss来自哪里呢?其实就是来自泰勒展开式(Taylor Expansion),如果你用泰勒展开式去展开交叉熵,你会发现其多项式系数是$\frac{1}{j}$,但是这些系数对于所有的模型和任务来说都是固定的,但是是不是就是就是最优的呢?显然可能不是。

于是,他们提出,这个系数应该是针对不同模型和任务进行调优。根据他们的测试,前导项(the leading term)是最重要的,于是他们加入了一个可调整(tunable)项:$\epsilon \cdot (1-P_t)$。并将该损失函数称为PolyLoss。

PolyLoss是一个通用的框架,可以很容易转成 cross-entropy loss, focal loss, and other losses等。作者仅仅更改损失函数,并将$\epsilon$变成tunable,就可以提升很多模型效果:

EfficientNetV2:最优的$\epsilon=2$ Mask-RCNN:最优的$\epsilon=-1$ RSN 3D detection:最优的$\epsilon=-0.4$

对于如何寻找最优的$\epsilon$结果,作者给出了一个简单的方法,就是从-1到1之间去不同尝试,一般来说尝试4-5次即可。需要注意的是,$\epsilon$的值必须大于-1,以保证损失函数是单调的。

原文:https://arxiv.org/abs/2204.12511

DataLearner WeChat

Follow DataLearner WeChat for the latest AI updates

DataLearner 官方微信二维码
Back to Blog List

Related Blogs

  • 指标函数(Metrics Function)和损失函数(Loss Function)的区别是什么?
  • Batch Normalization应该在激活函数之前使用还是激活函数之后使用?
  • Saleforce发布最新的开源语言-视觉处理深度学习库LAVIS
  • 深度学习模型训练将训练批次(batch)设置为2的指数是否有实际价值?
  • 亚马逊近线性大规模模型训练加速库MiCS来了!
  • Hugging Face发布最新的深度学习模型评估库Evaluate!
  • XLNet基本思想简介以及为什么它优于BERT
  • 开源版本的GPT-3来临!Meta发布OPT大语言模型!

Hot Blogs

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署