转摘【深度学习】模型训练教程之Focal Loss调参和Dice实现

榆木稚年阅读量 432

![在这里插入图片描述](https://img-blog.csdnimg.cn/cover5/237143518359060527.jpg?x-oss-process=image,type_ZmFuZ3poZW5naGVpdGk,shadow_10,image_MjAyMDA3MTUxNjIxMDEzOC5wbmc=,size_16,color_FFFFFF,t_70,image/resize,m_lfit,w_962#pic_center)

prism language-css 复制代码
文章目录
1 Focal Loss调参概述
2 实验
3 FocalLoss 对样本不平衡的权重调节和减低损失值
4 多分类 focal loss 以及 dice loss 的pytorch以及keras/tf实现
	4.1 pytorch 下的多分类 focal loss 以及 dice loss实现
	4.2 keras/tf 下的多分类 focal loss 以及 dice loss实现

1 Focal Loss调参概述

![在这里插入图片描述](https://img-blog.csdnimg.cn/20210715101625691.png)
有两个参数可调, alpha和gamma.

alpha是控制类别不平衡的.

gamma是控制难易样本的.

一般都是调alpha, gamma自己没调过,有大佬调过的可以发表一下见解.

alpha越大,recall会越高,precision会越低.

当alpha增大时,比如说增大到1, 以一个检测的二分类为背景, 这时候focal loss就不会包含负样本的loss了, 想要focal loss最小我只要全预测为正即可, 这时候自然recall就会100%, precision也会降低.

当alpha减小,比如减小到0, 这时候focal loss中只有负样本的loss, 那只要网络对所有样本

复制代码
    ===========================
    【来源: CSDN】
    【作者: 李响Superb】
    【原文链接】 https://lixiang.blog.csdn.net/article/details/118753413
    声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢。
标签:
0/300
全部评论0
0/300