当前位置: 首页 > ai >正文

深度学习·基础知识

交叉熵损失CE

只关心正确类别的预测概率

  • 先进行softmax得到logits
  • 真实标签的概率分布:yyy,预测标签的概率分布y^\hat{y}y^,NNN表示类别数,且yi∈{0,1}y_i\in\{0,1\}yi{0,1}
  • 衡量两个概率分布的距离或者差别,类似KL散度
    L(y,y^)=−1N∑i=1Nyilog(y^i) \mathcal{L}(y,\hat{y})=-\frac{1}{N}\sum_{i=1}^Ny_i log(\hat{y}_i) L(y,y^)=N1i=1Nyilog(y^i)

二元交叉熵BCE

只需要记忆BCE就可,CE是其的一种推广
BCE确实强制每个类别的输出趋近0或1

  • 先对每一个类别预测结果应用softmax得到logits
  • 每一个类别的yiy_iyi允许为1,意味着可以存在多个分类结果
  • 真实标签的概率分布:yyy,预测标签的概率分布y^\hat{y}y^,NNN表示样本数,且yi∈{0,1}y_i\in\{0,1\}yi{0,1}
    L(y,y^)=−1N∑i=1Nyilog(y^i)+(1−yi)log(1−y^i) \mathcal{L}(y,\hat{y})=-\frac{1}{N}\sum_{i=1}^Ny_i log(\hat{y}_i)+(1-y_i)log(1-\hat{y}_i) L(y,y^)=N1i=1Nyilog(y^i)+(1yi)log(1y^i)

Focal loss

  • 用于解决数据集不平衡的问题
  • 建立在BCE的基础之上
  • ptp_tpt表明预测的置信度,与类别无关。(例如p=1表示对于类别1的预测概率为1,但是ptp_tpt表明了对正确标签的预测概率)
  • αt\alpha_tαt定义与ptp_tpt类同,主要用平衡正负样本权衡
  • (1−pt)γ(1-p_t)^{\gamma}(1pt)γ用于平衡难易的样本权衡
    在这里插入图片描述

在这里插入图片描述

  • 以下两种公式完全等价。就是展开来写的区别。
    在这里插入图片描述

在这里插入图片描述
这里的yiy_iyi预测结果,y^∈{0,1}\hat{y}\in\{0,1\}y^{0,1}ground truthαt\alpha_tαt一般不加,不考虑正负样本;γ=2\gamma=2γ=2时效果最好。

Dice loss

  • 解决数据集不平衡的问题
    标准公式:
    Ldice=1−2∣X∩Y∣∣X∣+∣Y∣ \mathcal{L}_{dice}=1-\frac{2|X\cap Y|}{|X|+|Y|} Ldice=1X+Y2∣XY

很明显如果完全重合损失为0,所以这个loss适用于直接优化IOU指标

  • 实际计算:
  • 针对每一个类别计算loss损失
  • 遍历每一个类别i(ground_truth==i)*pred*2得到上面的项,然后分别对掩码矩阵和预测矩阵求平方得到下面的项(技巧:转bool值)
    在这里插入图片描述

GZLSS/ZLSS和FLSS/FLSS

Zero-label=zero shot
few label=few shot

训练过程

  • 预先设定某些类别为seen和unseen类
  • 训练过程中对于unseen或者不涉及的类别,不计算损失
  • 数据集的样本的划分细节等都不变
    在这里插入图片描述

测试过程

  • IOU指标取平均得到mIOU
  • seen和unseen的类被分别计算
  • 最终得到harmonic mean (H)

“inductive” zero-shot 和“transductive” zero-shot

Besides “inductive” zero-shot segmentation, there is a “transductive” zero-shot learning setting, which assumes that the names of unseen classes are known before the testing stage. They [17, 56] suppose that the training images include the unseen objects, and only ground truth masks for these regions are not available. Our method can easily be extended to both settings and achieve excellent performance.

“transductive” zero-shot在训练过程中,unseen类已知,图片中也包括unseen类,但是它们的注释信息是不知道的,所以需要CLIP生成伪标签,通过BCE来生成损失

http://www.xdnf.cn/news/17069.html

相关文章:

  • selenium自动化收集资料
  • 从汇编角度揭秘C++构造函数(1)
  • 【深度学习新浪潮】混元3D是什么产品?
  • 2025《艾诺提亚失落之歌》逆向工程解包尝试
  • 【模电笔记】—— 直流稳压电源——整流、滤波电路
  • 二叉树——堆及其实现
  • 防御保护07-08
  • 三种灰狼算法求解无人机三维路径规划【MATLAB实现】
  • Android AppSearch 深度解析:现代应用搜索架构与实践
  • 论文阅读笔记:《Curriculum Coarse-to-Fine Selection for High-IPC Dataset Distillation》
  • 《算法导论》第 4 章 - 分治策略
  • uniapp云打包打包安卓app失败,显示:本地安装包生成失败,请重试或者切换到非安心打包模式进行打包
  • 第十七天:原码、反码、补码与位运算
  • 【渲染流水线】主线索引-从数据到图像以UnityURP为例
  • Kafka 的基本操作(1)
  • Go语言实战案例:使用sync.Mutex实现资源加锁
  • 解决docker load加载tar镜像报json no such file or directory的错误
  • 安科瑞智慧能源管理系统在啤酒厂5MW分布式光伏防逆流控制实践
  • Redis协议数据迁移方式
  • 基于华为开发者空间的Open WebUI数据分析与可视化实战
  • 一次“无告警”的服务器宕机分析:从无迹可寻到精准定位
  • Java技术栈/面试题合集(8)-Redis篇
  • linux服务器上word转pdf后乱码问题
  • 如何对云环境或者超融合系统进行性能测试?
  • Java项目:基于SSM框架实现的公益网站管理系统【ssm+B/S架构+源码+数据库+毕业论文+答辩PPT+远程部署】
  • Python 3.13 预览版:颠覆性特性与实战指南
  • Spring 的依赖注入DI是什么?
  • Starrocks中的 Query Profile以及explain analyze及trace命令中的区别
  • 力扣经典算法篇-43-全排列(经典回溯问题)
  • SpringCloud学习------Gateway详解