【深度学习|学习笔记】自监督学习(Self-Supervised Learning, SSL)在遥感领域中的典型应用案例及其在小样本学习中的作用,附代码。
【深度学习|学习笔记】自监督学习(Self-Supervised Learning, SSL)在遥感领域中的典型应用案例及其在小样本学习中的作用,附代码。
【深度学习|学习笔记】自监督学习(Self-Supervised Learning, SSL)在遥感领域中的典型应用案例及其在小样本学习中的作用,附代码。
文章目录
- 【深度学习|学习笔记】自监督学习(Self-Supervised Learning, SSL)在遥感领域中的典型应用案例及其在小样本学习中的作用,附代码。
- 自监督学习在遥感领域的具体应用案例
- 遥感图像(RSI)面临两大挑战:
- 案例 1:遥感图像分类中的对比学习(SimCLR)
- ➤ 应用场景:
- ➤ 算法流程(基于 SimCLR):
- ➤ PyTorch代码简化示例:
- ➤ 成效:
- 案例 2:面向变化检测(CD)的掩码自编码(MAE)
- ➤ 应用场景:
- ➤ 方法思想(Masked AutoEncoder, MAE):
- ➤ 优点:
- 案例 3:面向目标检测的自监督预训练(如DINO)
- ➤ 应用场景:
- ➤ 方法:
- ➤ 效果:
- 自监督预训练在小样本学习中的优势与策略
- 1. 优势机制
- 2. 常见策略
- 策略 1:自监督预训练 + 下游微调(fine-tune)
- 策略 2:冻结encoder + 小样本线性分类器训练(linear probe)
- 3. 应用成效(文献支持)
- 总结
欢迎铁子们点赞、关注、收藏!
祝大家逢考必过!逢投必中!上岸上岸上岸!upupup
大多数高校硕博生毕业要求需要参加学术会议,发表EI或者SCI检索的学术论文会议论文。详细信息可关注VX “
学术会议小灵通
”或参考学术信息专栏:https://blog.csdn.net/2401_89898861/article/details/147776758
自监督学习在遥感领域的具体应用案例
遥感图像(RSI)面临两大挑战:
- 高分辨率、多模态、时间序列复杂
- 标注成本高(需专家手动标注)
因此,自监督学习(SSL)成为遥感图像表征学习的重要途径,在如下任务中表现突出:
案例 1:遥感图像分类中的对比学习(SimCLR)
➤ 应用场景:
- 大规模遥感图像(如NWPU-RESISC45)分类任务
- 利用无标签图像构建视觉特征表示,提升分类性能
➤ 算法流程(基于 SimCLR):
- 从遥感影像中切分图像块(如256×256)
- 对每张图像生成两种随机增强视图(crop、旋转、颜色扰动等)
- 通过编码器提取特征(如ResNet)
- 使用对比损失(NT-Xent loss)拉近正样本对、推远负样本对
- 冻结编码器,在下游分类任务中微调
➤ PyTorch代码简化示例:
import torchvision.transforms as T
from torchvision.models import resnet18
import torch.nn as nn# 数据增强用于生成两个视图
transform = T.Compose([T.RandomResizedCrop(224),T.RandomHorizontalFlip(),T.ColorJitter(0.4, 0.4, 0.4),T.RandomGrayscale(p=0.2),T.ToTensor()
])# 编码器网络 + 投影头
class SimCLR(nn.Module):def __init__(self, base_model):super().__init__()self.encoder = nn.Sequential(*list(base_model.children())[:-1])self.projection = nn.Sequential(nn.Linear(512, 256),nn.ReLU(),nn.Linear(256, 128))def forward(self, x):feat = self.encoder(x).squeeze()return self.projection(feat)
➤ 成效:
- 仅使用10%标签即可达到传统监督方法80%+的精度
- 在UC-Merced、AID等数据集上表现优异
案例 2:面向变化检测(CD)的掩码自编码(MAE)
➤ 应用场景:
- 时间序列遥感图像的变化检测(如建筑物增长、土地利用变化)
➤ 方法思想(Masked AutoEncoder, MAE):
- 输入图像进行patch划分
- 随机mask掉75% patch
- 编码器提取可见部分的特征
- 解码器预测原图,恢复被mask部分
- 利用预训练encoder作为下游变化检测的特征提取器
➤ 优点:
- 避免了对变化对标签的强依赖
- 适用于时序遥感(如哨兵-2或Landsat)
案例 3:面向目标检测的自监督预训练(如DINO)
➤ 应用场景:
- 检测遥感图像中的飞机、舰船、车辆等小目标
- 数据集中目标密集、标签稀缺
➤ 方法:
- 使用DINO或iBOT在ImageNet或RS数据上进行自监督预训练
- 再将encoder迁移至YOLO、DETR等检测框架中微调
➤ 效果:
- 少量标注下(10%标注)仍可达到与监督模型相近性能
自监督预训练在小样本学习中的优势与策略
1. 优势机制
能力 | SSL带来的优势 |
---|---|
表征能力 | 通过无标签学习通用特征 |
泛化能力 | 降低对特定数据集的过拟合风险 |
小样本适应 | 预训练后仅需极少样本即可微调 |
领域适应(Domain Adapt) | 可对不同时空/传感器数据迁移 |
2. 常见策略
策略 1:自监督预训练 + 下游微调(fine-tune)
- 使用大规模无标签遥感数据进行自监督预训练(如对比学习)
- 保留encoder参数
- 在目标数据集上微调分类器/检测器等
策略 2:冻结encoder + 小样本线性分类器训练(linear probe)
- 自监督学习固定特征提取器
- 用极少样本训练一个线性分类头
3. 应用成效(文献支持)
数据集 | 方法 | 标签比例 | 监督准确率 | 自监督微调准确率 |
---|---|---|---|---|
UC Merced | SimCLR | 10% | 82.1% | 85.3% |
AID | MoCo v2 | 5% | 76.5% | 83.7% |
SEN12MS(多光谱) | BYOL | 1% | 58.3% | 72.9% |
总结
特点 | 描述 |
---|---|
自监督在遥感中的价值 | 利用海量未标注遥感数据,提升特征表示与小样本性能 |
适合任务 | 图像分类、变化检测、目标检测、多模态融合(光学+SAR) |
有效模型 | SimCLR, MoCo, MAE, BYOL, DINO, iBOT 等 |
对小样本的促进 | 提升泛化能力,降低样本需求,缓解遥感人工标注困难 |