labelme的安装与使用(以关键点检测为例)、labelme格式标签转换
注:labelme 和 labelImg 是两款不同的数据标注工具。labelme 的 Github 官方地址:
https://github.com/wkentaro/labelme
https://github.com/wkentaro/labelme
参考笔记:
Labelme标注工具安装及使用_labelme安装及使用教程-CSDN博客
学习视频:
同济子豪兄:标注关键点检测数据集_哔哩哔哩_bilibili
目录
1.labelme的安装
1.1 方法一:直接下载官方提供的Labelme.exe
1.2. 方法二:通过命令行安装
2.labelme的使用
3.解析标注后生成的json文件(以关键点检测为例)
4.labelme格式标签转换---关键点检测任务
4.1 labelme转YOLO格式
4.1.1 yolov8关键点识别模型标签格式解析
4.1.2 转换代码
4.2 labelme转MS COCO格式
4.2.1 MS COCO格式关键点检测标注解析
4.2.2 转换代码
5.labelme格式标签转换---目标检测任务
1.labelme的安装
lableme 有两种安装方法:
① 直接下载官方提供的 Labelme.exe ,可以直接打开使用
② 通过命令行安装
1.1 方法一:直接下载官方提供的Labelme.exe
进入 labelme 的Github官方地址:https://github.com/wkentaro/labelme,找到右边的 Releases ,然后点击进去:
点击进来,可以看到以下页面:
一些比较新的 lableme 版本的 labelme.exe 是需要收费的,所以我们可以找老一点的版本。一直把页面往下拉,找到 5.2.0 版本的,如下:
windows 系统下载 Labelme.exe 即可,下载完成之后就可以直接打开了,打开页面如下:
1.2. 方法二:通过命令行安装
① 创建conda环境
为了更好的使用 Labelme 标注工具,我们最好创建一个新的 conda 环境,并将其命名为 labelme 。如下:
conda create -n labelme python=3.8
创建成功之后,我们激活该环境,如下:
conda activate labelme
② 安装pyqt、pillow、labelme
conda install pyqtconda install pillowpip install labelme==5.1.1#指定一个版本
查看是否安装成功,输入以下命令行:
conda list
结果:
③ 打开labelme
在前面创建的 conda 环境 labelme 下输入以下命令行就可以打开 labelme 标注工具了:
2.labelme的使用
labelme 的如何使用可以观看同济子豪兄的视频,如下:
标注关键点检测数据集_哔哩哔哩_bilibili【同济子豪兄-两天带你搞定关键点检测毕业设计全流程】“关键点检测”(Keypoint Detection)是计算机视觉解决的基础核心任务之一:从图像中识别出带语义的点,并输出点的坐标。关键点检测全流程包括:标注数据集、训练深度学习算法、评估性能、推理预测、应用部署。第一步,需要标注自己的关键点检测数据集。本讲视频,子豪兄手把手带你使用业界通用标注工具Labelme,标注框、点、多段线,形成“30度, 视频播放量 49927、弹幕量 67、点赞数 971、投硬币枚数 725、收藏人数 1783、转发人数 366, 视频作者 同济子豪兄, 作者简介 私信课题方向,帮你分析规划/想创新点/摇导师/找数据集/找论文期刊,相关视频:yolov8(一) 初识pose关键点检测(源码分析+进阶系列),标注自己的语义分割数据集,【收藏】YOLO最全标注教学-分类、检测、分割、关键点、OBB旋转框,人脸三维关键点检测+颜值打分(附Mediapipe代码),保姆级Yolov8教程|手把手教你实现检测、分类、细分、姿态等,关键点检测数据集-Labelme格式转YOLO格式,关键点检测数据集-Labelme格式转MS COCO格式,YOLOV8关键点检测-用训练得到的模型预测图像、视频、摄像头画面,RTMPose关键点检测-MMDetection三角板目标检测,RTMPose关键点检测-训练、评估、推理预测https://www.bilibili.com/video/BV19g4y1777q/?spm_id_from=333.1391.0.0&vd_source=1d94b0e636f40a8400d1d5d20e3c243c
3.解析标注后生成的json文件(以关键点检测为例)
以这下面这张图片 DSC_01.png 为例:
-
目标框:标签名是 sjb_rect ,关键点检测任务中通常只有一种类别的目标框
-
关键点:上图中关键点有 3 个,即 angle_30、angle_60、angle_90
该图片 DSC_01.png 用 lableme 标注完成之后,会生成一个 DSC_01.json 文件,即一张图片对应一个 json 文件,json 文件的内容如下:
{"version": "5.2.0.post4","flags": {},"shapes": [{"label": "sjb_rect","points": [[45.22932330827065,198.57518796992485],[383.57518796992474,404.59022556390977]],"group_id": null,"description": "","shape_type": "rectangle","flags": {}},{"label": "sjb_rect","points": [[497.1090225563909,63.236842105263165],[755.0037593984962,412.86090225563913]],"group_id": null,"description": "","shape_type": "rectangle","flags": {}},{"label": "angle_90","points": [[60.26691729323306,214.36466165413538]],"group_id": null,"description": "","shape_type": "point","flags": {}},{"label": "angle_90","points": [[511.3947368421052,273.0112781954887]],"group_id": null,"description": "","shape_type": "point","flags": {}},{"label": "angle_60","points": [[50.49248120300749,399.32706766917295]],"group_id": null,"description": "","shape_type": "point","flags": {}},{"label": "angle_60","points": [[631.6954887218045,406.84586466165416]],"group_id": null,"description": "","shape_type": "point","flags": {}},{"label": "angle_30","points": [[374.55263157894734,233.16165413533838]],"group_id": null,"description": "","shape_type": "point","flags": {}},{"label": "angle_30","points": [[743.7255639097743,66.24436090225565]],"group_id": null,"description": "","shape_type": "point","flags": {}}],"imagePath": "DSC_01.png","imageData": null,"imageHeight": 537,"imageWidth": 807
}
json 文件中不是所有信息都需要关注,我们关注一些重点信息
目标框信息:
关键点信息:
图片信息:
🆗,以上就是 labelme 标注之后生成的 json 文件中重要的信息了。另外需要注意的是,json 文件中的所有坐标信息、图片高宽都是原始的,并没有作归一化处理
4.labelme格式标签转换---关键点检测任务
4.1 labelme转YOLO格式
4.1.1 yolov8关键点识别模型标签格式解析
首先,训练集中每一张图片对应一个同名的 txt 文件作为标签,txt 中每一行代表一个检测框,且所有坐标信息均作了归一化处理。格式及含义如下:
-
cx:表示归一化后的 box 框中心点坐标的 x 值。归一化坐标 = 实际坐标 / 整个图片宽
-
cy:表示归一化后的 box 框中心点坐标的 y 值。归一化坐标 = 实际坐标 / 整个图片高
-
w:表示归一化后的 box 框的宽。归一化长度 = 实际长度 / 整个图片宽
-
h:表示归一化后的 box 框的高。归一化长度 = 实际长度 /整个图片高
-
xi:表示归一化后的关键点坐标的 x 值。归一化坐标 = 实际坐标 / 整个图片宽
-
yi:表示归一化后的关键点坐标的 y 值。归一化坐标 = 实际坐标 / 整个图片宽
-
vi:代表关键点的遮挡情况
4.1.2 转换代码
如何划分训练集、验证集这里就不给出代码了,随便用一个大模型写一个脚本就行了
转换格式前后的数据集目录情况如下:
转换代码:
import os
import json
from pathlib import Path'''
脚本作用:将关键点检测任务的labelme格式json文件 -----> yolo格式txt文件
'''# 数据集目录
Dataset_root = r'D:\bodyMeasurement-temp\Dataset'# 目标框的类别
bbox_class = {'sjb_rect':0
}# 关键点的类别名
keypoint_class = ['angle_30', 'angle_60', 'angle_90']# 创建存放转换结果的目录(若存在则不创建)
os.makedirs(os.path.join(Dataset_root,r"labels-yolo\train"),exist_ok=True)#D:\bodyMeasurement-temp\Dataset\labels-yolo\train
os.makedirs(os.path.join(Dataset_root,r"labels-yolo\val"),exist_ok=True)#D:\bodyMeasurement-temp\Dataset\labels-yolo\val# 处理单个labelme标注json文件--->yolo格式
def process_single_json(labelme_path, yolo_txt_path):with open(labelme_path, 'r', encoding='utf-8') as f:labelme = json.load(f)img_width = labelme['imageWidth'] # 图像宽度img_height = labelme['imageHeight'] # 图像高度with open(yolo_txt_path, 'w', encoding='utf-8') as f:for each_ann in labelme['shapes']: # 遍历每个标注if each_ann['shape_type'] == 'rectangle': # 每个框,在 txt 里写一行yolo_str = ''## 框的信息# 框的类别 IDbbox_class_id = bbox_class[each_ann['label']]yolo_str += '{} '.format(bbox_class_id)# 左上角和右下角的 XY 像素坐标bbox_top_left_x = int(min(each_ann['points'][0][0], each_ann['points'][1][0]))bbox_bottom_right_x = int(max(each_ann['points'][0][0], each_ann['points'][1][0]))bbox_top_left_y = int(min(each_ann['points'][0][1], each_ann['points'][1][1]))bbox_bottom_right_y = int(max(each_ann['points'][0][1], each_ann['points'][1][1]))# 框中心点的 XY 像素坐标bbox_center_x = int((bbox_top_left_x + bbox_bottom_right_x) / 2)bbox_center_y = int((bbox_top_left_y + bbox_bottom_right_y) / 2)# 框宽度bbox_width = bbox_bottom_right_x - bbox_top_left_x# 框高度bbox_height = bbox_bottom_right_y - bbox_top_left_y# 框中心点归一化坐标bbox_center_x_norm = bbox_center_x / img_widthbbox_center_y_norm = bbox_center_y / img_height# 框归一化宽度bbox_width_norm = bbox_width / img_width# 框归一化高度bbox_height_norm = bbox_height / img_heightyolo_str += '{:.5f} {:.5f} {:.5f} {:.5f} '.format(bbox_center_x_norm, bbox_center_y_norm,bbox_width_norm, bbox_height_norm)## 找到该框中所有关键点,存在字典 bbox_keypoints_dict 中bbox_keypoints_dict = {}for each_ann in labelme['shapes']: # 遍历所有标注if each_ann['shape_type'] == 'point': # 筛选出关键点标注# 关键点XY坐标、类别x = int(each_ann['points'][0][0])y = int(each_ann['points'][0][1])label = each_ann['label']if (x > bbox_top_left_x) & (x < bbox_bottom_right_x) & (y < bbox_bottom_right_y) & (y > bbox_top_left_y): # 筛选出在该个体框中的关键点bbox_keypoints_dict[label] = [x, y]## 把关键点按顺序排好for each_class in keypoint_class: # 遍历每一类关键点if each_class in bbox_keypoints_dict:keypoint_x_norm = bbox_keypoints_dict[each_class][0] / img_widthkeypoint_y_norm = bbox_keypoints_dict[each_class][1] / img_heightyolo_str += '{:.5f} {:.5f} {} '.format(keypoint_x_norm, keypoint_y_norm,2) # 2-可见不遮挡 1-遮挡 0-没有点,这里我们全部设为2,表示可见不遮挡else: # 不存在的点,一律为0yolo_str += '0 0 0 '# 写入 txt 文件中f.write(yolo_str + '\n')print('{} --> {} 转换完成'.format(labelme_path, yolo_txt_path))if __name__ == '__main__':# 指定labelme格式json文件所在文件夹路径json_folder = r'D:\bodyMeasurement-temp\Dataset\labels-labelme\train'# 指定转换为yolo格式后的txt文件的存放路径save_folder = r'D:\bodyMeasurement-temp\Dataset\labels-yolo\train'# 获取文件夹中的所有labelme格式json文件json_files = [f for f in os.listdir(json_folder) if f.endswith('.json')]# 遍历所有的labelme格式json文件for labelme_path in json_files:#构建labelme格式json文件的完整路径labelme_path = os.path.join(json_folder,labelme_path)#获取文件名(不包括.json后缀名)filename = Path(labelme_path).stem#构建yolo格式txt文件的完整路径yolo_txt_path = os.path.join(save_folder,filename) + '.txt'#labelme格式json文件---->yolo格式txt文件process_single_json(labelme_path,yolo_txt_path)print('YOLO格式的txt标注文件已保存至 ', save_folder)
4.2 labelme转MS COCO格式
4.2.1 MS COCO格式关键点检测标注解析
😈待更新,可以看一下同济子豪兄的讲解:关键点检测数据集-Labelme格式转MS COCO格式_哔哩哔哩_bilibili【同济子豪兄-两天带你搞定关键点检测毕业设计全流程】“关键点检测”(Keypoint Detection)是计算机视觉解决的基础核心任务之一:从图像中识别出带语义的点,并输出点的坐标。关键点检测全流程包括:标注数据集、训练深度学习算法、评估性能、推理预测、应用部署。上一集使用Labelme标注工具,标注得到Labelme格式的关键点检测数据集。本集视频,详细介绍MS COCO关键点检测标注格式,通, 视频播放量 20721、弹幕量 13、点赞数 291、投硬币枚数 106、收藏人数 300、转发人数 62, 视频作者 同济子豪兄, 作者简介 私信课题方向,帮你分析规划/想创新点/摇导师/找数据集/找论文期刊,相关视频:标注关键点检测数据集,RTMPose关键点检测-训练、评估、推理预测,关键点检测数据集-Labelme格式转YOLO格式,YOLOV8关键点检测-用训练得到的模型预测图像、视频、摄像头画面,开源姿态估计算法库MMPose,标注自己的语义分割数据集,MMSegmentation训练语义分割深度学习算法,用超算跑YOLOV8是什么体验?,训练Deepsort多目标追踪算法,【子豪兄Pytorch】二十分钟搭建神经网络分类Fashion-MNIST数据集时尚物品https://www.bilibili.com/video/BV1vc411J7GC/?spm_id_from=333.1391.0.0&vd_source=1d94b0e636f40a8400d1d5d20e3c243c
4.2.2 转换代码
转换格式前后的数据集目录情况如下:
转换代码如下:
import os
import json'''
脚本作用:将关键点检测任务的labelme格式json文件 -----> MS COCO格式json文件
'''# 指定数据集目录
Dataset_root = r'D:\bodyMeasurement-temp\Dataset'# 指定目标框类别、关键点类别
class_list = {'supercategory': 'sjb_rect','id': 1,'name': 'sjb_rect', #目标框类别'keypoints': ['angle_30', 'angle_60', 'angle_90'], #关键点类别'skeleton':[#关键点之间的连接关系[0,1], # 类别索引为0的关键点与类别索引为1的关键点是相连的[0,2], # 类别索引为0的关键点与类别索引为2的关键点是相连的[1,2]] #......
}# 处理单个labelme标注json文件
def process_single_json(labelme, image_id=1):'''输入labelme的json数据,输出coco格式的每个框的关键点标注信息'''global ANN_IDcoco_annotations = []for each_ann in labelme['shapes']: # 遍历该json文件中的所有标注if each_ann['shape_type'] == 'rectangle': # 筛选出个体框# 个体框元数据bbox_dict = {}bbox_dict['category_id'] = 1bbox_dict['segmentation'] = []bbox_dict['iscrowd'] = 0bbox_dict['segmentation'] = []bbox_dict['image_id'] = image_idbbox_dict['id'] = ANN_ID# print(ANN_ID)ANN_ID += 1# 获取个体框坐标bbox_left_top_x = min(int(each_ann['points'][0][0]), int(each_ann['points'][1][0]))bbox_left_top_y = min(int(each_ann['points'][0][1]), int(each_ann['points'][1][1]))bbox_right_bottom_x = max(int(each_ann['points'][0][0]), int(each_ann['points'][1][0]))bbox_right_bottom_y = max(int(each_ann['points'][0][1]), int(each_ann['points'][1][1]))bbox_w = bbox_right_bottom_x - bbox_left_top_xbbox_h = bbox_right_bottom_y - bbox_left_top_ybbox_dict['bbox'] = [bbox_left_top_x, bbox_left_top_y, bbox_w, bbox_h] # 左上角x、y、框的w、hbbox_dict['area'] = bbox_w * bbox_h# 筛选出分割多段线for each_ann in labelme['shapes']: # 遍历所有标注if each_ann['shape_type'] == 'polygon': # 筛选出分割多段线标注# 第一个点的坐标first_x = each_ann['points'][0][0]first_y = each_ann['points'][0][1]if (first_x > bbox_left_top_x) & (first_x < bbox_right_bottom_x) & (first_y < bbox_right_bottom_y) & (first_y > bbox_left_top_y): # 筛选出在该个体框中的关键点bbox_dict['segmentation'] = list(map(lambda x: list(map(lambda y: round(y, 2), x)), each_ann['points'])) # 坐标保留两位小数# bbox_dict['segmentation'] = each_ann['points']# 筛选出该个体框中的所有关键点bbox_keypoints_dict = {}for each_ann in labelme['shapes']: # 遍历所有标注if each_ann['shape_type'] == 'point': # 筛选出关键点标注# 关键点横纵坐标x = int(each_ann['points'][0][0])y = int(each_ann['points'][0][1])label = each_ann['label']if (x > bbox_left_top_x) & (x < bbox_right_bottom_x) & (y < bbox_right_bottom_y) & (y > bbox_left_top_y): # 筛选出在该个体框中的关键点bbox_keypoints_dict[label] = [x, y]bbox_dict['num_keypoints'] = len(bbox_keypoints_dict)# print(bbox_keypoints_dict)# 把关键点按照类别顺序排好bbox_dict['keypoints'] = []for each_class in class_list['keypoints']:if each_class in bbox_keypoints_dict:bbox_dict['keypoints'].append(bbox_keypoints_dict[each_class][0])bbox_dict['keypoints'].append(bbox_keypoints_dict[each_class][1])bbox_dict['keypoints'].append(2) # 2-可见不遮挡 1-遮挡 0-没有点else: # 不存在的点,一律为0bbox_dict['keypoints'].append(0)bbox_dict['keypoints'].append(0)bbox_dict['keypoints'].append(0)coco_annotations.append(bbox_dict)return coco_annotations# 转换当前目录下所有labelme格式的json文件
def process_folder():IMG_ID = 0ANN_ID = 0# 遍历所有 labelme 格式的 json 文件for labelme_json in os.listdir():if labelme_json.split('.')[-1] == 'json':with open(labelme_json, 'r', encoding='utf-8') as f:labelme = json.load(f)## 提取图像元数据img_dict = {}img_dict['file_name'] = labelme['imagePath']img_dict['height'] = labelme['imageHeight']img_dict['width'] = labelme['imageWidth']img_dict['id'] = IMG_IDcoco['images'].append(img_dict)## 提取框和关键点信息coco_annotations = process_single_json(labelme, image_id=IMG_ID)coco['annotations'] += coco_annotationsIMG_ID += 1print(labelme_json, '已处理完毕')else:passif __name__ == '__main__':coco = {}coco['categories'] = []coco['categories'].append(class_list)coco['images'] = []coco['annotations'] = []IMG_ID = 0ANN_ID = 0#指定labelme格式json文件所在的路径,path = Dataset_root\labels-labelme\trainpath = os.path.join(Dataset_root, 'labels-labelme', 'train')#更换工作目录到pathos.chdir(path)#开始处理process_folder()# 保存coco标注文件,coco_path = D:\bodyMeasurement-temp\Dataset\train_coco.jsoncoco_path = os.path.join(Dataset_root,"train_coco.json")with open(coco_path, 'w') as f:json.dump(coco, f, indent=2)print("存放在:",coco_path)#验证转后之后的COCO格式json文件是否正确from pycocotools.coco import COCOmy_coco = COCO(coco_path)#验证
5.labelme格式标签转换---目标检测任务
😈待更新