当前位置: 首页 > ai >正文

图片查重从设计到实现(7) :使用 Milvus 实现高效图片查重功能

使用 Milvus 实现高效图片查重功能

本文将介绍如何利用 Milvus 向量数据库构建一个高效的图片查重系统,通过传入图片就能快速从已有数据中找出匹配度高的相似图片。

一.什么是图片查重?

图片查重指的是通过算法识别出内容相同或高度相似的图片,即使它们可能存在尺寸、格式、轻微编辑等差异。传统的基于文件名或元数据的查重方法效果极差,而基于内容的图片查重则能真正识别视觉上相似的图片。

二. 技术原理

基于 Milvus 的图片查重系统主要依赖以下关键技术:

  1. 图片特征提取:使用深度学习模型将图片转换为固定维度的特征向量,捕捉图片的视觉特征
  2. 向量相似度搜索:通过计算向量之间的距离(相似度)来判断图片的相似程度
  3. 高效向量数据库:Milvus 提供的高性能向量索引和搜索能力,支持亿级数据的毫秒级检索

核心流程:

  • 预处理:将所有图片转换为特征向量并存储到 Milvus
  • 查重阶段:对输入图片提取特征向量,在 Milvus 中搜索相似度高于阈值的向量,找到对应的图片

三 .实现步骤

1. 核心代码实现

下面是完整的图片查重系统实现,包含特征提取和 Milvus 操作:

2. 代码解析

核心组件
  1. 图片特征提取器(ImageFeatureExtractor)
class ImageFeatureExtractor:"""图片特征提取器,将图片转换为特征向量"""def __init__(self):# 使用预训练的ResNet50模型self.model = models.resnet50(pretrained=True)# 移除最后一层全连接层,保留特征提取部分self.model = torch.nn.Sequential(*list(self.model.children())[:-1])self.model.eval()  # 切换到评估模式# 确保使用适当的设备(GPU如果可用)self.device = torch.device("cuda" if torch.cuda.is_available() else "cpu")self.model.to(self.device)# 图片预处理流程,与模型训练时保持一致self.transform = transforms.Compose([transforms.Resize(256),transforms.CenterCrop(224),transforms.ToTensor(),transforms.Normalize(mean=[0.485, 0.456, 0.406],std=[0.229, 0.224, 0.225])])logger.info(f"特征提取器初始化完成,使用设备: {self.device}")def extract(self, image_path):"""提取单张图片的特征向量"""try:# 打开图片并转换为RGB格式img = Image.open(image_path).convert('RGB')# 预处理img_tensor = self.transform(img).unsqueeze(0)  # 添加批次维度img_tensor = img_tensor.to(self.device)# 提取特征with torch.no_grad():  # 不计算梯度,加速推理features = self.model(img_tensor)# 展平为一维向量并归一化feature_vector = features.squeeze().cpu().numpy()normalized_vector = feature_vector / np.linalg.norm(feature_vector)return normalized_vectorexcept Exception as e:logger.error(f"提取图片 {image_path} 特征失败: {str(e)}")return Nonedef batch_extract(self, image_paths):"""批量提取图片特征"""features = []valid_paths = []for path in image_paths:feat = self.extract(path)if feat is not None:features.append(feat)valid_paths.append(path)return valid_paths, features
  • 使用预训练的 ResNet50 模型提取图片特征
  • 对图片进行标准化处理(Resize、裁剪、归一化)
  • 支持单张和批量图片特征提取
  • 自动选择 GPU/CPU 设备加速处理

class MilvusImageChecker:"""基于Milvus的图片查重工具"""def __init__(self, host=Config.MILVUS_HOST, port=Config.MILVUS_PORT, collection_name=Config.COLLECTION_NAME):self.host = hostself.port = portself.collection_name = collection_nameself.collection = None# 连接Milvus并初始化集合self.connect()self.init_collection()def connect(self):"""连接到Milvus服务器"""try:connections.connect(alias="default",host=self.host,port=self.port)logger.info(f"成功连接到Milvus服务器: {self.host}:{self.port}")except Exception as e:logger.error(f"连接Milvus服务器失败: {str(e)}")raisedef init_collection(self):"""初始化集合,如不存在则创建"""if utility.has_collection(self.collection_name):self.collection = Collection(self.collection_name)logger.info(f"已加载集合: {self.collection_name}")return# 定义集合字段fields = [FieldSchema(name="id", dtype=DataType.INT64, is_primary=True, auto_id=True),FieldSchema(name="image_path", dtype=DataType.VARCHAR, max_length=512),FieldSchema(name="feature_vector", dtype=DataType.FLOAT_VECTOR, dim=Config.VECTOR_DIM),FieldSchema(name="upload_time", dtype=DataType.INT64, description="图片上传时间戳,用于去重时保留最早/最新版本")]# 创建集合schemaschema = CollectionSchema(fields, "用于图片查重的集合,存储图片路径和特征向量",enable_dynamic_field=False)# 创建集合self.collection = Collection(self.collection_name, schema)logger.info(f"成功创建集合: {self.collection_name}")# 创建索引,优化查询性能index_params = {"index_type": "HNSW",  # 适用于高维向量的高效索引"metric_type": "IP",   # 内积,适用于归一化向量的相似度计算"params": {"M": 16,           # HNSW参数,影响索引质量和查询速度"efConstruction": 200  # 构建索引时的参数}}self.collection.create_index(field_name="feature_vector",index_params=index_params)logger.info("集合索引创建完成")def insert_images(self, image_paths, upload_timestamps=None):"""插入图片特征到Milvus参数:image_paths: 图片路径列表upload_timestamps: 上传时间戳列表,用于去重时判断保留哪个版本"""if not image_paths:logger.warning("没有图片路径可插入")return []# 处理时间戳(默认使用当前时间)if upload_timestamps is None:current_ts = int(os.path.getmtime(image_paths[0])) if image_paths else 0upload_timestamps = [current_ts] * len(image_paths)# 批量提取特征extractor = ImageFeatureExtractor()valid_paths, features = extractor.batch_extract(image_paths)if not valid_paths:logger.warning("没有有效图片可插入")return []# 准备插入数据data = [valid_paths,  # image_path字段[f.tolist() for f in features],  # feature_vector字段upload_timestamps[:len(valid_paths)]  # upload_time字段]# 执行插入try:insert_result = self.collection.insert(data)self.collection.flush()  # 刷新到磁盘logger.info(f"成功插入 {len(valid_paths)} 张图片,ID范围: {insert_result.primary_keys}")return insert_result.primary_keysexcept Exception as e:logger.error(f"插入图片失败: {str(e)}")return []def check_duplicates(self, image_path, threshold=Config.DEFAULT_THRESHOLD, top_k=Config.DEFAULT_TOP_K):"""检查指定图片是否存在重复或高度相似的图片参数:image_path: 待检查的图片路径threshold: 相似度阈值,高于此值认为是相似图片top_k: 返回的最大相似图片数量返回:相似图片列表,按相似度降序排列"""# 提取查询图片特征extractor = ImageFeatureExtractor()query_vector = extractor.extract(image_path)if query_vector is None:logger.error("无法提取查询图片特征,查重失败")return []# 加载集合到内存(如果尚未加载)if not self.collection.is_loaded:self.collection.load()logger.info(f"集合 {self.collection_name} 已加载到内存")# 配置搜索参数search_params = {"metric_type": "IP","params": {"ef": 64}  # 搜索时的参数,影响查询精度和速度}# 执行相似度搜索try:results = self.collection.search(data=[query_vector.tolist()],anns_field="feature_vector",param=search_params,limit=top_k,output_fields=["image_path", "upload_time"])# 处理搜索结果,过滤低于阈值的结果duplicates = []for hits in results:for hit in hits:similarity = hit.distanceif similarity >= threshold:duplicates.append({"image_path": hit.entity.get("image_path"),"similarity": float(similarity),"milvus_id": hit.id,"upload_time": hit.entity.get("upload_time")})# 按相似度降序排序duplicates.sort(key=lambda x: x["similarity"], reverse=True)logger.info(f"找到 {len(duplicates)} 张相似图片 (阈值: {threshold})")return duplicatesexcept Exception as e:logger.error(f"查重搜索失败: {str(e)}")return []def delete_duplicates(self, duplicate_ids):"""删除指定ID的重复图片记录"""if not duplicate_ids:return Truetry:self.collection.delete(f"id in {duplicate_ids}")self.collection.flush()logger.info(f"成功删除 {len(duplicate_ids)} 条重复记录")return Trueexcept Exception as e:logger.error(f"删除重复记录失败: {str(e)}")return False
  1. Milvus 查重工具(MilvusImageChecker)
    • 负责与 Milvus 服务器的连接和交互
    • 初始化集合并创建高效索引(使用 HNSW 索引)
    • 提供图片特征插入、重复图片查询和删除功能
    • 支持批量操作,提高处理效率
关键技术点
  • 特征向量归一化:确保内积(IP)可以直接作为余弦相似度使用
  • 合适的索引选择:使用 HNSW 索引平衡查询速度和精度
  • 相似度阈值:可根据业务需求调整,值越高表示要求越相似
  • 时间戳管理:记录图片上传时间,便于去重时选择保留最早或最新版本

五 .重点

  1. 模型选择

    • 追求精度:可使用更复杂的模型如 ResNet101 或 Vision Transformer
    • 追求速度:可使用轻量级模型如 MobileNet 或 EfficientNet
  2. 索引优化

    • 对于大规模数据,可调整 HNSW 索引的 MefConstruction 参数
    • 可尝试不同索引类型(如 IVF_FLAT、IVF_SQ8)找到性能平衡点
  3. 阈值调整

    • 对于严格查重(完全相同的图片),可将阈值设为 0.98 以上
    • 对于相似图片检索,可将阈值设为 0.85-0.95 之间
  4. 分布式部署

    • 对于超大规模图片库,可使用 Milvus 集群提高吞吐量和可靠性

六 应用场景

  • 内容管理系统:自动检测并去重上传的图片
  • 电商平台:识别盗图和相似商品图片
  • 版权保护:追踪未经授权使用的图片
  • 相册管理:自动整理相似照片,减少冗余

总结

基于 Milvus 的图片查重系统能够高效处理海量图片数据,通过特征向量和相似度搜索技术,实现了精准的重复图片识别。相比传统方法,它具有以下优势:

  • 识别真正视觉相似的图片,不受文件名或格式影响
  • 支持亿级图片的快速检索,毫秒级响应
  • 可灵活调整相似度阈值,适应不同业务需求
  • 易于扩展和集成到现有系统中
http://www.xdnf.cn/news/16460.html

相关文章:

  • python基础:request请求Cookie保持登录状态、重定向与历史请求、SSL证书校验、超时和重试失败、自动生成request请求代码和案例实践
  • GCC、glibc、GNU C(gnuc)的关系
  • 准大一GIS专业新生,如何挑选电脑?
  • redhat7.9更换源为centos7(阿里云源-目前centos7可用的源)
  • 基于KMeans、AgglomerativeClustering、DBSCAN、PCA的聚类分析的区域经济差异研究
  • 222. 完全二叉树的节点个数
  • AI算法实现解析-C++实例
  • 如何在在NPM发布一个React组件
  • 第2章 cmd命令基础:常用基础命令(1)
  • 音频算法基础(语音识别 / 降噪 / 分离)
  • Rust:anyhow::Result 与其他 Result 类型转换
  • HTTP 与 HTTPS 的区别
  • 【C++篇】“内存泄露”的宝藏手段:智能指针
  • Neurosciences study notes[1]
  • vue2 使用liveplayer加载视频
  • CVPR 2025 | 华科精测:无需人工标注也能精准识别缺陷类别,AnomalyNCD 实现多类别缺陷自主分类
  • 机器学习、深度学习与数据挖掘:核心技术差异、应用场景与工程实践指南
  • 笔试——Day22
  • 【RK3588部署yolo】算法篇
  • Marin说PCB之POC电路layout设计仿真案例---10
  • Wndows Docker Desktop-Unexpected WSL error
  • 从视觉到智能:RTSP|RTMP推拉流模块如何助力“边缘AI系统”的闭环协同?
  • MOE 速览
  • 吃透 lambda 表达式(匿名函数)
  • 实验-静态路由
  • Polkadot 的 Web3 哲学:从乔布斯到 Gavin Wood 的数字自由传承
  • 在 CentOS 上安装 FFmpeg
  • “量子通信”
  • 初识opencv05——图像预处理4
  • python导包机制-更优方式