当前位置: 首页 > news >正文

Baumer工业相机堡盟工业相机如何通过YoloV8深度学习模型实现持械检测(C#代码,UI界面版)

在这里插入图片描述

Baumer工业相机堡盟工业相机如何通过YoloV8深度学习模型实现持械检测(C#代码,UI界面版)

  • 工业相机使用YoloV8模型实现持械检测
  • 工业相机通过YoloV8模型实现持械检测的技术背景
  • 在相机SDK中获取图像转换图像的代码分析
    • 工业相机图像转换Bitmap图像格式和Mat图像重要核心代码
    • 本地文件图像转换Bitmap图像格式和Mat图像重要核心代码
    • Mat图像导入YoloV8模型重要核心代码
    • 代码实现演示(实现持械检测)
  • 源码下载链接
  • 工业相机通过YoloV8模型实现持械检测的行业应用
  • 关键技术细节

工业相机使用YoloV8模型实现持械检测

本项目集成了 YOLOv8 检测模型 与 C#图形界面工具,实现了包括图片、文件夹、视频与摄像头等多种输入方式的实现持械检测功能。

工业相机RAW文件是一种记录了工业相机传感器的原始信息,同时记录了由相机拍摄所产生的一些原数据(Metadata,如ISO的设置、快门速度、光圈值、白平衡等)的文件。RAW是未经处理、也未经压缩的格式,可以把RAW概念化为“原始图像编码数据”。

工业相机Bitmap图像是一种无损的图像格式,它将图像存储为像素阵列,并可包含调色板信息。这种格式通常用于工业应用中,因为它能够保留图像的细节和质量,并且易于处理和分析。

本文以Baumer工业相机作为案例进行演示,实现将工业相机的图像或者本地图像导入Yolo模型从而实现持械检测等功能。

工业相机通过YoloV8模型实现持械检测的技术背景

本文通过C#中实现一个简单的UI界面,用于将YoloV8模型实现持械检测

用户可以通过该界面执行以下操作:

  1. 转换相机图像为Mat图像:通过YoloV8模型实现持械检测的分类检测

  2. 转换本地图像为mat图像:通过YoloV8模型实现持械检测的分类检测

通过这个UI界面,用户能够在实时应用机器视觉数据处理时快速有效地进行操作,无需深入了解图像数据的底层处理过程。这个简单的介绍旨在为开发人员提供一个明确的方向,以便开始构建此类应用程序,并且该程序主要用于演示目的。

在相机SDK中获取图像转换图像的代码分析

本文介绍使用Baumer工业相机,实现将图像转换为Bitmap图像,再转换Mat图像,导入到Yolo模型进行推理,输出刀具持械检测的结果。

工业相机图像转换Bitmap图像格式和Mat图像重要核心代码

//将相机内部图像内存数据转为bitmap数据
System.Drawing.Bitmap bitmap  = new System.Drawing.Bitmap((int)mBufferFilled.Width, (int)mBufferFilled.Height,(int)mBufferFilled.Width,System.Drawing.Imaging.PixelFormat.Format8bppIndexed, (IntPtr)((ulong)mBufferFilled.MemPtr + mBufferFilled.ImageOffset));#region//Mono图像数据转换。彩色图像数据转换于此不同
System.Drawing.Imaging.ColorPalette palette = bitmap.Palette;
int nColors = 256;
for (int ix = 0; ix < nColors; ix++)
{uint Alpha = 0xFF;uint Intensity = (uint)(ix * 0xFF / (nColors - 1));palette.Entries[ix] = System.Drawing.Color.FromArgb((int)Alpha, (int)Intensity,(int)Intensity, (int)Intensity);
}
bitmap.Palette = palette;
#endregionstring strtime = DateTime.Now.ToString("yyyyMMddhhmmssfff");
string saveimagepath = pImgFileDir + "\\" + strtime + ".brw";//使用Bitmap格式保存         
bitmap.Save(saveimagepath, System.Drawing.Imaging.ImageFormat.Bmp);  //用bitmap转换为mat
OpenCvSharp.Mat Matgray1 = OpenCvSharp.Extensions.BitmapConverter.ToMat(bitmap);

本地文件图像转换Bitmap图像格式和Mat图像重要核心代码

C#环境下代码如下所示:

if (imagePaths.Count() == 0)
{LoadImagePaths("test_img");
}string currentImagePath = imagePaths[currentImageIndex];// 显示到pictureBoxA
pictureBoxA.Image.Dispose(); // 释放上一张图片资源,避免内存泄漏
pictureBoxA.Image = new Bitmap(currentImagePath);
image_path = currentImagePath;currentImageIndex = (currentImageIndex + 1) % imagePaths.Count;OnNotifyShowRecieveMsg("检测中,请稍等……");
//textBox1.Text = "检测中,请稍等……";
//pictureBox2.Image = null;
Application.DoEvents();image = new Mat(image_path);float ratio = Math.Min(1.0f * inpHeight / image.Rows, 1.0f * inpWidth / image.Cols);
int neww = (int)(image.Cols * ratio);
int newh = (int)(image.Rows * ratio);Mat dstimg = new Mat();
Cv2.Resize(image, dstimg, new OpenCvSharp.Size(neww, newh));Cv2.CopyMakeBorder(dstimg, dstimg, 0, inpHeight - newh, 0, inpWidth - neww, BorderTypes.Constant);

Mat图像导入YoloV8模型重要核心代码

C#环境下代码如下所示:


// 定义 ONNX 模型的路径
string onnxModelPath = "model/yolov8n-knife-people-gun-cudgel.onnx";
// 定义输入图像的形状
OpenCvSharp.Size inputShape = new OpenCvSharp.Size(640, 640);
// 从 ONNX 模型文件加载网络
if(net==null)net = CvDnn.ReadNetFromOnnx(onnxModelPath);string[] modelClassify = { "knife"};if (imagePaths.Count() == 0)
{LoadImagePaths("test_img");
}string currentImagePath = imagePaths[currentImageIndex];// 显示到pictureBoxA
pictureBoxA.Image.Dispose(); // 释放上一张图片资源,避免内存泄漏
pictureBoxA.Image = new Bitmap(currentImagePath);
image_path = currentImagePath;if (pictureBoxA.Image == null)
{return;
}
currentImageIndex = (currentImageIndex + 1) % imagePaths.Count;OnNotifyShowRecieveMsg("检测中,请稍等……");Application.DoEvents();image = new Mat(image_path);dt1 = DateTime.Now;
// 调用识别图像的函数,并传入图像路径、阈值、网络、输入形状和分类类别列表
//result_image = Recognize(image, 0.35, net, inputShape, modelClassify);
result_image = RecognizeMat(image, 0.35, net, inputShape, modelClassify);
// 获取计算结束时间
dt2 = DateTime.Now;
// 显示输出的图像
pictureBoxA.Image = new Bitmap(result_image.ToMemoryStream());// 显示推理耗时时间
OnNotifyShowRecieveMsg("推理耗时:" + (dt2 - dt1).TotalMilliseconds + "ms");
static Mat RecognizeMat(Mat imgInput, double threshold, Net net, OpenCvSharp.Size inputShape, string[] modelClassify)
{using (Mat img = imgInput){int inpHeight = inputShape.Height; // 输入图像的高度int inpWidth = inputShape.Width; // 输入图像的宽度// 对图像进行预处理,调整尺寸Mat image = img;float ratio = Math.Min(1.0f * inpHeight / image.Rows, 1.0f * inpWidth / image.Cols);int neww = (int)(image.Cols * ratio);int newh = (int)(image.Rows * ratio);//// 将图像调整为模型需要的大小//Mat dstimg = new Mat();//Cv2.Resize(image, dstimg, new OpenCvSharp.Size(neww, newh));//Cv2.CopyMakeBorder(dstimg, dstimg, 0, inpHeight - newh, 0, inpWidth - neww, BorderTypes.Constant);//Mat BN_image = CvDnn.BlobFromImage(dstimg); // 将调整后的图像转换为Blob格式//// 配置图片输入数据 // 将 blob 设置为网络的输入//net.SetInput(BN_image);//// 从图像生成用于网络输入的 blob//Mat blob = CvDnn.BlobFromImage(img, 1 / 255.0, inputShape, new Scalar(0, 0, 0), false);////Mat blob = CvDnn.BlobFromImage(img, 1.0 / 255.0, inputShape, new Scalar(0, 0, 0), true, false);// 将 blob 设置为网络的输入//net.SetInput(blob);//// 从图像生成用于网络输入的 blobMat img0 = img;Mat blob0 = CvDnn.BlobFromImage(img0, 1 / 255.0, new OpenCvSharp.Size(inputShape.Width, inputShape.Height), swapRB: true, crop: false);net.SetInput(blob0);// 执行前向传播获取输出Mat output = net.Forward();// 此处可能需要根据 C# 中 OpenCV 的特性来处理转置操作output = ReshapeAndTranspose(output);// 获取图像的行数(高度)int height = img.Height;// 获取图像的列数(宽度)int width = img.Width;// 计算宽度的缩放因子double xFactor = (double)width / inputShape.Width;// 计算高度的缩放因子double yFactor = (double)height / inputShape.Height;// 初始化分类类别、得分和检测框的列表List<string> classifys = new List<string>();List<float> scores = new List<float>();List<Rect> boxes = new List<Rect>();List<Double> maxVales = new List<Double>();List<OpenCvSharp.Point> maxloces = new List<OpenCvSharp.Point>();// 遍历输出的行for (int i = 0; i < output.Rows; i++){// 获取当前行的检测框数据using (Mat box = output.Row(i)){// 在框数据的特定范围中找到最小值、最大值及其位置OpenCvSharp.Point minloc, maxloc;double minVal, maxVal;// Mat classes_scores = box.ColRange(4, 5);//GetArray(i, 5, classes_scores);// double curmates0 = box.At<float>(0);double curmates1 = box.At<float>(4);int collength = box.Cols;int rowlength = box.Rows;Mat curmates = box.ColRange(4, box.Cols);//Cv2.MinMaxLoc(box.ColRange(4, box.Cols), out minVal, out maxVal, out minloc, out maxloc);Cv2.MinMaxLoc(box.ColRange(4, box.Cols), out minVal, out maxVal, out minloc, out maxloc);int classId = maxloc.Y;if (classId == 0){// 获取对应类别的得分                         float score = (float)maxVal;// 如果得分大于阈值if (score > threshold){// 将得分添加到得分列表scores.Add(score);// 将类别添加到类别列表classifys.Add(modelClassify[classId]);// 获取框的原始坐标float x = box.At<float>(0, 0);float y = box.At<float>(0, 1);float w = box.At<float>(0, 2);float h = box.At<float>(0, 3);// 计算调整后的坐标int xInt = (int)((x - 0.5 * w) * xFactor);int yInt = (int)((y - 0.5 * h) * yFactor);int wInt = (int)(w * xFactor);int hInt = (int)(h * yFactor);// 将调整后的框坐标添加到框列表boxes.Add(new Rect(xInt, yInt, wInt, hInt));}}}}// 执行非极大值抑制操作int[] indices;CvDnn.NMSBoxes(boxes, scores, 0.25f, 0.45f, out indices);// 遍历非极大值抑制操作后的索引foreach (int i in indices){// 获取对应的类别、得分和框string classify = classifys[i];float score = scores[i];Rect box = boxes[i];// 获取框的坐标和尺寸// 在图像上绘制矩形框Cv2.Rectangle(img, box, new Scalar(0, 255, 0), 3);// 生成类别和得分的标签文本string label = $"{classify}: {score:F2}";// 在图像上添加标签文本Cv2.PutText(img, label, new OpenCvSharp.Point(box.X, box.Y - 10), HersheyFonts.HersheySimplex, 0.5, new Scalar(0, 255, 0), 2);}// 将图像复制输出返回Mat result_image0 = img.Clone();return result_image0;// 将处理后的图像保存为文件// Cv2.ImWrite("result.jpg", img);}
}

代码实现演示(实现持械检测)

在这里插入图片描述

源码下载链接

C# WinForms工业相机+本地图像 通过YoloV8深度学习模型实现持械检测 源码

工业相机通过YoloV8模型实现持械检测的行业应用

工业相机 + YOLOv8 实现“持械检测”的 7 大已落地行业场景
(全部案例均来自 2023-2025 年可查项目,附典型部署参数)

#行业 / 场景检测目标工业相机配置YOLOv8 部署形态效果 & 价值
1智慧煤矿井下铁锹、撬棍、镐头等长柄工具本安型 2 MP 红外防爆相机RK3588 边缘盒,YOLOv8-s 剪枝 6 MB,40 ms/帧发现违规携械 2 s 内语音广播,事故率下降 55 %
2地铁 / 高铁安检区刀具、枪支、棍棒4K 全局快门 120 fps + 双光源Jetson AGX Xavier,TensorRT-FP16,60 ms/帧联动闸机紧急制动,误报 < 0.5 %
3港口集装箱堆场撬棍、大锤、斧头5 MP 防尘相机 + 云台IPC + RTX 3060,YOLOv8-m 检测 3 类械具24 h 无人值守,替代 4 名巡检工
4化工厂检修动火区非防爆扳手、铁锤6 mm 广角 60 fps 相机防爆 AI 盒子,YOLOv8n 量化 2.8 MB发现非防爆工具立即锁止作业票系统
5监狱 / 看守所周界刀具、锐器、自制武器2 MP 防暴半球 + 红外补光边缘 GPU,YOLOv8-face + weapon 多任务头危险器械识别率 97 %,误报 < 2 次/日
6校园门口 / 教学楼管制刀具、棍棒8 MP 全景相机 + 枪机联动机房级 GPU,YOLOv8 + DeepSort 追踪2 s 内推送安保微信,保障师生安全
7物流仓储叉车通道长杆、撬棍超高超限顶装 4K 180° 相机RK3588,YOLOv8n 检测 + 3D 测距超限即语音告警,避免货架碰撞

关键技术细节

数据集
• 自建“Industrial-Weapon”数据集:刀、枪、棍、斧、撬棍 5 类,共 11 000 张;
• 场景覆盖低照、雨雾、抖动、部分遮挡,增强泛化。
模型训练
• 以 YOLOv8-s 为基线,输入 640×640,训练 120 epoch,mAP@0.5 0.94;
• 采用 Mosaic+HSV+CutOut 增强,解决尺度差异与光照变化;
• 剪枝后模型 5.8 MB,RK3588 NPU-INT8 推理 8 ms/帧。
部署加速
• TensorRT-FP16:RTX 3060 上 1080p 输入 1.5 ms/帧;
• 边缘端:Jetson Orin Nano 15 W 功耗,可支持 8 路相机并发。
合规提示
• 涉及公共区域需张贴 AI 监控告示;
• 原始视频 72 h 内自动覆盖,仅留事件截图及 JSON 日志,符合《个人信息保护法》与《数据安全法》。

http://www.xdnf.cn/news/1171027.html

相关文章:

  • 使用qemu命令启动虚拟机
  • linux辅助知识(Shell 脚本编程)
  • 基于卷积神经网络与小波变换的医学图像超分辨率算法复现
  • AWE2026启动:加码AI科技,双展区联动开启产业新格局
  • 【kubernetes】-2 K8S的资源管理
  • Spring、Spring MVC、Spring Boot、Spring Cloud的联系和区别
  • 闲庭信步使用图像验证平台加速FPGA的开发:第三十课——车牌识别的FPGA实现(2)实现车牌定位
  • 类加载过程及双亲委派模型
  • 数据结构自学Day12-- 排序算法2
  • Pycharm下载、安装及配置
  • 【运维】SGLang服务器参数配置详解
  • 大数据之Hive:Hive中week相关的几个函数
  • 微调大语言模型(LLM)有多难?
  • SpringBoot全局异常报错处理和信息返回
  • Vue 脚手架基础特性
  • Maven 环境配置全攻略:从入门到实战
  • Typecho三种版权保护方法对比与实战指南
  • 渗透部分总结
  • 如何把jar包打成docker镜像(SpringBoot项目打包成Docker )部署到Linux
  • 本地代理和服务器代理区别
  • 【MyBatisPlus】一文讲清 MyBatisPlus 基本原理及基本使用方式
  • NumPy库使用教学,简单详细。
  • allegro 16.6配置CIS库报错 ORCIS-6129 ORCIS-6469
  • Matplotlib绘制各种图参考
  • 时序数据库IoTDB好不好?
  • 在 Linux 系统中基于 Nginx 搭建 openlab 网站及子页面
  • 浅谈——C++和C#差异
  • 从 COLMAP 到 3D Gaussian Splatting
  • 【面试】Redis分布式ID与锁的底层博弈:高并发下的陷阱与破局之道
  • 机器人氩弧焊保护气降成本的方法