当前位置: 首页 > news >正文

轻量级高性能推理引擎MNN 学习笔记 04.线性回归

1. 线性回归

MNN 官方给的iOS Demo中,输入是图片,输出是分类结果,相对来讲,略微有些复杂,我们现在用一个最简单的线性回归模型,来说明MNN的用法。

该线性回归是y=ax+b (其中a=2,b=0.01) ,针对该模型,我们分别进行以下实验:

  1. PC端的MNN python 推理
  2. iOS端MNN C++推理

1.1. 思路

  1. 确定选择后端类型(CPU、GPU、Metal,默认为CPU)及线程数量(默认值为4)
  2. 创建Interpreter & Session & 加载模型
  3. 获取输入张量及张量形状
  4. CPU端准备输入数据
  5. 将输入数据传给输入张量
  6. 推理
  7. 获取输出张量及张量形状
  8. CPU端获取输出数据

1.2. python推理

import MNN
import numpy as np# 加载 MNN 模型
interpreter = MNN.Interpreter("linear_test_model.mnn")# 创建会话session = interpreter.createSession()# 获取输入张量
input_tensor = interpreter.getSessionInput(session)# 获取输入张量的形状
input_shape = input_tensor.getShape()  # 使用 getShape() 获取形状
print(f"Input tensor shape: {input_shape}")# 准备输入数据
input_data = np.random.randn(*input_shape).astype(np.float32)  # 示例输入数据
print(f"Input data shape: {input_data.shape}")
input_data[0,0]=3.0
print(f"Input data: {input_data}")
print(f"理论计算值 data(y=2*x+0.01): {input_data*2+0.01}")
tmp_input = MNN.Tensor(input_shape, MNN.Halide_Type_Float, input_data, MNN.Tensor_DimensionType_Caffe)# 设置输入并运行推理
input_tensor.copyFrom(tmp_input)
interpreter.runSession(session)# 获取输出张量
output_tensor = interpreter.getSessionOutput(session)
output_data = output_tensor.getData()  # 获取推理结果
print(f"推理输出:{output_data}")

1.3. iOS C++推理

1.3.1. Metal GPU

/*** GPU缓存结构体,用于管理Metal GPU相关的资源* 包含纹理缓存、设备、计算管线、常量缓冲区等Metal对象*/
struct GpuCache {CVMetalTextureCacheRef _textureCache;  // Metal纹理缓存引用,用于管理纹理资源id<MTLDevice> _device;                 // Metal设备对象,代表物理GPUid<MTLComputePipelineState> _pretreat; // 预处理计算管线状态id<MTLFunction> _function;             // Metal着色器函数id<MTLBuffer> _constant;               // 常量缓冲区,用于存储预处理参数id<MTLCommandQueue> _queue;            // 命令队列,用于向GPU提交命令/*** 构造函数:初始化所有Metal相关资源*/GpuCache() {// 创建默认的Metal设备(GPU)_device = MTLCreateSystemDefaultDevice();// 创建Metal纹理缓存CVReturn res = CVMetalTextureCacheCreate(nil, nil, _device, nil, &_textureCache);FUNC_PRINT(res);// 获取默认的Metal库,包含编译好的着色器函数id<MTLLibrary> library = [_device newDefaultLibrary];// 获取名为"pretreat"的预处理着色器函数_function = [library newFunctionWithName:@"pretreat"];// 创建计算管线状态NSError* error = nil;_pretreat = [_device newComputePipelineStateWithFunction:_function error:&error];// 创建常量缓冲区,大小为PretreatInfo结构体的大小_constant = [_device newBufferWithLength:sizeof(PretreatInfo) options:MTLCPUCacheModeDefaultCache];// 创建命令队列_queue = [_device newCommandQueue];}/*** 析构函数:清理资源* TODO: 需要实现资源的释放*/~GpuCache() {// 这里应该添加资源释放代码// 释放 _textureCache, _device, _pretreat, _function, _constant, _queue 等}
};

1.3.2. GPU推理

针对GPU推理,需要配置 scheduleConfig.type = MNN_FORWARD_METAL; 及相关的GPU资源配置
接下来思路与PC端推理类似

-(void) linear_gpu {if (!_session.running) {std::shared_ptr<GpuCache> _cache;// 如果GPU缓存未初始化,创建新的GPU资源缓存if (nullptr == _cache) {_cache.reset(new GpuCache);}NSLog(@"开始 GPU 推理...");// 加载MNN模型NSString* modelPath = [[NSBundle mainBundle] pathForResource:@"linear_test_model" ofType:@"mnn"];auto _net = std::shared_ptr<MNN::Interpreter>(MNN::Interpreter::createFromFile([modelPath UTF8String]));if (!_net) {NSLog(@"Failed to create interpreter");return;}//auto session = interpreter->createSession(nullptr); // nullptr 表示使用默认配置MNN::ScheduleConfig scheduleConfig;scheduleConfig.type = MNN_FORWARD_METAL;MNN::Session *_session;if (scheduleConfig.type == MNN_FORWARD_METAL) {// Metal GPU模式下的特殊配置MNN::BackendConfig bnConfig;MNNMetalSharedContext context;// 设置Metal上下文,复用已创建的设备和命令队列context.device = _cache->_device;context.queue = _cache->_queue;bnConfig.sharedContext = &context;scheduleConfig.backendConfig = &bnConfig;_session = _net->createSession(scheduleConfig);}// 获取输入张量auto inputTensor = _net->getSessionInput(_session, NULL);auto inputShape = inputTensor->shape(); // 获取形状int size = 1;for (int i = 0; i < inputShape.size(); ++i) {size *= inputShape[i];NSLog(@"inputShape[%d]: %d", i, inputShape[i]);}NSLog(@"size: %d", size);float inputData[size];for (int i = 0; i < size; ++i) {inputData[i] = ((float)rand() / RAND_MAX); // 随机初始化NSLog(@"inputData[%d]: %f", i, inputData[i]);}// 创建 Host Tensor 并拷贝数据MNN::Tensor* hostTensor = MNN::Tensor::create(inputShape, halide_type_of<float>());memcpy(hostTensor->host<float>(), inputData, sizeof(float) * size);inputTensor->copyFromHostTensor(hostTensor);// 运行推理_net->runSession(_session);// 获取输出auto outputTensor = _net->getSessionOutput(_session, nullptr);MNN::Tensor  outputHostTensor (outputTensor);outputTensor->copyToHostTensor(&outputHostTensor);// 输出结果float *outputData=outputHostTensor.host<float>();NSLog(@"原始结果 y=2*x+0.01: %f", 2*inputData[0] + 0.01);NSLog(@"预测输出a: %f", outputData[0]);// 清理资源MNN::Tensor::destroy(hostTensor);}
}

1.4. 参考

  1. MNN介绍 — MNN-Doc 2.1.1 documentation
http://www.xdnf.cn/news/547489.html

相关文章:

  • C语言| 指针变量的初始化
  • OpenHarmony开源鸿蒙兼容性测试常见问题解答分享
  • 使用 Qt Designer 开发
  • [ARM][汇编] 02.ARM 汇编常用简单指令
  • HOW - 结合 AI 进行 Tailwind 样式开发
  • Secarmy Village: Grayhat Conference靶场
  • SpringMVC所有注解按照使用位置划分
  • 基于matlabcd7.x的无网格近似方法
  • CSS 样式表的四种应用方式详解以及css注释的应用
  • TypeScript与JavaScript的异同
  • MySQL:to many connections连接数过多
  • 指令烧录ORIN NANO操作系统
  • RocketMQ实战—订单系统面临的技术挑战
  • 开放鸿蒙OpenHarmony 5.0.0 Release 兼容性测试实战经验分享
  • 工业数据治理标准规范深度解析
  • 大模型应用开发“扫盲”——基于市场某款智能问数产品的技术架构进行解析与学习
  • 解决git中断显示中文为八进制编码问题
  • 设计模式 - 工厂模式
  • 中断全攻略:单片机优先级与 NVIC 详解(超形象解释)
  • Kubernetes中微服务JVM监控与自动发现的解决方案
  • HarmonyOS5云服务技术分享--云数据库使用指南
  • (十三)深入了解AVFoundation-采集:视频帧采集与实时滤镜处理
  • Https流式输出一次输出一大段,一卡一卡的-解决方案
  • 海康工业相机白平衡比选择器对应的值被重置后,如何恢复原成像
  • 【Unity】DOTween的常用函数解释
  • Java 大视界——Java大数据在智慧交通智能停车诱导系统中的数据融合与实时更新
  • 【数据结构】队列的完整实现
  • 五:操作系统内存管理之连续内存分配
  • 机器学习10-随机森林
  • 解决将cpp编译为dll,使用ctype的cdll调用,printf不输出在终端