当前位置: 首页 > news >正文

# 部署深度学习模型:Flask API 服务端与客户端通信实战

部署深度学习模型:Flask API 服务端与客户端通信实战

在这篇文章中,我们将探讨如何使用 Flask 框架部署一个深度学习模型,并通过客户端与服务端进行通信。我们将通过一个实际的例子,展示如何构建服务端和客户端,以及如何处理图像预测请求。

环境准备

首先,确保你已经安装了以下库:

  • Flask
  • PyTorch
  • torchvision
  • Pillow

如果尚未安装,可以通过以下命令安装:

pip install flask torch torchvision pillow

服务端代码

服务端代码的主要功能是加载预训练的深度学习模型,接收客户端发送的图像数据,进行预测,并将结果返回给客户端。

# 导入所需的库
import io  # 用于处理二进制数据
import flask  # Flask框架,用于搭建Web服务
import torch  # PyTorch库,用于深度学习模型的加载和推理
import torch.nn.functional as F  # PyTorch的神经网络函数模块,用于softmax等操作
from PIL import Image  # Python图像处理库,用于图像的读取和预处理
from torch import nn  # PyTorch的神经网络模块
from torchvision import transforms, models  # torchvision库,用于图像预处理和加载预训练模型# 初始化Flask app
app = flask.Flask(__name__)  # 创建一个新的Flask应用程序实例
# __name__参数通常被传递给Flask应用程序来定位应用程序的根路径,这样Flask就可以知道在哪里找到模板、静态文件等。
# 总体来说app = flask.Flask(__name__)是FLasK应用程序的起点。它初始化了一个新的FLasK应用程序实例。
model = None  # 初始化模型变量为None
use_gpu = False  # 初始化是否使用GPU的标志为False# 定义加载模型的函数
def load_model():# """Load the pre-trained model, you can use your model just as easily."""global model  # 声明使用全局变量model# 加载resnet18网络model = models.resnet18()  # 加载预训练的resnet18模型num_ftrs = model.fc.in_features  # 获取全连接层的输入特征数量model.fc = nn.Sequential(nn.Linear(num_ftrs, 102))  # 修改全连接层,输出为102个类别(根据具体任务修改类别数)# print(model)checkpoint = torch.load('best.pth')  # 加载训练好的模型权重model.load_state_dict(checkpoint['state_dict'])  # 将权重加载到模型中# 将模型指定为测试格式model.eval()  # 将模型设置为评估模式# 是否使用gpuif use_gpu:model.cuda()  # 如果使用GPU,则将模型移动到GPU上# 定义数据预处理函数
def prepare_image(image, target_size):"""Do image preprocessing before prediction on any data.param image    :     original imageparam target_size     :     target image sizereturn     :     preprocessed image"""# 针对不同模型,image的格式不同,但需要统一到RGB格式if image.mode != 'RGB':image = image.convert('RGB')  # 如果图像不是RGB格式,则转换为RGB格式# Resize the input image and preprocess it.(按照所使用的模型将输入图片的尺寸修改)image = transforms.Resize(target_size)(image)  # 调整图像大小为目标尺寸image = transforms.ToTensor()(image)  # 将图像转换为Tensor# Convert to Torch. Tensor and normalize. mean与stdimage = transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])(image)  # 对图像进行标准化处理# Add batch size axis 增加一个维度,用于按batch测试image = image[None]  # 增加一个维度if use_gpu:image = image.cuda()  # 如果使用GPU,则将图像移动到GPU上return torch.tensor(image)  # 返回预处理后的图像Tensor# 定义一个装饰器,用于将指定的URL路径与一个函数关联起来,并指定该函数响应的HTTP方法
@app.route('/predict', methods=['POST'])
def predict():  # 当客户端发送请求时# 做一个标志,刚开始无图像传入时为false,传入图像时为truedata = {'success': False}  # 初始化返回数据字典,初始值为Falseif flask.request.method == 'POST':  # 如果收到POST请求if flask.request.files.get('image'):  # 判断是否有图像文件image = flask.request.files['image'].read()  # 将收到的图像进行读取,内容为二进制image = Image.open(io.BytesIO(image))  # 将二进制图像数据转换为PIL图像对象# 利用上面的预处理函数将读入的图像进行预处理image = prepare_image(image, target_size=(224, 224))  # 对图像进行预处理,目标尺寸为224x224preds = F.softmax(model(image), dim=1)  # 得到各个类别的概率results = torch.topk(preds.cpu().data, k=3, dim=1)  # 概率最大的前3个结果# torch.topk用于返回输入张量中每行最大的k个元素及其对应的索引results = (results[0].cpu().numpy(), results[1].cpu().numpy())  # 将结果转换为numpy数组# 将data字典增加一个key,value,其中value为list格式data['prediction'] = list()  # 初始化预测结果列表for prob, label in zip(results[0][0], results[1][0]):  # 遍历概率和标签# Label name = idx2labellstr(label)]r = {'label': str(label), 'probability': float(prob)}  # 创建一个字典,包含标签和概率# 将预测结果添加至data字典data['prediction'].append(r)  # 将预测结果添加到列表中# Indicate that the request was a success.data['success'] = True  # 将请求成功的标志设置为Truereturn flask.jsonify(data)  # 返回预测结果的JSON格式数据# 主程序入口
if __name__ == '__main__':  # 判断是否是主程序运行print('Loading PyTorch model and Flask starting server ...')  # 打印加载模型和启动服务器的信息print('Please wait until server has fully started')  # 提示用户等待服务器启动完成load_model()  # 先加载模型# 再开启服务app.run(port='5012')  # 启动Flask应用,监听5012端口

客户端代码

客户端代码负责发送图像数据到服务端,并接收预测结果。

import requests  # 导入requests库,用于发送HTTP请求# 定义Flask服务的URL地址
flask_url = 'http://127.0.0.1:5012/predict'  # Flask服务的地址,运行在本地主机的5012端口# 定义一个函数,用于发送图像到Flask服务并获取预测结果
def predict_result(image_path):# 打开图像文件并读取其内容image = open(image_path, 'rb').read()  # 以二进制模式打开图像文件并读取内容payload = {'image': image}  # 将图像内容封装为一个字典,作为请求的文件数据# 使用requests库发送POST请求到Flask服务r = requests.post(flask_url, files=payload).json()  # 发送POST请求,并将返回的JSON数据解析为字典# 检查请求是否成功if r['success']:# 如果请求成功,遍历预测结果并打印for (i, result) in enumerate(r['prediction']):print('{}. 预测类别为{}的概率:{}'.format(i + 1, result['label'], result['probability']))else:# 如果请求失败,打印失败信息print('request failed')# 主程序入口
if __name__ == '__main__':# 定义要预测的图像路径image_path = r'D:\Users\妄生\PycharmProjects\人工智能\深度学习\模型部署\flower_data\flower_data\val_filelist\image_00059.jpg'# 调用predict_result函数,对指定图像进行预测predict_result(image_path)

运行与测试

  1. 启动服务端:
    在这里插入图片描述

  2. 启动客户端:
    在这里插入图片描述

网络问题处理

如果在运行过程中遇到网络问题,例如无法访问 http://127.0.0.1:5012/predict,这可能是由于以下原因:

  • 服务端未正确启动或端口被占用。
  • 本地网络配置问题。

解决方法:

  • 确保服务端正确启动,并监听在正确的端口上。
  • 检查防火墙或安全软件设置,确保没有阻止访问该端口。
  • 尝试重新启动服务端或计算机。

总结

通过这篇文章,我们展示了如何使用 Flask 部署一个深度学习模型,并通过客户端与服务端进行通信。我们详细解释了服务端和客户端的代码,并提供了运行和测试的步骤。希望这能帮助你理解如何将深度学习模型部署为 Web 服务,并处理可能遇到的网络问题。

http://www.xdnf.cn/news/289783.html

相关文章:

  • Linux进程间的通信
  • Node.js 是什么?
  • docker 外部能访问外网,内部不行(代理问题)
  • SQL常见误区
  • 如何扫描系统漏洞?漏洞扫描的原理是什么?
  • 【MCP Node.js SDK 全栈进阶指南】专家篇(1):MCP-SDK扩展与定制
  • Dify本地 + vllm + Qwen
  • 走出 Demo,走向现实:DeepSeek-VL 的多模态工程路线图
  • 协议(消息)生成
  • qt csv文件写操作
  • 3.5/Q1,GBD数据库最新一区文章解读
  • P3246 [HNOI2016] 序列 Solution
  • 项目生成日志链路id,traceId
  • 数据库的二级索引
  • 【PostgreSQL数据分析实战:从数据清洗到可视化全流程】4.4 异构数据源整合(CSV/JSON/Excel数据导入)
  • 数据结构小扫尾——栈
  • BUUCTF 大流量分析(一) 1
  • 比较两种判断相同二叉树的方法:递归与遍历序列对比
  • 湖北理元理律师事务所:债务法律服务的民生价值重构
  • brep2seq kaggle安装 micromamba conda环境
  • 政务服务智能化改造方案和案例分析
  • QT6 源(79):阅读与注释表盘 QDial 的源码,其是基类QAbstractSlider 的子类,及其刻度线的属性举例
  • 深入理解 CSS Flex 布局:代码实例解析
  • 【Hive入门】Hive安全管理与权限控制:基于SQL标准的授权GRANT REVOKE深度解析
  • kotlin 05flow -从 LiveData 迁移到 Kotlin Flow 完整教程
  • 用Python打造自己的专属命令行工具
  • 手写 Vue 源码 === reactive 方法
  • 判断题材持续性
  • Redis的过期设置和策略
  • rocketMq win10安装并注册服务 centos7安装