当前位置: 首页 > web >正文

【云端深度学习训练与部署平台】AutoDL连接VSCode运行深度学习项目的全流程

目录

📌 摘要:AutoDL平台使用全流程指南

一、AutoDL介绍

1.1 简介

1.2 核心功能

1.3 AutoDL 的优势

1.4 示例场景

二、租用云服务器

2.1 进入官网

  2.2 选择服务器

2.3 查看配置信息

扩展知识点:AutoDL 平台中「1卡」与「2卡」

1、什么是「1卡」「2卡」?

2、二者的核心区别

3、举个例子

4、一句话总结

 三、VScode连接服务器

3.1 VScode中下载Remote-SSH插件

3.2 连接服务器

 3.3 查看数据盘位置

 3.4 安装高级 GPU 监控工具


📌 摘要:AutoDL平台使用全流程指南

本文详细介绍了 AutoDL 平台的使用方法,从平台简介、服务器租用、VSCode远程连接,到高级GPU监控工具的安装,适合中文开发者快速上手深度学习任务。


一、AutoDL介绍

1.1 简介

AutoDL 是一个面向开发者和 AI 初学者的 深度学习在线训练平台,支持在线上传数据、选择模型、训练微调,并可生成 API 进行部署调用,目标是**“让训练大模型像点外卖一样简单”**。

AutoDL 是一个适合中文开发者使用的“云端深度学习训练与部署平台”,零代码快速上手模型微调与应用上线,非常适合教学、实验、原型开发和中小企业使用。


1.2 核心功能

功能说明
🖥 在线训练无需本地安装环境,网页端即可上传数据、启动训练
🧠 模型支持支持 BERT、LLaMA、ChatGLM、Qwen、Whisper 等多种模型
💾 数据上传可直接上传 CSV、JSON、TXT 等格式数据
🔁 微调支持支持分类、生成、问答、指令微调等任务类型
🚀 快速部署一键部署 API,可用于网页、微信小程序等调用
📊 可视化提供训练过程图表、模型评估指标、混淆矩阵等展示
🛠 自定义配置可调学习率、batch size、LoRA 参数等(专业模式)

1.3 AutoDL 的优势

优点描述
零环境配置适合没有本地算力或不懂 PyTorch 的用户
中文友好全中文界面,适合国内初学者与中小团队
轻量微调支持 LoRA、Prefix 等参数高效微调方式
模型上线快训练完成后生成接口或网页 demo,可直接上线
自动化高类似“AI 训练托管平台”,开箱即用、简化流程

1.4 示例场景

  • 上传客服问答语料,微调一个 ChatGLM 模型,生成客服对话 API

  • 上传情感评论数据(正/负),微调 BERT 做情感分类

  • 上传语音音频,使用 Whisper 模型完成语音转文本

  • 上传公司文档,用向量检索 + 大模型问答做企业知识助手


二、租用云服务器

2.1 进入官网

AUtoDL官网地址:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL

登录账号


  2.2 选择服务器

选择之前,先去充一定额度,选择【自定义】,根据情况充即可,可以一点一点充;

 选择服务器

 选择【基础镜像】,其余步骤如下图

 创建成功,


2.3 查看配置信息

1、点击jupterLab,进入开发界面;

 2、选择【终端】

该界面可用来对服务器进行操作;

3、查看服务器配置信息

nvidia-smi

可以发现,显卡是3090,显存是24GB 


扩展知识点:AutoDL 平台中「1卡」与「2卡」

1、什么是「1卡」「2卡」?

在 AutoDL 平台中,「卡」指的是 显卡数量(GPU)
训练任务会分配对应数量的显卡资源给你:

配置含义适合场景
1卡分配 1 块 GPU(如 A100-80G)小模型微调、小数据集、单任务
2卡分配 2 块 GPU(并行训练)大模型微调、大数据集、训练提速

2、二者的核心区别
对比项1卡2卡
💻 计算能力单块 GPU,算力有限双卡并行,训练更快
🧠 可训练模型大小支持中小模型(如 BERT、小型 LLaMA)支持大模型(如 ChatGLM3-6B、Qwen-7B)
⏱ 训练速度相对较慢更快(尤其在大 batch / 多样本时)
🧾 资源费用较低(适合试验)较高(更适合正式训练)
🧰 编程复杂度逻辑简单,无需分布式背后自动使用 PyTorch DDP(无需你手动处理)

 

3、举个例子
  • 你想微调一个 BERT 模型做情感分类,只有几千条文本 → 用 1卡 就足够

  • 你想微调 ChatGLM-6B 模型,样本几万条,每轮训练很慢 → 建议用 2卡


4、一句话总结

1卡 = 基础版:适合中小模型、原型验证;2卡 = 加强版:适合大模型、大数据,更快更强。


 三、VScode连接服务器

前提:安装好VS Code

3.1 VScode中下载Remote-SSH插件

Remote-SSH 是 VSCode 插件,用于通过 SSH 远程连接服务器,在本地界面中像操作本地一样编辑、运行、调试远程代码。


3.2 连接服务器

到Autodl中,复制【登录指令】

回到vscode→电脑图标→点击SSH后的“+”图标 →粘贴复制的【登录指令】

 这时会出现.ssh的配置路径,选择电脑默认账户即可;

选择完后,右下角出现连接弹窗,点击【连接】 

点击连接后,会出现一个新的VScode窗口,就是服务器窗口

 再到Autodl中复制服务器【密码】

 

 新VScode窗口(服务器窗口):

选择【Linux】→继续→粘贴【密码】

打开文件→确定 

在输入框中在粘贴一次【密码】 

 到这里,服务器就连接成功了,之后就可以通过服务器做开发了。


 3.3 查看数据盘位置

在租用不同的服务器时,文件结构可能会有所不同,我们可以直接通过终端查看数据盘和系统盘的位置,因为在做微调时,一般是把模型存放在数据盘中。


 3.4 安装高级 GPU 监控工具

#安装高级 GPU 监控工具
pip install nvitop#启动工具
nvitop

在终端输入【pip install nvitop】 ,执行安装依赖

输入【nvitop】,启动工具后,就能够通过终端实时查看GPU的实时状态了; 

启动该工具后,该终端也将无法再进行操作,可以新建一个【终端】执行其他操作; 

http://www.xdnf.cn/news/15333.html

相关文章:

  • C# 接口(派生成员作为实现)
  • 钉钉企业应用开发实战:从零构建组织级业务工具
  • MySQL 内外连接
  • monorepo 发布库 --- 打包文件
  • 线程属性设置全攻略
  • 深入详解:决策树在医学影像脑部疾病诊断中的应用与实现
  • 构建AI Agent的完整实战指南:从邮件助手案例看6步落地方法
  • 幸福的蓝图——搭建你的“快乐与意义”金字塔
  • AI 助力编程:Cursor Vibe Coding 场景实战演示
  • 分音塔科技(BABEL Technology) 的公司背景、股权构成、产品类型及技术能力的全方位解读
  • 部署Harbor私有仓库
  • 自动化证书续签工具针对VPS服务器HTTPS服务的维护实践
  • 2025 年 06 月 GitHub 十大热门项目排行榜
  • 【Docker基础】Dockerfile核心概念解析:什么是Dockerfile?与镜像、容器的关系
  • 【Linux-云原生-笔记】Apache相关
  • 模型驱动的架构MDA的案例
  • Vscode中使用C++代码进行debug
  • 大模型KV缓存量化误差补偿机制:提升推理效率的关键技术
  • 人工智能自动化编程:传统软件开发vs AI驱动开发对比分析
  • npgsql/dapper/postgresql的时区问题
  • 【解决办法】报错Found dtype Long but expected Float
  • 每日算法刷题Day46 7.12:leetcode前缀和3道题和差分2道题,用时1h30min
  • 【算法笔记】7.LeetCode-Hot100-图论专项
  • 《目标检测模块实践手册:从原理到落地的尝试与分享》第一期
  • Kotlin基础学习记录
  • Spring Cloud Gateway中常见的过滤器
  • FastGPT革命:下一代语言模型的极速进化
  • LabVIEW键盘鼠标输入监控
  • 阿里开源AI大模型ThinkSound如何为视频配上灵魂之声
  • UI前端大数据可视化新探索:如何利用色彩心理学提升数据传达效果?