当前位置: 首页 > news >正文

【AI大模型学习路线】第一阶段之大模型开发基础——第二章(大模型的训练与应用)大模型发展史?大模型预训练、微调到应用的过程?

【AI大模型学习路线】第一阶段之大模型开发基础——第二章(大模型的训练与应用)大模型发展史?大模型预训练、微调到应用的过程?

【AI大模型学习路线】第一阶段之大模型开发基础——第二章(大模型的训练与应用)大模型发展史?大模型预训练、微调到应用的过程?


文章目录

  • 【AI大模型学习路线】第一阶段之大模型开发基础——第二章(大模型的训练与应用)大模型发展史?大模型预训练、微调到应用的过程?
  • 🧠 一、大模型发展历史全景(简明年表)
  • 🧩 二、大模型完整开发流程
    • 1️⃣ 大模型预训练(Pretraining)
    • 2️⃣ 微调(Fine-tuning)
    • 3️⃣ 应用部署(Inference & Serving)
  • 🚀 三、大模型应用场景
  • ✅ 总结:大模型开发三步法


欢迎宝子们点赞、关注、收藏!欢迎宝子们批评指正!
祝所有的硕博生都能遇到好的导师!好的审稿人!好的同门!顺利毕业!

大多数高校硕博生毕业要求需要参加学术会议,发表EI或者SCI检索的学术论文会议论文。详细信息可关注VX “学术会议小灵通”或参考学术信息专栏:https://fighting.blog.csdn.net/article/details/146691809


🧠 一、大模型发展历史全景(简明年表)

在这里插入图片描述

🧩 二、大模型完整开发流程

包括三个关键阶段:

1️⃣ 大模型预训练(Pretraining)

目的:学习海量数据中的通用表示能力(语言、图像、知识等)

方式:

  • 自监督学习(Masked Language Modeling、Causal Language Modeling)
  • 使用数百GB到TB级别数据训练(如 CommonCrawl)

常用代码框架:transformers, accelerate, torch.distributed

# 示例:从头预训练语言模型(以GPT为例)
from transformers import GPT2Tokenizer, GPT2LMHeadModeltokenizer = GPT2Tokenizer.from_pretrained("gpt2")
model = GPT2LMHeadModel.from_pretrained("gpt2")# 预训练数据准备(伪代码)
inputs = tokenizer("Hello, I am learning...", return_tensors="pt")
labels = inputs["input_ids"]# 自监督损失训练
outputs = model(**inputs, labels=labels)
loss = outputs.loss
loss.backward()
  • 预训练阶段通常只由大型机构完成,如 OpenAI、Google、Meta、阿里、百度等。

2️⃣ 微调(Fine-tuning)

目的:让大模型适配特定任务,如问答、分类、摘要、翻译、遥感分割等。

技术点:

  • 全参数微调(fine-tuning):对所有模型参数进行训练
  • 参数高效微调(PEFT):如 LoRA、Prefix-Tuning,仅调整小部分参数

🌟 示例:使用LoRA对大模型微调(huggingface + peft)

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import get_peft_model, LoraConfig, TaskTypemodel = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-hf")
tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b-hf")# 配置LoRA微调参数
config = LoraConfig(task_type=TaskType.CAUSAL_LM,r=8,lora_alpha=32,lora_dropout=0.1,bias="none"
)# 添加LoRA adapter层
model = get_peft_model(model, config)
model.print_trainable_parameters()
  • 该方法可将原本需要几百G显存的训练变成单卡可完成的微调任务。

3️⃣ 应用部署(Inference & Serving)

目的:将训练好的大模型部署为可用服务(如API、Web界面、插件)

✅ 常用部署方式
在这里插入图片描述

示例:用 Gradio 部署大模型

import gradio as gr
from transformers import pipelinegenerator = pipeline("text-generation", model="gpt2")def respond(prompt):result = generator(prompt, max_new_tokens=50)return result[0]["generated_text"]gr.Interface(fn=respond, inputs="text", outputs="text").launch()

🚀 三、大模型应用场景

在这里插入图片描述

✅ 总结:大模型开发三步法

在这里插入图片描述

http://www.xdnf.cn/news/245053.html

相关文章:

  • 【小米拥抱开源】小米开源 MiMo 家族,探索 Reasoning 的可能性
  • Chromium 134 编译指南 - Android 篇:获取源码(五)
  • 为 Unity 项目添加自定义 USB HID 设备支持 (适用于 PC 和 Android/VR)-任何手柄、无人机手柄、摇杆、方向盘
  • 聊一聊接口测试如何处理鉴权
  • terraform中statefile文件的实现原理及作用
  • 模型开发之前的核心工作
  • 数据结构学习之顺序表
  • 基于开源链动2+1模式AI智能名片S2B2C商城小程序的个性化与小众化消费社群构建研究
  • KDD 2025 | (8月轮)时空数据(Spatial-temporal)论文总结
  • 如何用AI生成生成个人简历
  • 浅析 MegEngine 对 DTR 的实现与改进
  • 【docker学习笔记】如何删除镜像启动默认命令
  • Docker启动nacos
  • zephyr架构下扫描和解析Beacon数据
  • Learning vtkjs之TriangleFilter
  • 开发板型号 ESP32-DevKitC-32模块型号 ESP32-WROOM-32 和主控芯片 ESP32-D0WDQ6-V3
  • 电子秤检测管理系统开发实战:从数据采集到可视化大屏
  • Python Cookbook-6.14 实现状态设计模式
  • Windows下Python3脚本传到Linux下./example.py执行失败
  • 3D版同步帧游戏
  • 案例:自动化获取Web页面小说(没钱修什么仙)——selenium
  • mem0 安装与测试:一个强大的对话记忆管理工具
  • 机器人手臂控制器:EMC电磁兼容解决(一)
  • 分寝室(C++完成)
  • 阿里云自动备份网站,阿里云自动备份网站的方法
  • kotlin中 热流 vs 冷流 的本质区别
  • 编程语言全景解析与编程技巧深度探索
  • 基于MyBatis的银行转账系统开发实战:从环境搭建到动态代理实现
  • 人工智能——DBSCAN 聚类算法
  • Webug4.0靶场通关笔记07- 第9关反射XSS和第10关存储XSS