当前位置: 首页 > backend >正文

LLaMA-Factory的5种推理方式总结

LLaMA-Factory 作为一款开源的大语言模型微调与推理框架,提供了 5 种核心推理方式,覆盖从本地调试到生产部署的全流程需求。以下是具体方式及示例:

1. 交互式命令行推理

适用场景:快速测试模型效果或进行简单对话。
示例命令

# 使用原始模型推理
llamafactory-cli chat examples/inference/llama3.yaml# 使用微调后的LoRA模型推理(需指定适配器路径)
llamafactory-cli chat examples/inference/llama3_lora_sft.yaml

操作流程

  • 直接输入文本(如 你是谁),模型实时生成回复。
  • 支持多轮对话,历史记录自动保留。

2. Web可视化界面推理

适用场景:需要图形化交互或演示的场景。
启动命令

# 启动Web聊天界面(支持多模态模型如LLaVA)
llamafactory-cli webchat examples/inference/llava1_5.yaml

功能亮点

  • 浏览器访问 http://localhost:7860 即可使用。
  • 支持图片输入(需多模态模型)和文本交互。
  • 界面可自定义模板(如切换为 vicuna 风格对话)。

3. 批量任务推理(vLLM引擎)

适用场景:处理大规模数据集或需要高性能推理的场景。
示例脚本

# 使用vLLM引擎批量推理
python scripts/vllm_infer.py \--model_name_or_path path_to_merged_model \--dataset alpaca_en_demo \--infer_backend vllm

性能优势

  • 相比Hugging Face引擎,vLLM可提升吞吐量3-5倍。
  • 支持动态Batching和显存优化(如 flash_attn: true)。

4. API服务化推理

适用场景:将模型集成到其他应用(如网站、移动端)。
部署命令

# 启动API服务(默认端口8000)
llamafactory-cli api examples/inference/llama3_lora_sft.yaml

调用示例(Python)

from openai import OpenAI
client = OpenAI(api_key="0", base_url="http://localhost:8000/v1")
response = client.chat.completions.create(model="llama3",messages=[{"role": "user", "content": "用Python实现快速排序"}]
)
print(response.choices[0].message.content)

5. 量化推理优化

适用场景:显存不足或需要降低成本时。
配置示例(YAML)

load_in_4bit: true          # 启用4位量化
bnb_4bit_compute_dtype: "float16"  # 计算精度
flash_attn: true            # 加速注意力机制
use_cache: false            # 禁用KV缓存节省显存

效果对比

  • 7B模型显存占用从24GB降至6GB。
  • 推理速度下降约10-20%(可通过 use_cache: true 缓解)。

附加功能:多模态推理

支持模型:如LLaVA(文本+图像联合推理)。
配置示例

model_name_or_path: "llava-hf/llava-1.5-7b-hf"
template: "vicuna"  # 需与模型匹配的提示模板

使用场景

  • 图像描述生成(输入图片路径,输出描述文本)。
  • 视觉问答(如 图中有什么动物?)。

总结建议

  • 调试优先:交互式命令行 → Web界面。
  • 生产部署:API服务 → 批量推理(vLLM)。
  • 资源受限:启用量化 + 关闭 use_cache
  • 多模态任务:选择专用模型(如LLaVA)并配置对应模板。

参考

https://llamafactory.readthedocs.io/zh-cn/latest/getting_started/inference.html

http://www.xdnf.cn/news/12496.html

相关文章:

  • 使用vtk8.2.0加载dicom图像
  • 界面开发框架DevExpress XAF实践:集成.NET Aspire后如何实现数据库依赖?
  • 【AUTOSAR COM】E2E的不同profiles的含义以及应用
  • 批量文件改名具体操作方案
  • USB扩展器与USB服务器的2个主要区别
  • 机器人编程界面
  • CMake 为 Debug 版本的库或可执行文件添加 d 后缀
  • 第五讲——一元函数微分学的几何应用
  • 飞马LiDAR500雷达数据预处理
  • LLMControlsArm开源程序是DeepSeek 控制熊猫机械臂
  • Python基础语法全解:从入门到精通的简明指南
  • 初始结构体,整型提升及操作符的属性
  • RockyLinux9.6搭建k8s集群
  • 一键编译包含多个独立模块和应用的工程(linux cmake)
  • 单片机0-10V电压输出电路分享
  • 微信小程序动态效果实战指南:从悬浮云朵到丝滑列表加载
  • JVM——打开JVM后门的钥匙:反射机制
  • 408第一季 - 数据结构 - 数组和特殊矩阵
  • 代码安全规范1.1
  • STM32标准库-TIM输出比较
  • table表格合并,循环渲染样式
  • git commit 执行报错 sh: -/: invalid option
  • SpringBoot+MySQL家政服务平台 设计开发
  • OpenAI对抗法庭命令:捍卫ChatGPT用户隐私之战
  • mybatis的if判断==‘1‘不生效,改成‘1‘.toString()才生效的原因
  • 浏览器后台服务 vs 在线教育:QPS、并发模型与架构剖析
  • 如何对Video视频进行SEO优化?
  • Ubuntu Cursor升级成v1.0
  • 大数据量高实时性场景下订单生成的优化方案
  • 2025主流智能体Agent终极指南:Manus、OpenManus、MetaGPT、AutoGPT与CrewAI深度横评