当前位置: 首页 > news >正文

FramePack部署(从PyCharm解释器创建和使用开始)保姆级教程

#工作记录

FramePack项目地址:

lllyasviel/FramePack: Lets make video diffusion practical!

建议使用GitHub Desktop进行克隆操作。

相较于传统的Git命令行工具,GitHub Desktop在各种网络环境下都展现出了显著的克隆稳定性优势,能够有效降低因网络波动或不稳定而引发的克隆失败风险,为用户提供更加顺畅、可靠的代码获取体验。

在GitHub项目网页:

或者我们可以复制克隆地址,通过命令行工具进行克隆操作:

用GitHub desktop克隆完项目之后,点击“Show in Explorer”(在资源管理器中显示):

在文件夹空白的地方,按住键盘SHIFT键不放,同时鼠标点击右键:

选择“Open Folder as PyCharm Community Edition Project”(打开文件夹作为 PyCharm 社区版项目):

 PyCharm会自动检测有无虚拟环境,如果没有本地虚拟环境,PyCharm会自动进入虚拟环境的创建引导(根据文件夹中的requirements.txt 文件),可以点“取消”稍后处理,或者选择并确认“位置、基础解释器、依赖项文件”等信息,创建虚拟环境:

本地虚拟环境的创建位置确定之后,

选择并确认基础解释器(python路径),

点选到所需版本的python.exe文件,然后点“打开”

 然后查看选中的python.exe路径是否正确:

 确认路径和文件正确之后,点击窗口的“确定”,进入虚拟环境的创建流程:

根据网络状况,requirements.txt 文件内容也会同时安装

安装完成后右下角会有完成后的弹窗提醒,一般会自动配置为项目的解释器。

如果对步骤不放心,可以再次点击“配置Python解释器”

再次点选确认解释器

然后打开终端进入虚拟环境(PyCharm会自动激活虚拟环境)

为确认requirements.txt 文件的安装情况,可以再次运行以下命令确认:

pip install -r requirements.txt

如果输出如下界面,则是requirements.txt 文件已正确安装: 

升级一下pip和相关构建工具:

python.exe -m pip install --upgrade pip setuptools wheel

 建议关闭终端后重新打开:

根据项目的README.MD文件中的指导,安装PyTorch,这里最好是到 PyTorch官方网站,确认一下符合自己系统的安装命令:

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

复制官方网站上的对应命令后回到PyCharm中的终端中粘贴后按回车键运行: 

 等待安装完成:

验证PyTorch的安装:

import torch  # 导入 PyTorch 库print("PyTorch 版本:", torch.__version__)  # 打印 PyTorch 的版本号# 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print("设备:", device)  # 打印当前使用的设备
print("CUDA 可用:", torch.cuda.is_available())  # 打印 CUDA 是否可用
print("cuDNN 已启用:", torch.backends.cudnn.enabled)  # 打印 cuDNN 是否已启用# 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
print("支持的 CUDA 版本:", torch.version.cuda)
print("cuDNN 版本:", torch.backends.cudnn.version())# 创建两个随机张量(默认在 CPU 上)
x = torch.rand(5, 3)
y = torch.rand(5, 3)# 将张量移动到指定设备(CPU 或 GPU)
x = x.to(device)
y = y.to(device)# 对张量进行逐元素相加
z = x + y# 打印结果
print("张量 z 的值:")
print(z)  # 输出张量 z 的内容

 

 

安装其他依赖:

安装依赖库
  • 虽然这些依赖库可能不是直接必须的,但为了确保程序的完整功能,建议安装它们:

安装xformers

pip install xformers

安装flash-attn 

直接使用pip命令可能会无法完成安装,请访问以下网页,下载whl文件,移动到项目文件夹下,从本地安装:

Linux版本:

Dao-AILab/flash-attention:快速且节省内存的精确注意力

 Windows版本:

Releases · kingbri1/flash-attention · GitHub

 根据

CUDA版本(cu124)

torch版本(torch2.6)

Python版本(cp310)

选择:

pip install flash_attn-2.7.4.post1+cu124torch2.6.0cxx11abiFALSE-cp310-cp310-win_amd64.whl

经实践,似乎CUDA版本和torch版本不完全匹配,也能顺利安装flash-attn。

 安装 Triton

pip install triton-windows

验证 triton的安装:

python -c "import triton; print(triton.__version__)"

 安装sage-attn

pip install sageattention

 

 

huggingface访问设置

申请令牌:

https://huggingface.co/settings/tokens

操作步骤如下:

  1. 前往 Hugging Face 的网站
    打开浏览器,访问 https://huggingface.co/settings/tokens。

  2. 登录账户并生成访问令牌
    如果尚未登录 Hugging Face 账户,请先登录,然后点击 “New token” 按钮,创建一个新的访问令牌,建议权限选择为:

    • Read:如果你只需要下载模型、数据集。

    • WriteAdmin:如果你需要上传或管理模型等内容。

  3. 复制访问令牌
    生成后,点击复制按钮,保存令牌。

  4. 返回命令行窗口

    huggingface-cli login
    

    在命令提示符下,右键粘贴你的 token(输入不可见是正常现象),然后按 Enter

  5. 成功后我们会看到登录确认信息,例如:

    Token is valid (user: your-username) Your token has been saved to F:\Users\YourName\.huggingface\token

这就完成了 CLI 的登录认证。

 

(.venv) PS F:\PythonProjects\FramePack> huggingface-cli login

    _|    _|  _|    _|    _|_|_|    _|_|_|  _|_|_|  _|      _|    _|_|_|      _|_|_|_|    _|_|      _|_|_|  _|_|_|_|
    _|    _|  _|    _|  _|        _|          _|    _|_|    _|  _|            _|        _|    _|  _|        _|
    _|_|_|_|  _|    _|  _|  _|_|  _|  _|_|    _|    _|  _|  _|  _|  _|_|      _|_|_|    _|_|_|_|  _|        _|_|_|
    _|    _|  _|    _|  _|    _|  _|    _|    _|    _|    _|_|  _|    _|      _|        _|    _|  _|        _|
    _|    _|    _|_|      _|_|_|    _|_|_|  _|_|_|  _|      _|    _|_|_|      _|        _|    _|    _|_|_|  _|_|_|_|

    To log in, `huggingface_hub` requires a token generated from https://huggingface.co/settings/tokens .
Token can be pasted using 'Right-Click'.
Enter your token (input will not be visible):
Add token as git credential? (Y/n) Y
Token is valid (permission: fineGrained).
The token `stable_video_diffusion_img2vid.ipynb` has been saved to C:\Users\love\.cache\huggingface\stored_tokens
Your token has been saved in your configured git credential helpers (manager).
Your token has been saved to C:\Users\love\.cache\huggingface\token
Login successful.
The current active token is: `stable_video_diffusion_img2vid.ipynb`
 

升级Gradio

确认你已经安装的是最新版本的 Gradio:

pip install --upgrade gradio

如果出现Gradio相关错误,请先卸载后安装回Gradio==5.23.0

pip uninstall gradio
pip install gradio==5.23.0

运行程序:

首次运行将会从huggingface下载一些模型文件,请保持网络畅通,可以开启瓦特工具箱(Steam++官网) - Watt Toolkit,以加速访问huggingface:

python demo_gradio.py

然后点击生成的链接即可访问。

后续由于时间原因没有继续调试,请见谅。欢迎交流。

 

http://www.xdnf.cn/news/271657.html

相关文章:

  • 基于SpringBoot的篮球竞赛预约平台设计与实现
  • 数据赋能(210)——质量管理——可靠性原则
  • FastAPI系列13:API的安全防护
  • 经典算法 最小生成树(prim算法)
  • QT6 源(70):阅读与注释按钮类 QPushButton,及各种属性验证,
  • 返回倒数第k个节点题解
  • 学习黑客分析案例
  • 山东大学计算机组成与设计第九、十章习题解析
  • 延时启动windows中程序
  • C++Primerplus编程练习 第五章
  • 继V1.5之后,幻方又发布了 DeepSeek-Prover-V2-671B,参数提升100倍
  • 【AI平台】n8n入门6:调用MCP服务(非社区节点)
  • 构建灵活的配置管理系统:YAML 与 TOML 的应用与热更新实践
  • 生成树、Prime、Kruskal
  • 第40课 常用快捷操作——按“Tab键”即时更改属性
  • 为什么需要启动探针(StartupProb)?
  • neatchat轻量级丝滑的ai模型web客户端
  • python进阶(2)二进制
  • 文件操作-
  • 【今日三题】游游的重组偶数(模拟) / 体操队形(回溯) / 二叉树中的最大路径和(树形dp)
  • 注入内部Bean
  • C与指针5——字符串合集
  • 高频数据冲击数据库的技术解析与应对方案
  • 基于构件的软件开发方法及其应用
  • Linux系统如何完成系统周期化任务
  • 什么是 Redis?
  • 定长滑动窗口(基础)
  • 【Mytais系列】核心工作流程
  • C++类_移动构造函数
  • <init-param>和<load-on-startup>的作用