FramePack部署(从PyCharm解释器创建和使用开始)保姆级教程
#工作记录
FramePack项目地址:
lllyasviel/FramePack: Lets make video diffusion practical!
建议使用GitHub Desktop进行克隆操作。
相较于传统的Git命令行工具,GitHub Desktop在各种网络环境下都展现出了显著的克隆稳定性优势,能够有效降低因网络波动或不稳定而引发的克隆失败风险,为用户提供更加顺畅、可靠的代码获取体验。
在GitHub项目网页:
或者我们可以复制克隆地址,通过命令行工具进行克隆操作:
用GitHub desktop克隆完项目之后,点击“Show in Explorer”(在资源管理器中显示):
在文件夹空白的地方,按住键盘SHIFT键不放,同时鼠标点击右键:
选择“Open Folder as PyCharm Community Edition Project”(打开文件夹作为 PyCharm 社区版项目):
PyCharm会自动检测有无虚拟环境,如果没有本地虚拟环境,PyCharm会自动进入虚拟环境的创建引导(根据文件夹中的requirements.txt
文件),可以点“取消”稍后处理,或者选择并确认“位置、基础解释器、依赖项文件”等信息,创建虚拟环境:
本地虚拟环境的创建位置确定之后,
选择并确认基础解释器(python路径),
点选到所需版本的python.exe文件,然后点“打开”
然后查看选中的python.exe路径是否正确:
确认路径和文件正确之后,点击窗口的“确定”,进入虚拟环境的创建流程:
根据网络状况,requirements.txt
文件内容也会同时安装
安装完成后右下角会有完成后的弹窗提醒,一般会自动配置为项目的解释器。
如果对步骤不放心,可以再次点击“配置Python解释器”
再次点选确认解释器
然后打开终端进入虚拟环境(PyCharm会自动激活虚拟环境)
为确认requirements.txt
文件的安装情况,可以再次运行以下命令确认:
pip install -r requirements.txt
如果输出如下界面,则是requirements.txt
文件已正确安装:
升级一下pip和相关构建工具:
python.exe -m pip install --upgrade pip setuptools wheel
建议关闭终端后重新打开:
根据项目的README.MD文件中的指导,安装PyTorch,这里最好是到 PyTorch官方网站,确认一下符合自己系统的安装命令:
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
复制官方网站上的对应命令后回到PyCharm中的终端中粘贴后按回车键运行:
等待安装完成:
验证PyTorch的安装:
import torch # 导入 PyTorch 库print("PyTorch 版本:", torch.__version__) # 打印 PyTorch 的版本号# 检查 CUDA 是否可用,并设置设备("cuda:0" 或 "cpu")
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print("设备:", device) # 打印当前使用的设备
print("CUDA 可用:", torch.cuda.is_available()) # 打印 CUDA 是否可用
print("cuDNN 已启用:", torch.backends.cudnn.enabled) # 打印 cuDNN 是否已启用# 打印 PyTorch 支持的 CUDA 和 cuDNN 版本
print("支持的 CUDA 版本:", torch.version.cuda)
print("cuDNN 版本:", torch.backends.cudnn.version())# 创建两个随机张量(默认在 CPU 上)
x = torch.rand(5, 3)
y = torch.rand(5, 3)# 将张量移动到指定设备(CPU 或 GPU)
x = x.to(device)
y = y.to(device)# 对张量进行逐元素相加
z = x + y# 打印结果
print("张量 z 的值:")
print(z) # 输出张量 z 的内容
安装其他依赖:
安装依赖库
-
虽然这些依赖库可能不是直接必须的,但为了确保程序的完整功能,建议安装它们:
安装xformers
pip install xformers
安装flash-attn
直接使用pip命令可能会无法完成安装,请访问以下网页,下载whl文件,移动到项目文件夹下,从本地安装:
Linux版本:
Dao-AILab/flash-attention:快速且节省内存的精确注意力
Windows版本:
Releases · kingbri1/flash-attention · GitHub
根据
CUDA版本(cu124)
torch版本(torch2.6)
Python版本(cp310)
选择:
pip install flash_attn-2.7.4.post1+cu124torch2.6.0cxx11abiFALSE-cp310-cp310-win_amd64.whl
经实践,似乎CUDA版本和torch版本不完全匹配,也能顺利安装flash-attn。
安装 Triton
pip install triton-windows
验证 triton的安装:
python -c "import triton; print(triton.__version__)"
安装sage-attn
pip install sageattention
huggingface访问设置
申请令牌:
https://huggingface.co/settings/tokens
操作步骤如下:
-
前往 Hugging Face 的网站:
打开浏览器,访问 https://huggingface.co/settings/tokens。 -
登录账户并生成访问令牌:
如果尚未登录 Hugging Face 账户,请先登录,然后点击 “New token” 按钮,创建一个新的访问令牌,建议权限选择为:-
Read:如果你只需要下载模型、数据集。
-
Write 或 Admin:如果你需要上传或管理模型等内容。
-
-
复制访问令牌:
生成后,点击复制按钮,保存令牌。 -
返回命令行窗口:
huggingface-cli login
在命令提示符下,右键粘贴你的 token(输入不可见是正常现象),然后按 Enter。
-
成功后我们会看到登录确认信息,例如:
Token is valid (user: your-username) Your token has been saved to F:\Users\YourName\.huggingface\token
这就完成了 CLI 的登录认证。
(.venv) PS F:\PythonProjects\FramePack> huggingface-cli login
_| _| _| _| _|_|_| _|_|_| _|_|_| _| _| _|_|_| _|_|_|_| _|_| _|_|_| _|_|_|_|
_| _| _| _| _| _| _| _|_| _| _| _| _| _| _| _|
_|_|_|_| _| _| _| _|_| _| _|_| _| _| _| _| _| _|_| _|_|_| _|_|_|_| _| _|_|_|
_| _| _| _| _| _| _| _| _| _| _|_| _| _| _| _| _| _| _|
_| _| _|_| _|_|_| _|_|_| _|_|_| _| _| _|_|_| _| _| _| _|_|_| _|_|_|_|To log in, `huggingface_hub` requires a token generated from https://huggingface.co/settings/tokens .
Token can be pasted using 'Right-Click'.
Enter your token (input will not be visible):
Add token as git credential? (Y/n) Y
Token is valid (permission: fineGrained).
The token `stable_video_diffusion_img2vid.ipynb` has been saved to C:\Users\love\.cache\huggingface\stored_tokens
Your token has been saved in your configured git credential helpers (manager).
Your token has been saved to C:\Users\love\.cache\huggingface\token
Login successful.
The current active token is: `stable_video_diffusion_img2vid.ipynb`
升级Gradio
确认你已经安装的是最新版本的 Gradio:
pip install --upgrade gradio
如果出现Gradio相关错误,请先卸载后安装回Gradio==5.23.0
pip uninstall gradio
pip install gradio==5.23.0
运行程序:
首次运行将会从huggingface下载一些模型文件,请保持网络畅通,可以开启瓦特工具箱(Steam++官网) - Watt Toolkit,以加速访问huggingface:
python demo_gradio.py
然后点击生成的链接即可访问。
后续由于时间原因没有继续调试,请见谅。欢迎交流。