framepack-i2v / README-HF.md
lisonallen's picture
添加Hugging Face Space部署配置文件和依赖
50f328c
# FramePack - 图像到视频生成
![FramePack封面图](https://huggingface.co./datasets/huggingface/documentation-images/resolve/main/blog/gradio-spaces/gradio-banner.png)
将静态图像转换为动态视频的人工智能应用。上传一张人物图像,添加动作描述,即可生成流畅的视频!
## 使用方法
1. 上传一张人物图像
2. 输入描述所需动作的提示词(如"The girl dances gracefully")
3. 调整视频长度和其他可选参数
4. 点击"开始生成"按钮
5. 等待视频生成(过程是渐进式的,会不断扩展视频长度)
## 示例提示词
- "The girl dances gracefully, with clear movements, full of charm."
- "The man dances energetically, leaping mid-air with fluid arm swings and quick footwork."
- "A character doing some simple body movements."
## 技术特点
- 基于Hunyuan Video和FramePack架构
- 支持低显存GPU运行
- 可生成最长120秒的视频
- 使用TeaCache技术加速生成过程
## 注意事项
- 视频生成是倒序进行的,结束动作将先于开始动作生成
- 首次使用时需要下载模型(约30GB),请耐心等待
- 如果遇到内存不足错误,可以增加"GPU推理保留内存"的值
---
原项目: [FramePack GitHub](https://github.com/lllyasviel/FramePack)