GameFactory 框架由香港大学与快手科技联合研发,旨在解决游戏视频生成中的场景泛化难题。该框架利用预训练的视频扩散模型,在开放域视频数据上训练,生成全新多样化的游戏场景,避免了特定游戏数据集的过度依赖。
GameFactory 采用三阶段训练策略,结合 LoRA 微调、动作控制模块训练和参数保留,实现受控游戏视频生成。研究团队还发布了高质量动作标注视频数据集 GF-Minecraft,并发现交叉注意力机制和拼接方法在处理不同控制信号时表现优异。此外,框架支持自回归动作控制,可生成无限长度的交互式游戏视频。
免责声明:本文由用户上传,如有侵权请联系删除!