从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定

AIGC动态3个月前发布 机器之心
15 0 0

从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定

AIGC动态欢迎阅读

原标题:从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定
关键字:数据,模型,图像,视频,生成器
文章来源:机器之心
内容字数:0字

内容摘要:


选自 levelup.gitconnected
作者:Fareed Khan
机器之心编译
编辑:杜伟、大盘鸡很翔实的一篇教程。OpenAI 的 Sora、Stability AI 的 Stable Video Diffusion 以及许多其他已经发布或未来将出现的文本生成视频模型,是继大语言模型 (LLM) 之后 2024 年最流行的 AI 趋势之一。
在这篇博客中,作者将展示如何将从头开始构建一个小规模的文本生成视频模型,涵盖了从理解理论概念、到编写整个架构再到生成最终结果的所有内容。
由于作者没有大算力的 GPU,所以仅编写了小规模架构。以下是在不同处理器上训练模型所需时间的比较。作者表示,在 CPU 上运行显然需要更长的时间来训练模型。如果你需要快速测试代码中的更改并查看结果,CPU 不是最佳选择。因此建议使用 Colab 或 Kaggle 的 T4 GPU 进行更高效、更快速的训练。
构建目标
我们采用了与传统机器学习或深度学习模型类似的方法,即在数据集上进行训练,然后在未见过数据上进行测试。在文本转视频的背景下,假设有一个包含 10 万个狗捡球和猫追老鼠视频的训练数据集,然


原文链接:从零开始,用英伟达T4、A10训练小型文生视频模型,几小时搞定

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...