从零开始训练 Stable Diffusion 的成本 < 16 万美元

这篇具有很好参考价值的文章主要介绍了从零开始训练 Stable Diffusion 的成本 < 16 万美元。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

我们想知道使用我们的流数据集、Composer 和 MosaicML 云平台从头开始训练稳定扩散模型需要多少时间(和金钱)。我们的结果:13 天内我们将花费 79,000 个 A100 小时,总培训成本不到 160,000 美元。我们的工具不仅将时间和成本减少了 2.5 倍,而且还具有可扩展性和简单易用性。

这就是我们可以提供帮助的方式:在 MosaicML,我们可以更轻松地高效训练大型模型,使更多组织能够根据自己的数据训练自己的模型。如之前的博文所示,我们的StreamingDataset 库、我们的训练框架Composer和我们的MosaicML Cloud平台显着简化了训练大型语言模型(LLM) 的过程。对于这篇博文,我们使用相同的过程来衡量从头开始训练稳定扩散模型的时间和成本。我们估计的上限79,000 个 A100 小时,在我们的 MosaicML Cloud 平台上在 13 天内训练 Stable Diffusion v2 base,相当于总训练成本不到 160,000 美元。Stability AI模型卡中报告的时间和成本减少了 2.5 倍。除了节省时间和金钱之外,我们的 Streaming、Composer 和 MosaicML Cloud 工具还可以非常简单地在数百个 GPU 上设置和扩展 Stable Diffusion 训练,无需任何额外工作。我们用于此实验的代码是开源的,可以运行

时间和成本估算

下面的表 1和图 1说明了 Stable Diffusion V2 基础训练时间和成本估算如何随使用的 GPU 数量而变化。我们对 256 个 A100 的最终估计是 12.83 天的训练成本为 160,000 美元,比稳定扩散模型卡中报告的时间和成本减少了 2.5 倍。这些估计值是使用测量的吞吐量计算得出的,并假设对 29 亿个样本进行了训练。吞吐量是通过对最大标记长度文章来源地址https://www.toymoban.com/news/detail-508459.html

到了这里,关于从零开始训练 Stable Diffusion 的成本 < 16 万美元的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 由浅入深理解Latent Diffusion/Stable Diffusion(5):利用预训练模型快速开始自己的科研任务

    本系列博客导航 由浅入深理解latent diffusion/stable diffusion(1):写给初学者的图像生成入门课 由浅入深理解latent diffusion/stable diffusion(2):扩散生成模型的工作原理 由浅入深理解latent diffusion/stable diffusion(3):一步一步搭建自己的stable diffusion models

    2024年02月12日
    浏览(49)
  • 斯坦福大学开源Alpaca模型源码,性能与GPT-3.5相当比GPT4逊色,训练成本不到100美元(教程含源码)

    GPT-3.5 (text-davinci-003)、ChatGPT、Claude 和 Bing Chat 等指令遵循模型现在被许多用户广泛使用,包括用于与工作相关的任务。然而,尽管它们越来越受欢迎,但这些模型仍然存在许多需要解决的缺陷。虚假信息、社会刻板印象和有毒语言是与这些模型相关的一些问题。 为了解决这些

    2023年04月10日
    浏览(49)
  • LLM-2023:Alpaca(羊驼)【Stanford】【性能与GPT3.5相当比GPT4逊色,训练成本不到100美元,基于LLaMA和指令微调,仅使用约5万条训练数据就能达到类似GPT-3.5】

    斯坦福的 Alpaca 模型基于 LLaMA-7B 和指令微调,仅使用约 5 万条训练数据,就能达到类似 GPT-3.5 的效果。 斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现​ Alpaca 的训练流程很简单,只有两个步骤: 将 175 个人工设计的指令任务作为种子,使用 text-davinci-003 随机生成指令,

    2024年02月16日
    浏览(48)
  • 从零开始使用MMSegmentation训练Segformer

    写在前面:最新想要用最新的分割算法如: Segformer or SegNeXt 在自己的数据集上进行训练,但是有不是搞语义分割出身的,而且也没有系统的学过MMCV以及MMSegmentation。所以就折腾了很久,感觉利用MMSegmentation搭建框架可能比较系统,但是对于不熟悉的或者初学者非常不友好,因

    2024年02月09日
    浏览(31)
  • Diffusion预训练成本降低6.5倍,微调硬件成本降低7倍!Colossal-AI完整开源方案低成本加速AIGC产业落地

    如何更好、更快和更便宜地实现训练、微调AIGC模型 ,已成为AIGC商业化和应用爆发的最大痛点。 Colossal-AI基于在大模型民主化的专业技术积累, 开源完整Stable Diffusion预训练和个性化微调方案,预训练时间加速和经济成本降低6.5倍,个性化微调硬件成本降低7倍!在个人电脑的

    2024年02月09日
    浏览(104)
  • 从零开始复现BERT,并进行预训练和微调

    代码地址:https://gitee.com/guojialiang2023/bert BERT 是一种基于 Transformer 架构的大型预训练模型,它通过学习大量文本数据来理解语言的深层次结构和含义,从而在各种 NLP 任务中实现卓越的性能。 核心的 BERTModel 类集成了模型的主体架构。它首先利用 BERTEncoder 编码器来处理输入的

    2024年02月02日
    浏览(42)
  • Python从零开始进行AIGC大模型训练与推理

            本专栏将详细介绍从零开始进行AIGC大模型训练与推理(Python),包括文本生成(GPT系列)和图片生成(Stable Diffusion系列)等,初步计划从以下提纲逐步进行博文分享,欢迎关注。 (1)《解密AIGC:人工智能生成内容技术的优势和未来发展趋势》,地址为“解密

    2024年02月09日
    浏览(40)
  • 从零学习Stable Diffusion

    比较好的B站课程来自Nenly同学: https://www.bilibili.com/video/BV1As4y127HW/?spm_id_from=333.999.0.0 SD上手的github webui库:https://github.com/AUTOMATIC1111/stable-diffusion-webui 下面以Ubuntu20.4为例进行步骤介绍 配置安装、文生图、图生图、寻找模型资源、提升绘画质量、Embeddings/LoRA/Hypernetworks、局部重

    2024年02月11日
    浏览(30)
  • 从零开始复现seaformer(语义分割)训练自己的数据集——linux

    出于模型轻量化需求,需对原有的皮肤分割模型进行重新研发。seaformer是作为今年复旦大学和腾讯联合提出的轻量级语义分割算法,具有很好的参考价值。因此,作者基于seaformer算法对自研数据集进行训练,完成轻量级皮肤分割模型的开发。 1.下载地址:https://github.com/fudan

    2024年04月12日
    浏览(36)
  • AIGC - Stable Diffusion 搭建【从零到一】

    解决音频内容GPU运算时遇到ffmpeg引起问题 write_py audio_spleeter.txt

    2024年02月09日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包