从 GPT2 到 Stable Diffusion:Elixir 社区迎来了 Hugging Face

这篇具有很好参考价值的文章主要介绍了从 GPT2 到 Stable Diffusion:Elixir 社区迎来了 Hugging Face。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

从 GPT2 到 Stable Diffusion:Elixir 社区迎来了 Hugging Face

上周,Elixir 社区向大家宣布,Elixir 语言社区新增从 GPT2 到 Stable Diffusion 的一系列神经网络模型。这些模型得以实现归功于刚刚发布的 Bumblebee 库。Bumblebee 库是使用纯 Elixir 语言实现的 Hugging Face Transformers 库。

  • 查看 Elixir 社区的发布文章:
    https://news.livebook.dev/announcing-bumblebee-gpt2-stable-diffusion-and-more-in-elixir-3Op73O

为了帮助大家使用开始这些模型,Livebook—— 用于 Elixir 语言的计算 notebook 平台团队创建了「智能单元」集合,让开发者可以仅用三次点击即搭建各种神经网络模型任务。

由于 Elixir 运行在支持并发和分布式的 Erlang 虚拟机上,开发者可以将这些模型嵌入 Phoenix Web 应用,作为他们现有 Phoenix Web 应用的一部分,集成在使用 Broadway 的数据处理管道中,将模型和 Nerves 嵌入式系统 一起部署,而无需依赖第三方软件。在所有场景中,Bumblebee 模型都会编译到 CPU 和 GPU 中。

背景

将机器学习模型引入 Elixir 的努力始于大约 2 年前的 Numerical Elixir (Nx) 项目计划。Nx 项目实现 Elixir 多维张量和「数值定义」,作为可编译到 CPU/GPU 的 Elixir 子集。Nx 项目没有重造轮子,而是使用 Google XLA 绑定 (EXLA) 和 Libtorch (Torchx) 进行 CPU/GPU 编译。

Nx 项目的倡议还催生了其他几个项目。Axon 项目从其他项目,如 Flax 和 PyTorch Ignite 项目中获得启发,为 Elixir 引进了可进行功能组合的神经网络。Explorer 项目借鉴了 dplyr 和 Rust's Polars,为 Elixir 社区引进了富有表现力和高性能的数据框 (DataFrame)。

Bumblebee 和 Tokenizers 是我们最新发布的库函数。我们感谢 Hugging Face 对机器学习领域跨社区和跨工具协作的支持,以及 Hugging Face 在加速 Elixir 生态建设中起的关键作用。

  • Bumblebee:
    https://github.com/elixir-nx/bumblebee

  • Tokenizers:
    https://github.com/elixir-nx/tokenizers

下一步,我们计划专注于使用 Elixir 进行神经网络训练和迁移学习,让开发者可以根据业务和应用的需求,增强和专注于预训练模型。我们同时也希望发布更多有关传统机器学习算法的进展。

上手实践

如果你想尝试使用 Bumblebee 库,你可以:

  • 下载 Livebook v0.8,从 Notebook 中的 "+ Smart" 单元菜单自动生成 "Neural Networks Tasks",我们目前正致力于在其他平台和空间上运行 Livebook (敬请期待!😉)

  • 我们同时也提供了 Bumblebee 模型在 Phoenix (+ LiveView) apps 中的应用示例:单文件 Phoenix 应用程序。这些示例为将它们集成到您的生产应用程序中提供了必要的构建模块

  • 想获取更多的实践方法,详阅 Notebooks:
    https://github.com/elixir-nx/bumblebee/tree/main/notebooks

如果你想帮助我们构建 Elixir 机器学习生态系统,欢迎尝试使用以上的项目,并提供一些建议。这里有许多有趣的领域,从编译开发到模型构建。我们非常欢迎你可以参与进来,一起为 Bumblebee 带来更多的模型和模型架构。Elixir 社区的未来发展方向是并发式、分布式和趣味性的。


客座文章,原作者为 Elixir 编程语言创始人: José Valim

英文原文发表在 Hugging Face 官方博客: 
https://hf.co/blog/elixir-bumblebee

译者: Slinae Lin (林珊)

加入我们成为翻译志愿者:
https://bit.ly/3vioxWa文章来源地址https://www.toymoban.com/news/detail-512532.html

到了这里,关于从 GPT2 到 Stable Diffusion:Elixir 社区迎来了 Hugging Face的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《Stable Diffusion WebUI折腾实录》在Windows完成安装, 从社区下载热门模型,批量生成小姐姐图片

    操作系统: Windows11 显卡: RTX2060 6GB 显存 下载 Python3.10.6 安装 注意勾选 Add Python 3.10.6 to PATH ,然后一路 下一步 即可 打开powershell, 确认安装成功 下载git 完成安装 为了避免找不到开源项目,可以像上图中的我一样, 先在用户目录建立一个github文件夹,进入文件夹后,再下载开源

    2024年02月11日
    浏览(29)
  • 深度linux社区版 20.8 安装 nvidia-docker,启动Stable Diffusion WebUI docker 容器

    以下为失败的记录,成功方法直接跳到末尾。  说明: 深度apt 源中无法直接安装nvidia-docker  github地址: GitHub - NVIDIA/nvidia-docker: Build and run Docker containers leveraging NVIDIA GPUs 下载最新release https://github.com/NVIDIA/nvidia-docker/archive/refs/tags/v2.13.0.tar.gz 使用国内源 新建文件:ubuntu20.04

    2024年02月16日
    浏览(31)
  • Stable Diffusion科普文章【附升级gpt4.0秘笈】

    随着人工智能技术的飞速发展,我们越来越多地看到计算机生成的艺术作品出现在我们的生活中。其中,Stable Diffusion作为一种创新的图像生成技术,正在引领一场艺术创作的革命。本文将为您科普Stable Diffusion的相关知识,带您走进这个充满无限可能的艺术世界。 Stable Diffu

    2024年04月09日
    浏览(24)
  • 如何用 500 行 SQL 实现 GPT2学习

    俄罗斯有个大佬每年都会用 SQL 来实现一个挑战庆祝新年,已经坚持了 10 多年了。而 2023 年年底他完成了一件非常了不起的事情, 即用 500 行 SQL 实现了 GPT2:https://explainextended.com/2023/12/31/happy-new-year-15/ 整个项目的代码参见:https://github.com/quassnoi/explain-extended-2024 这里搬运总结

    2024年01月23日
    浏览(30)
  • GPT2训练自己的对话问答机器人

    这里我搭建了虚拟的3.6环境 基于GPT2的中文闲聊机器人,模型实现基于HuggingFace的transformers ,精读GPT2-Chinese的论文和代码,获益匪浅。 data/train.txt:默认的原始训练集文件,存放闲聊语料;data/train.pkl:对原始训练语料进行tokenize之后的文件,存储一个list对象,list的每条数据表示一个

    2024年02月12日
    浏览(50)
  • stable diffusion和gpt4-free快速运行

    包含已经搭建好的环境和指令,代码等运行所需。安装好系统必备anaconda、conda即可运行。 github: AUTOMATIC1111/稳定扩散网络UI:稳定扩散网页用户界面 (github.com) 环境:链接:https://pan.baidu.com/s/1n0oOUE4ss8KGf0G-8spXUw?pwd=fx77提取码:fx77 代码:链接:https://pan.baidu.com/s/1qYSaEeRxBzGyAx8LpN

    2024年02月08日
    浏览(29)
  • 智源社区AI周刊No.107:英伟达推出Magic3D;Stable Diffusion2.0发布

    汇聚每周AI热点,不错过重要资讯!欢迎 扫码 ,关注并订阅智源社区AI周刊。 英伟达推出Magic3D,性能超过谷歌DreamFusion 近一段时间,让AI生成3D点云成为业界研究的重点。谷歌曾在9月提出DreamFusion,引起广泛关注。近日,英伟达提出了Magic3D,可以从文字描述中生成3D的AI模型

    2024年02月13日
    浏览(41)
  • 用云服务器构建gpt和stable-diffusion大模型

    参考: DataWhale学习手册链接 采用云服务器创建项目时,选择平台预先下载的 镜像、数据和模型 往往可以事半功倍。 镜像 是一个包含了操作系统、软件、库以及其他运行时需要的所有内容的 快照 。使用镜像可以快速部署具有相同环境配置的虚拟机实例或容器,无需手动配

    2024年03月24日
    浏览(30)
  • GPT-4问世;LLM训练指南;纯浏览器跑Stable Diffusion

    1. 多模态 GPT-4正式发布:支持图像和文本输入,效果超越ChatGPT OpenAI的里程碑之作GPT-4终于发布,这是一个多模态大模型(接受图像和文本输入,生成文本)。主要能力有: GPT-4可以更准确地解决难题,具有更广泛的常识和解决问题的能力:更具创造性和协作性;可以接受图像

    2024年02月01日
    浏览(33)
  • 学习如何使用GPT2进行文本生成(torch+transformers)

    GPT2是OPen AI发布的一个预训练语言模型,见论文《Language Models are Unsupervised Multitask Learners》,GPT-2利用单向Transformer的优势,做一些BERT使用的双向Transformer所做不到的事。那就是通过上文生成下文文本。 理论部分的文章有很多,这里不做深究,下面直接看代码吧 对给出的文本

    2024年02月12日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包