SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法

这篇具有很好参考价值的文章主要介绍了SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

自SAM「分割一切」模型推出之后,二创潮就开始了,有想法有行动!飞桨AI Studio开发者会唱歌的炼丹师就创作出SAM进化版,将SAM、Stable Diffusion集成,实现「分割」、「生成」能力二合一,并部署为应用,支持在线使用!

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

在线免费使用应用

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

创作者:会唱歌的炼丹师
作者主页:https://aistudio.baidu.com/aistudio/personalcenter/thirdview/338262

【大模型专区】当SAM遇到Stable-Diffusion
https://aistudio.baidu.com/aistudio/projectdetail/6300584

应用使用参数解读:
Text: sam分割图像的分割对象,如输入car,就会把图片中的car进行分割。Prompt: 针对分割对象的可控文本生成,输入对应的PromptAdvanced options: 高级选项

Images: 生成图像数量

Image Resolution: 生成图像分辨率,一般使用为512*512

Control Strength: control model 生成的条件合并到 stable diffsion 模型上的权重,默认为 1

Guess Model: 为使用更多样性的结果,生成后得到不那么遵守图像条件的结果

Segmentation Resolution: 图像分割分辨率

Steps: 推理步长

Guidance Scale: 是一种增加对指导生成(在本例中为文本)以及总体样本质量的条件信号的依从性的方法。它也被称为无分类器引导,简单地说,调整它可以更好的使用图像质量更好或更具备多样性。值介于7和8.5之间通常是稳定扩散的好选择。 默认情况下使用为7.5。

如果值很大, 图像质量可能更好,但对应的多样性会降低

如果值很小, 图像质量可能更差,但对应的多样性会增加

Seed: 随机种子数

eta (DDIM): DDIM采样方法

Added Prompt: 在上述Prompt基础上所额外添加的提示,使生成的图片更好

Negative Prompt: 控制sd生成的图片把那些相关提示过滤

使用技术

Segment Anything: 提示词分割的大模型

ControlNet Canny : 对分割图进行边缘检测,以此作为图像生成的控制条件

Stable Diffusion : 文本到图像的扩散大模型通过Segment Anything Model强大的图像分割能力,我们可以很好的得到分割后的像素图。然后由ControlNet with Stable Diffusion将控制图为不同语义的分割图和文本(prompt)作为控制条件来完成Segment to Image任务。这样Segment Anything Model通过ControlNet与Stable Diffusion进行集成。

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

fork项目运行

fork该项目

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

启动进入线上开发环境

建议选择V100 32GB开发环境。

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

飞桨AI Studio每周运行项目即可免费获得56小时V100 32G算力

安装ppdiffusers依赖

1# 安装paddlenlp和ppdiffusers依赖
2!pip install "paddlenlp>=2.5.2" "ppdiffusers>=0.11.1" safetensors --user
1# 采用Canny边缘检测图片作为控制条件
2!python gradio_canny2image.py
1# 采用ADE20K分割协议的图片作为控制条件
2!python gradio_seg2image_segmenter.py

安装ppsegSAM依赖

1# 安装依赖
2!pip install -r requirements.txt --user
1# 下载样例图片
2!mkdir ~/examples
3%cd ~/examples
4!wget https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png
1# 下载分词表
2%cd ~
3!wget https://bj.bcebos.com/paddleseg/dygraph/bpe_vocab_16e6/bpe_simple_vocab_16e6.txt.gz
1# 运行脚本
2!python scripts/text_to_sam_clip.py --model-type vit_h

AI技术日日迭代,期待各位开发者精彩创作,也诚邀各位开发者加入AI Studio进行开源创作,详细创作激励体系请点击下方链接。

https://aistudio.baidu.com/aistudio/cooperate/appcreation文章来源地址https://www.toymoban.com/news/detail-603795.html

到了这里,关于SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 代码实现stable-diffusion模型,你也用AI生成获得一等奖的艺术图

    Midjourney工具获奖图片 好吗,人工智能虽然已经涉及到人类的方方面面,但没有想到,AI 还能抢艺术家的饭碗,这不,一位小哥使用AI工具生成的艺术照片竟然获奖了,而且还是一等奖,且最近刚刚火起来的stable diffusion 更是让艺术家与AI发生了争执,到底AI是否抢了艺术家的饭

    2024年02月10日
    浏览(62)
  • AI绘画——使用stable-diffusion生成图片时提示RuntimeError: CUDA out of memory处理方法

    RuntimeError: CUDA out of memory. Tried to allocate 1.50 GiB (GPU 0; 8.00 GiB total capacity; 5.62 GiB already allocated; 109.75 MiB free; 5.74 GiB reserved in total by PyTorch) If reserved memory is allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF 1、添加参数–n_

    2024年02月02日
    浏览(44)
  • 【人工智能·Stable-Diffusion】如何体验到 Stable-Diffusion

    带大家快速体验到AI图片生成 Stable-Diffusion,包含 win本地部署 参考和 云GPU服务器体验 。 Stable Diffusion 是一种通过文字描述创造出图像的 AI 模型. 它是一个开源软件, 使得新手可以在线尝试。 Stable Diffusion 的算法需要计算机有较强的算力,默认是需要配置有英伟达的独立显卡的

    2024年02月11日
    浏览(45)
  • stable-diffusion.cpp 一个文件解决stable diffusion所有环境,不需要python,stable-diffusion.dll动态库C#调用Demo

    stable-diffusion.cpp 一个文件解决stable-diffusion所有环境,不需要python,stable-diffusion.dll动态库C#调用Demo 目录 介绍 效果 Text To Image Image To Image Upscale 项目 代码 Native.cs SDHelper.cs MainForm.cs 下载  stable-diffusion.cpp 地址:https://github.com/leejet/stable-diffusion.cpp StableDiffusionSharp 地址:https://

    2024年04月14日
    浏览(35)
  • stable-diffusion画图

    1、在python官网 下载python3 安装 2、安装 CUDA 在安装 CUDA 之前查看nvidia版本 我的版本是11.6就在nvidia官网下载对应版本 3、在github中下载stable-diffusion-webui webui-user.bat以普通非管理员用户身份从运行 直到出现下面地址就代表运行成功 4、在浏览器输入127.0.0.1:7860生成图像 可以在h

    2024年02月11日
    浏览(31)
  • 安装stable-diffusion

    下载stable-diffusion源码 安装python 添加host 打开C:WindowsSystem32driversetchost 添加 修改launch.py 运行stable-diffusion-webui-1.2.1目录下webui-user.bat 安装时长较长,耐心等待 安装成功日志,主要是出现了地址“http://127.0.0.1:7860” 打开chrome,输入http://127.0.0.1:7860 python版本要为3.10.6版本,不

    2024年02月09日
    浏览(33)
  • Stable-Diffusion环境搭建

    硬件可以采用DELL R7525 搭配L4 或者T4 等等企业级显卡   环境如下: 可以看到有相应的GPU卡信息   esxi 7.u3 信息 设置GPU穿透方式    查看相应的虚拟机参数信息  PCI 设备加载穿透GPU信息 启动uefi  设置相应的参数信息 https://docs.nvidia.com/grid/latest/grid-vgpu-release-notes-vmware-vsphere/

    2024年02月09日
    浏览(82)
  • 我的stable-diffusion入门

    翻到一个感兴趣的帖子,然后开始了这段折腾 载下来用了,发现用的是cpu出图,慢的很,还是需要stable diffusion webui来做,所以就开始找资料 找模型: https://civitai.com/ https://huggingface.co/ stable diffusion webui:https://github.com/AUTOMATIC1111/stable-diffusion-webui 安装PyTorch详细过程 搭建和配

    2024年04月09日
    浏览(49)
  • Stable-Diffusion 在线部署

    1. 注册 链接:https://aistudio.baidu.com/aistudio/newbie?invitation=1sharedUserId=4982053sharedUserName=2019%E7%9F%A5%E5%90%A6 2. 复制项目: https://aistudio.baidu.com/aistudio/projectdetail/4905623 点击 Fork,复制为自己的项目 3. 点击启动项目 点击“启动环境”,选择合适的 32G版本的GPU,进入项目。 AIStudio 每天

    2024年02月11日
    浏览(39)
  • Stable-diffusion复现笔记

    目前正在学习有关扩撒模型的相关知识,最近复现了Stable-diffuison,此文主要是想记录一下整体的复现过程以及我在复现过程中出现的一些奇怪的问题以及我的处理方法。这里我的复现主要是针对官网文档实现的,并没有用到webui版本,如果是想体验Stable-diffusion可以去下载we

    2024年04月09日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包