SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法

这篇具有很好参考价值的文章主要介绍了SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

自SAM「分割一切」模型推出之后,二创潮就开始了,有想法有行动!飞桨AI Studio开发者会唱歌的炼丹师就创作出SAM进化版,将SAM、Stable Diffusion集成,实现「分割」、「生成」能力二合一,并部署为应用,支持在线使用!

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

在线免费使用应用

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

创作者:会唱歌的炼丹师
作者主页:https://aistudio.baidu.com/aistudio/personalcenter/thirdview/338262

【大模型专区】当SAM遇到Stable-Diffusion
https://aistudio.baidu.com/aistudio/projectdetail/6300584

应用使用参数解读:
Text: sam分割图像的分割对象,如输入car,就会把图片中的car进行分割。Prompt: 针对分割对象的可控文本生成,输入对应的PromptAdvanced options: 高级选项

Images: 生成图像数量

Image Resolution: 生成图像分辨率,一般使用为512*512

Control Strength: control model 生成的条件合并到 stable diffsion 模型上的权重,默认为 1

Guess Model: 为使用更多样性的结果,生成后得到不那么遵守图像条件的结果

Segmentation Resolution: 图像分割分辨率

Steps: 推理步长

Guidance Scale: 是一种增加对指导生成(在本例中为文本)以及总体样本质量的条件信号的依从性的方法。它也被称为无分类器引导,简单地说,调整它可以更好的使用图像质量更好或更具备多样性。值介于7和8.5之间通常是稳定扩散的好选择。 默认情况下使用为7.5。

如果值很大, 图像质量可能更好,但对应的多样性会降低

如果值很小, 图像质量可能更差,但对应的多样性会增加

Seed: 随机种子数

eta (DDIM): DDIM采样方法

Added Prompt: 在上述Prompt基础上所额外添加的提示,使生成的图片更好

Negative Prompt: 控制sd生成的图片把那些相关提示过滤

使用技术

Segment Anything: 提示词分割的大模型

ControlNet Canny : 对分割图进行边缘检测,以此作为图像生成的控制条件

Stable Diffusion : 文本到图像的扩散大模型通过Segment Anything Model强大的图像分割能力,我们可以很好的得到分割后的像素图。然后由ControlNet with Stable Diffusion将控制图为不同语义的分割图和文本(prompt)作为控制条件来完成Segment to Image任务。这样Segment Anything Model通过ControlNet与Stable Diffusion进行集成。

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

fork项目运行

fork该项目

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

启动进入线上开发环境

建议选择V100 32GB开发环境。

SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法,stable diffusion,AI作画,人工智能,paddlepaddle,百度,飞桨

飞桨AI Studio每周运行项目即可免费获得56小时V100 32G算力

安装ppdiffusers依赖

1# 安装paddlenlp和ppdiffusers依赖
2!pip install "paddlenlp>=2.5.2" "ppdiffusers>=0.11.1" safetensors --user
1# 采用Canny边缘检测图片作为控制条件
2!python gradio_canny2image.py
1# 采用ADE20K分割协议的图片作为控制条件
2!python gradio_seg2image_segmenter.py

安装ppsegSAM依赖

1# 安装依赖
2!pip install -r requirements.txt --user
1# 下载样例图片
2!mkdir ~/examples
3%cd ~/examples
4!wget https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png
1# 下载分词表
2%cd ~
3!wget https://bj.bcebos.com/paddleseg/dygraph/bpe_vocab_16e6/bpe_simple_vocab_16e6.txt.gz
1# 运行脚本
2!python scripts/text_to_sam_clip.py --model-type vit_h

AI技术日日迭代,期待各位开发者精彩创作,也诚邀各位开发者加入AI Studio进行开源创作,详细创作激励体系请点击下方链接。

https://aistudio.baidu.com/aistudio/cooperate/appcreation文章来源地址https://www.toymoban.com/news/detail-603795.html

到了这里,关于SAM&Stable-Diffusion集成进化!分割、生成一切!AI绘画新玩法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 代码实现stable-diffusion模型,你也用AI生成获得一等奖的艺术图

    Midjourney工具获奖图片 好吗,人工智能虽然已经涉及到人类的方方面面,但没有想到,AI 还能抢艺术家的饭碗,这不,一位小哥使用AI工具生成的艺术照片竟然获奖了,而且还是一等奖,且最近刚刚火起来的stable diffusion 更是让艺术家与AI发生了争执,到底AI是否抢了艺术家的饭

    2024年02月10日
    浏览(76)
  • AI绘画——使用stable-diffusion生成图片时提示RuntimeError: CUDA out of memory处理方法

    RuntimeError: CUDA out of memory. Tried to allocate 1.50 GiB (GPU 0; 8.00 GiB total capacity; 5.62 GiB already allocated; 109.75 MiB free; 5.74 GiB reserved in total by PyTorch) If reserved memory is allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF 1、添加参数–n_

    2024年02月02日
    浏览(68)
  • 【人工智能·Stable-Diffusion】如何体验到 Stable-Diffusion

    带大家快速体验到AI图片生成 Stable-Diffusion,包含 win本地部署 参考和 云GPU服务器体验 。 Stable Diffusion 是一种通过文字描述创造出图像的 AI 模型. 它是一个开源软件, 使得新手可以在线尝试。 Stable Diffusion 的算法需要计算机有较强的算力,默认是需要配置有英伟达的独立显卡的

    2024年02月11日
    浏览(62)
  • stable-diffusion.cpp 一个文件解决stable diffusion所有环境,不需要python,stable-diffusion.dll动态库C#调用Demo

    stable-diffusion.cpp 一个文件解决stable-diffusion所有环境,不需要python,stable-diffusion.dll动态库C#调用Demo 目录 介绍 效果 Text To Image Image To Image Upscale 项目 代码 Native.cs SDHelper.cs MainForm.cs 下载  stable-diffusion.cpp 地址:https://github.com/leejet/stable-diffusion.cpp StableDiffusionSharp 地址:https://

    2024年04月14日
    浏览(48)
  • 安装stable-diffusion

    下载stable-diffusion源码 安装python 添加host 打开C:WindowsSystem32driversetchost 添加 修改launch.py 运行stable-diffusion-webui-1.2.1目录下webui-user.bat 安装时长较长,耐心等待 安装成功日志,主要是出现了地址“http://127.0.0.1:7860” 打开chrome,输入http://127.0.0.1:7860 python版本要为3.10.6版本,不

    2024年02月09日
    浏览(48)
  • stable-diffusion画图

    1、在python官网 下载python3 安装 2、安装 CUDA 在安装 CUDA 之前查看nvidia版本 我的版本是11.6就在nvidia官网下载对应版本 3、在github中下载stable-diffusion-webui webui-user.bat以普通非管理员用户身份从运行 直到出现下面地址就代表运行成功 4、在浏览器输入127.0.0.1:7860生成图像 可以在h

    2024年02月11日
    浏览(45)
  • Stable-Diffusion 在线部署

    1. 注册 链接:https://aistudio.baidu.com/aistudio/newbie?invitation=1sharedUserId=4982053sharedUserName=2019%E7%9F%A5%E5%90%A6 2. 复制项目: https://aistudio.baidu.com/aistudio/projectdetail/4905623 点击 Fork,复制为自己的项目 3. 点击启动项目 点击“启动环境”,选择合适的 32G版本的GPU,进入项目。 AIStudio 每天

    2024年02月11日
    浏览(56)
  • 我的stable-diffusion入门

    翻到一个感兴趣的帖子,然后开始了这段折腾 载下来用了,发现用的是cpu出图,慢的很,还是需要stable diffusion webui来做,所以就开始找资料 找模型: https://civitai.com/ https://huggingface.co/ stable diffusion webui:https://github.com/AUTOMATIC1111/stable-diffusion-webui 安装PyTorch详细过程 搭建和配

    2024年04月09日
    浏览(68)
  • Stable-Diffusion环境搭建

    硬件可以采用DELL R7525 搭配L4 或者T4 等等企业级显卡   环境如下: 可以看到有相应的GPU卡信息   esxi 7.u3 信息 设置GPU穿透方式    查看相应的虚拟机参数信息  PCI 设备加载穿透GPU信息 启动uefi  设置相应的参数信息 https://docs.nvidia.com/grid/latest/grid-vgpu-release-notes-vmware-vsphere/

    2024年02月09日
    浏览(97)
  • stable-diffusion 学习笔记

    万字长篇!超全Stable Diffusion AI绘画参数及原理详解 - 知乎 参考:stable diffusion提示词语法详解 参考:Ai 绘图日常 篇二:从效果看Stable Diffusion中的采样方法_软件应用_什么值得买 大概示例: 默认是Latent算法:注意该算法在二次元风格时重绘幅度必须必须高于0.5,否则会得到模

    2024年02月20日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包