Stable Diffusion进阶教程!AI图像生成控制技巧大揭秘

发布时间:2024-06-14 19:36:20 浏览量:103次

ControlNet 是一款强大的工具,能够通过添加额外控制条件,提升AI图像生成的可控性和精度。

最新版本ControlNet 1.1增加了更多预处理器和模型,训练数据更充足,性能更优。详细信息可参考作者的GitHub文档:点击查看

ControlNet灵活应用,不仅支持单模型,还能多模型联合使用。掌握ControlNet的原理方法,对提高图片生成效果大有裨益。

一、ControlNet 单模型应用

1. 线稿上色

方法:通过ControlNet边缘检测或线稿提取模型,提取线稿后进行着色和风格化。

应用模型:Canny、SoftEdge、Lineart。

Canny边缘检测:

Canny能很好识别图像边缘轮廓,使用前需正确设置预处理器和模型。

  1. 展开ControlNet面板,上传参考图,勾选Enable启用。
  2. 选择预处理器Canny,模型选择control_v11p_sd15_canny。
  3. 勾选Allow Preview允许预览,生成预览。

其它参数包括Control Weight、Starting Control Step、Ending Control Step等,可根据需求调整。

Canny 示例:

SoftEdge软边缘检测:

SoftEdge是HED边缘检测升级版,保留更多细节,可防止生成图像不良内容。

SoftEdge 示例:

Lineart精细线稿提取:

Lineart提取更细致丰富,有三种预处理器模式可选择。

Lineart 示例:

2. 涂鸦成图

方法:使用ControlNet的Scribble模型提取涂鸦图后进行着色和风格化。

应用模型:Scribble。

Scribble示例:

Scribble手动涂鸦示例:

3. 建筑/室内设计

方法:利用ControlNet的MLSD模型提取建筑线条后再生成图像。

应用模型:MLSD。

MLSD示例:

4. 颜色控制画面

方法:使用ControlNet的Seg模型,标注不同区块颜色和结构控制画面构图。

应用模型:Seg。

Seg示例:

5. 背景替换

方法:利用ControlNet的Depth_leres模型移除背景后替换新背景。

应用模型:Depth。

Depth_leres示例:

6. 图片指令

方法:使用ControlNet的Pix2Pix模型对图片进行指令式变换。

应用模型:ip2p。

Pix2Pix示例:

7. 风格迁移

方法:使用ControlNet的Shuffle模型迁移参考图风格到生成图。

应用模型:Shuffle。

Shuffle示例:

8. 色彩继承

方法:使用ControlNet的t2iaColor模型将参考图色彩应用到生成图上。

应用模型:Color。

Color示例:

9. 角色三视图

方法:使用ControlNet的OpenPose模型识别人物姿态后生成图片。

应用模型:OpenPose。

OpenPose角色三视图示例:

10. 图片光源控制

方法:在img2img模式下,使用ControlNet的Depth模型控制图片光源。

应用模型:Depth。

二、ControlNet 多模型组合应用

ControlNet还支持多模型组合使用,对图像进行多条件控制,更加灵活强大。

1. 人物和背景分别控制

方法:设置两个ControlNet,一个控制人物姿态,另一个控制背景,通过权重调节确保准确识别人物姿态。

应用模型:OpenPose、Seg、Depth。

2. 三维重建

方法:通过Depth和Normalbae模型识别三维目标后重新构建。

应用模型:Depth、Normalbae。

3. 更精准的图片风格化

方法:使用Lineart和Depth模型更准确地提取图片结构并保留细节。

应用模型:Lineart、Depth。

4. 更精准的图片局部重绘

方法:使用Canny和Inpaint模型对图片进行更精准的局部重绘。

应用模型:Canny、Inpaint。

热门课程推荐

热门资讯

请绑定手机号

x
确定