AIGC体验6-Stable Diffusion使用技巧之ControlNet模型的使用1

在文生图的应用中,用户经常会对生成的图形有特殊的要求,如局部重绘,满足边缘或深度条件,模糊变清晰,黑白变彩色,人体特定姿势(pose)等等。这篇短文将向大家介绍基于Stable Diffusion的ControlNet实现图像可控生成的几个示例,更加完整的介绍可以参考相关文献(这篇短文基于stable diffusion 1.5版本,具体可以使用引文3中给出的notebook)。

基于canny边缘的可控图像生成
提示词:cute dog. 基于图像canny边缘的可控生成结果示例
基于深度图的可控图像生成
提示词:cute cat,基于图像深度的可控生成示例
基于语义分割图像的可控图像生成
提示词:working office,基于语义分割图像的可控生成示例

现有的stable diffusion的基础模型在人物生成上效果不是特别好,这篇短文暂时没有演示可控人物生成的效果,更多的场景会在后面的短文中进一步补充,欢迎大家关注,并提出意见建议。

References


Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *