AIGC体验7-Stable Diffusion使用技巧之ControlNet模型的使用2

上篇短文向大家部分的介绍了ControlNet的使用示例,在Stable Diffusion的使用过程中,基础模型对于图像生成的质量的影响是挺关键的。在上篇介绍的短文中,我们使用了v1-5-pruned-emaonly这个模型,而在本文的示例中,我们将选择AnythingV5V3_v5PrtRE这个模型,从使用体验来说,该模型在生成人物方面的性能要明显优于v1-5-pruned-emaonly模型。相关的模型链接可以参考引文。

基于图像边缘的可控图像生成
提示词:A classical Chinese man dressed in traditional Tang attire.,基础模型:chilloutmix_NiPrunedFp32Fix.. 基于图像边缘(softedge_hed)的可控图像生成示例
基于openpose人体关键点的可控图像生成
提示词:a boy is dancing on a shining stage,基础模型:Counterfeit-V2.5_pruned. 基于openpose可控图像生成示例

ControlNet还有更多的用法,读者可以进一步自行去尝试和积累经验,关于提示词的写法等还有不少的trick去在实践中模型和进一步总结,后续有相关的心得再去继续在这里分享。


Tags:

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *