在AI绘画的过程中,如果只靠提示词,很难控制人物形象的姿势。
ControlNet的出现,大大简化了这方面的操作,尤其是openpose等插件,可以让我们非常轻松的画出想象中的姿势。
可以说,ControlNet把Stable Diffusion从玩具变成了生产力,可以“随心所欲”生成图片。
ControlNet的作者叫张吕敏,目前在斯坦福读书,除了ControlNet外,他还开发了fooocus、Forge等著名的插件和工具。
今天给大家介绍(复习)一下openpose的使用。
WebUI和ComfyUI都有openpose的插件,不过从使用便捷性来说,虽然大部分场景我推荐ComfyUI,但openpose方面,结合本文的福利,WebUI更为方便,本文以WebUI为例。
一、下载openpose模型
SD1.5和SDXL分别有不同的openpose模型,考虑到张吕敏同学如今“不务正业”,忙着开发Forge,openpose功能,在SD1.5上效果更佳。
SD1.5下的openpose模型:
https://www.123pan.com/s/ueDeVv-GKuI.html
SDXL下的openpose模型:
https://www.123pan.com/s/ueDeVv-PKuI.html
两个模型均拷贝至:
sd-webuiextensionssd-webui-controlnetmodels
二、使用参考图片,提取openpose姿势
其实本文主要是推荐我整理的上千个姿势(文末下载),可以说,你能想到的,你想不到的,应有尽有。
其中大部分图片都内置提示词,可以在WebUI的图片信息中直接读出,然后送到提示词即可跑图。
1、点击打开ControlNet区域
首先点击启用,然后控制类型选取openpose,预处理器选择openpose,模型根据SD1.5还是SDXL进行选择。
因为我习惯使用SDXL,所以此处使用了一个SDXL的openpose模型(事实上,SDXL下openpose效果略微逊色一些)。
然后点击预览,会生成一个openpose的预览图(像火柴人)。
此时可以输入提示词,开始跑图。
如果使用我整理的openpose参考图,可以现将该图上传至图片信息,然后读取提示词。
如果使用一张照片,可以自行根据需要编写提示词。
在控制模式处,建议选择更偏向ControlNet。
2、 点击生成
以我选取的图片为例,为了出现更真实的效果,我选用了一个真人大模型。
生成的效果比较完美。
3、openpose压缩包
除了二维的openpose外,还有3D版的openpose,不过本文主要是推荐这个openpose压缩包,多达3000+个姿势。
当然了,除了这些能放出来的之外,还有数百张没办法放出来的图,请大家自行发掘吧!
三、网盘下载
https://www.123pan.com/s/ueDeVv-XKuI.html
解压缩密码:lgyh
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
三、最新AIGC学习笔记
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例