前言
有时候我们可能要模仿某种风格的图片, ComfyUI
可直接使用图生图功能, 但是吧, 出来的效果差强人意, 如下:
原图 | 处理后的图片 |
---|---|
如果我们想生成的图片更接近原图, 可以降低Ksampler
节点中denoise
的值, denoise
表示去噪的强度, 也就是对原图擦除的程度, 擦除值越低, 和原图越相似, 比如我将denoise
设置为0.3
, 效果如下:
和原图一样? 这肯定不是我想要的效果, 我只希望得到一个与原图风格特征类似的图片
为了实现这一目的, 我又尝试了使用AI提取原图特征, 然后将特征关键字翻译成英文, 并作为正向提示词填入到ComfyUI
中
这里我使用了讯飞星火的AI识图功能:
如果不满意, 可以多生成几次, 或者更换提问的方式
翻译的话我用的是百度翻译:
然后生成的图片, 也是不能用:
弯路我已经替大家走完了, 不过也有可能是我的操作不对,比如提示词没到位, 模型用错了之类的, 大家要是看出什么问题了, 欢迎指点😬
那么难道就没有其他办法了吗?
en… 是的, 暂时还没想到, 后面有了我会及时补充上来
不过 我们在ComfyUI
也可以使用工作流的形式来从图片中逆推提示词, 也许在日后能起到一定的作用
根据图片逆推提示词
安装所需插件
安装所需模型
我们可以使用插件自动下载的方式, 只需进入到
ComfyUI-WD14-Tagger
插件目录下找到pysssss.json
和wd14tagger.py
文件, 将里面的https://huggingface.co
改成https://hf-mirror.com
:这样 当我们使用该插件节点的时候 会以国内加速的形式自动下载缺失的模型:
当然我们也可以手动下载模型:
选择需要的模型然后下载
model.onnx
和selected_tags.csv
下载完成后将文件进行更名, 比如改为
wd-swinv2-tagger-v3.onnx
和wd-swinv2-tagger-v3.csv
, 让后将它们放置到ComfyUI-WD14-Tagger/models
目录下
创建节点
只需要三个节点
Load Image
节点 : 用于加载并读取需要进行解析的图片WD14 Tagger
节点 : 用于解析图片String Function
节点 : 用于查看逆推后完整的提示词内容
完整的工作流如下:
生成提示词
工作流执行完毕后, 我们可以在节点中查看并拷贝生成的提示词
批量生成图片
目前AI绘图还是需要靠抽卡才能得到自己满意的图片, 这种情况下, 我们可以一次性生成多张图片, 然后从中挑选一张自己满意的, 我们只需在Empty Latent Image
节点中设置batch_size
字段的值即可:
除此之外我们还可以使用Batch Prompt Schedule
节点来一次性生成不同提示词的图片:
这样的话, 针对那些付费的在线comfyui
平台, 我们可以利用这种方法, 最大幅度的实现运算额度的价值😜
本文为作者原创 转载时请注明出处 谢谢