动漫作坊 – 分享动漫制作

动漫作坊 – 分享动漫制作


  • 首页

  • 归档

  • 搜索

在线ComfyUI平台汇总

发表于 2024-06-01

前言

目前AI运算对电脑配置要求相对较高, 如果你设备有限, 并且不想手动下载部署ComfyUI, 那么推荐你使用在线版本

这里给大家汇总一些好用的在线ComfyUI平台, 将它们结合使用, 能满足我们大部分的需求

esheep

国产平台, 这也是我目前用的比较多的, 不仅支持ComfyUI , 还有在线WebUI, 满足不同人群需求

image-20240603201847731

点击进入官网

runcomfy

国外的一个在线ComfyUI平台, 国内用户无需大爬梯即可快速访问, 直接使用微软账号登录即可

image-20240603202634712

新用户自动赠送0.25美元, 可以免费使用中型机器15分钟:

image-20240603203639535

启动后在My Machines中可以找到启动后的机器

image-20240603203722752

进入后界面和本地ComfyUI版本无异:

image-20240603203752102

点击进入官网

flowt

也是国外的一个平台, 不过是纯付费的, 10美元一个月, 连免费体验时间都没有, 这个就看大家自己需求了

image-20240603204714613

image-20240603204549957

点击进入官网

cephalon

国产AI绘图平台, 有现成的镜像可以一键使用, 内置配套镜像和插件以及可用的工作流

虽然是付费平台, 但是新用户有赠送积分, 另外拉新也有时长赠送

image-20240603204915871

image-20240603205014890

image-20240603210402782

点击进入官网

CodeWithGpu

和cephalon平台类似, 可以使用现成镜像, 也可以自己搭建一台镜像, 别人如果使用自己的原创镜像可获取现金奖励

image-20240603205259472

image-20240603205423546

里面有各种AI镜像, 不仅有ComfyUI, WebUI也是有的:

image-20240603205633757

点击进入官网

其他

在线WebUI除了上面提到的一些平台外, 还有一个平台也支持WebUI, 由于它没有内置ComfyUI, 因此我单独拿出来介绍

这个平台大家也熟悉, 名为LIBLIB

image-20240603205851493

点击进入LibLIb

由于ComfyUI太过强大, 未来势必是它的天下, 因此 强烈大家把ComfyUI用起来

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

如何实现AI生成3D模型

发表于 2024-05-29

前言

目前AI越来越强大, 只需要一张2D图片, 就能生成与之对应的3D模型

这简直就是建模师和动画师, 以及独立游戏开发者的福音啊

那么该如何实现这一骚操作呢

有以下几种AI实现方式

Rodin

该平台支持图片生成3D, 还支持文本生3D, 目前处于内侧阶段, 可选功能还算丰富, 很适合用来建模人物头像:

image-20240603182452501

image-20240603182718758

image-20240603183759286

可对生成的模型进行二次编辑:

image-20240603182811696

还能作为集成插件嵌入到各种3D建模工具中使用:

image-20240603183114359

官网 : 点击进入

Wonder3D

免费开源的图片转3D项目

image-20240603131310190

image-20240603131321796

在Github中有手动部署的教程, 不过相对较繁琐, 有兴趣的小伙伴可以去研究一下

GitHub: 点击进入

官网: 点击进入

我这边推荐大家体验开箱即用的网页版本, 一个是hugginface版本, 但是这个需要大爬梯才能访问, 而且生成的模型只能预览不能下载:

image-20240603132110156

hugginface预览版: 点击进入

Tripo3D

可根据文字或者图片在线生成3D模型, 并提供模型下载, 不过它是付费性质的平台, 需要注册, 新用户赠送600积分, 每次下载消耗5积分, 默认下载glb格式的模型文件:

image-20240603130506282

image-20240603130742502

整体效果还是很不错的

Tripo3D官网: 点击进入

InstantMesh

由腾讯公司推出的一款图片生成3D模型的工具, 比较适合处理小物件和建筑, 对人物处理的还不算太好, 脸容易糊

image-20240603192056860

GitHub : 点击进入

除了本地部署之外, 我们可在huggingface平台中在线使用, 并支持OBJ和GLB两两种模型格式的下载

huggingface在线版 : 点击进入

当然 我们还可以借助replicate平台以API接口的形式进行调用:

image-20240603192517580

replicate平台 : 点击进入

或者使用ComfyUI进行实现, 不过目前仅支持Windows平台, 有兴趣的可以前往ComfyUI-InstantMesh查看具体使用

image-20240603192853488

ComfyUI实现

在ComfyUI平台上, 支持多种方式的模型生成, 比如Wonder3D、InstantMesh、TripoSR、Zero123++等等, 详情可参见ComfyUI-3D-Pack

image-20240603190734250

这里我以Stability推出的TripoSR开源模型为例, 来给大家介绍如何在ComfyUI平台中实现3D模型的生成

所需模型和插件

插件:

  • ComfyUI Essentials
  • ComfyUI-Flowty-TripoSR

模型:

  • TripoSRModel.ckpt : 将该模型放置到ComfyUI/models/checkpoint目录下

    image-20240603185142535

工作流下载和使用

关于图片转3D的工作流我已经上传到了在线ComfyUI平台, 大家可以前往查看运行和下载

image-20240603184601820

点击进入

效果如下

image-20240603210856822

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

使用AI生成属于自己的漫画书

发表于 2024-05-29

前言

AI的出现, 使得各个行业都有了无限可能, 对于个体而言, 同样如此

我们不需要考虑某个技术会不会, 只需考虑想不想要的问题

传统的艺术创作, 周期相对较长, 但是在AI的加持下, 创作效率得到了指数型的提升, 同样的, 创作门槛, 也从艺术家逐步下沉到了全民老百姓

但是这种下沉需要一个过程, 在这个过程期间, 抢占先机者往往能获利, 后知后觉者只能娱乐娱乐了

当风口来临时, 大家不妨踊跃参与一下, 也许机会就来了

好了回归正题, 今天我们来聊聊如何使用AI生成漫画

目前生成漫画的方式有两种:

  • 一种是使用原生Stable Diffusion模型的方式来生成漫画, 比如借助WebUI、ComfyUI平台实现
  • 另一种是使用第三方基于Stable Diffusion优化封装生成工具来实现

使用原生ComfyUI实现

这种方式需要自己搭建漫画生成工作流, 包括图片的生成、排版和文字的拼接等等, 难度较高, 但灵活性强, 可根据自身的需求进行随意定制

不过就当下技术而言, 还是存在以下一些短板:

  • 生成的场景和人物, 统一性不够高, 观感上存在一些差异
  • 如果是本地部署的话, 对电脑配置要求过高

尽管如此, 随着模型的进步和技术的提升, 我相信这些问题都会得到解决, ComfyUI这种节点式工作流平台, 未来的潜力无限

接下来给大家介绍如何在ComfyUI中实现漫画书的生成

所需模型和插件

插件:

  • ComfyUI Impact Pack

  • Efficiency Nodes for ComfyUI

  • ComfyUI_Comfyroll_CustomNodes

如果你使用的是本地自己部署的ComfyUI, 那么推荐你使用Manager管理器安装上面的插件

如果使用的是esheep在线ComfyUI, 则无需另外安装插件以及模型

模型:

  • DreamShaper8 LCM大模型 : 将该模型放置到ComfyUI/models/checkpoint目录下

    image-20240602142054143

  • LCMTurboMix_LCM_Sampler模型 : 将该模型放置到ComfyUI/models/lora目录下

    image-20240602142310162

工作流使用和下载

关于漫画书的工作流我已经上传到了在线ComfyUI平台, 大家可以前往查看运行和下载

image-20240602140916761

点击进入

效果如下

image-20240602140314261

由于在线ComfyUI平台中CR Simple Meme Template节点默认字体只支持英文, 因此演示案例中为全英文, 如果你是本地部署ComfyUI则可以使用中文字体

使用第三方工具实现

目前已经有第三方工具能实现从图片生成到字幕配音等一整套流程, 可谓是真正意义的一键生成漫画, 不过通常这种工具都具备收费性质, 即便前期不收费, 后期也得收

这里给大家介绍几个能用的工具:

AIcomicFactory

基于AI驱动的一个漫画生成网站, 无需注册即可体验, 目前免费使用

可以选择不同的风格:

image-20240602110931490

输入提示词后点击Go自动生成:

image-20240602111254428

如果某张图片不满意还可以点击ReDraw重绘:

image-20240602111357078

官方给的使用步骤如下:

AI Comic Factory step

由于是国外网站, 敏感提示词不会进行拦截过滤, 老司机们, 懂?😁

点击进入官网

ComicAI

同样是AI驱动的漫画网站, 需要注册才能使用, 免费版赠送1200点积分, 网站支持繁体中文

image-20240602112840759

image-20240602113042908

可选择不同的风格:

image-20240602113139313

首先它会根据你输入的想法, 自动生成故事, 当然我们也可以自己手动上传故事内容, 这里我使用它自动生成:

image-20240602113356280

然后依照故事内容生成角色, 我们可以自定义人物的形象 , 如果不满意可以重新生成:

image-20240602113534794

紧接着对漫画布局进行编排:

image-20240602113805098

添加相应的气泡文字对话:

image-20240602114032702

最后发布和下载:

image-20240602114809138

CommicAI相比AIcommicFactory功能要更加丰富一些, 绘制的人物可控性相对更高, 推荐大家体验一下

点击进入官网

创绘

这是一个一键生成小说推文漫画视频的工具, 它需要结合WebUI和剪映使用

目前只支持Windows平台

image.png

想做小说推文漫画视频的小伙伴可以试一试

点击进入创绘下载和使用文档

知乎文章:《创绘-AI一键生成小说推文漫画视频》

和创绘同类的产品还有一个, 名叫想绘, 有兴趣的可以进入它的使用文档:

点击进入想绘说明文档

关于漫画的变现手段

如果你制作漫画不是为了爱好, 而是单纯为了赚钱, 那么就有必要好好考虑一下如何将漫画变现的问题

我们可以将生成的漫画发布到国内的一些漫画平台, 诸如腾讯动漫, 妖精漫画等等平台上

也可以将漫画以短视频的方式发布到短视频平台, 给漫画平台引流赚取佣金

或者单纯发布到西瓜视频以及B站赚取播放量收益

image-20240603124723005

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

Blender关于3D建模的几种方式

发表于 2024-05-28

前言

对某个物体建模, 实现的方式不止一种

建模的方式

  • 布尔建模
  • 雕刻建模
  • 细分法建模
  • 程序化建模
  • 照片扫描建模
  • 视频建模
  • AI建模

布尔建模

在多个物体相交重合时, 通过数学运算中的与、或、非来实现快速建模, 这种建模方式出来的效果会相对硬朗一些, 适合一些机械化的物体

雕刻建模

使用雕刻工具进行建模, 和捏泥人差不多, 纯雕刻建模需要一定的艺术天赋

细分法建模

这种是比较常用的建模手段, 通过物体表面的线条细分来实现各种复杂的效果, 这种方式出来的效果相对圆润, 适合一些平滑的物体

程序化建模

利用程序化手段实现快速建模, 适用于一些具有规律化的物体, 比如建筑类和批量人物, 花草树木等等, 程序化建模不是凭空实现的, 它是基于各种现成的小模型来进行堆叠

照片或视频建模

给某个物体以环绕的方式拍摄一组全方位的照片或者一段视频, 然后上传到平台上, 比如luma平台, 就能生成3D影像和模型, 这种建模方式, 我认为是AI建模的一种过渡手段

AI建模

在ComfyUI平台上, 我们可以根据一张图片, 生成与之对应的3D模型

目前AI发展迅速, 使用AI建模是未来的一种趋势, 它能给独立创作者赋能, 极大地提升创作效率, 我相信未来会涌现越来越多的独立动画师, 独立游戏开发者等等

总结

实际的建模过程中, 并不是单独只用某一种方式, 而是多种建模方式结合使用, 以实现高效化建模

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

Blender制作2D动画之常用技巧

发表于 2024-05-28

常用技巧

批量修改关键帧和过渡帧内容

  1. 第一步 框选需要修改的关键帧和过渡帧
  2. 第二步 点亮多重帧按钮
  3. 第三步 线条颜色变粗变深表示进入到批量处理状态
  4. 开始修改内容

动画循环

实现动画循环常规做法是复制粘贴关键帧, 这种做法不仅繁琐, 而且如果后期需要对动作进行修改, 那么工作量巨大

这里推荐大家使用修改器来实现, 添加时间偏移修改器:

image-20240530123208312

然后设置我们需要进行循环的起始帧和结束帧即可:

image-20240530123300132

将修改器应用到多个物体

如果我们想对场景中的多个物体添加相同的修改器, 那么挨个手动添加的方式太过低效, 我们可以使用修改面板中的应用选定项功能

首先在物体大纲栏中 配合Shift键选择我们需要添加的修改器物体:

image-20240530123731261

然后在修改器面板中选择复制到选中项即可:

image-20240530123757550

物体抖动

如果我们想使动画中的物体运动不那么僵硬死板, 我们可以为其增加噪声抖动, 这种效果有点类似于以前黑白老电视信号不好画面抖动的感觉:

image-20240531223044946

效果如下:

iShot_2024-05-31_22.28.23

使用自由线填充着色的技巧

很多初学者, 面对自由线给线稿填充颜色时, 可能有点不适应, 其实这种方式很简单, 只需要沿着线条画一遍即可:

iShot_2024-05-31_10.39.07

绘制深度

blender2D绘图默认在一个同一个层面上, 如果我们要给内容指定不同的纵深感, 可以考虑借助3D游标来实现:

首先开启3D游标显示:

image-20240531110318843

然后将笔画位置选择为跟随3D游标:

image-20240531110230317

此时我们只需要更改游标的位置进行绘制, 那么它们之间就会出现纵深感:

image-20240531110603428

有时候我们在绘制时, 会需要用到这种效果

辅助绘制

我们如果以某个部位为圆形绘制一个精准的圆或者平行线, 那么我们需要用到辅助绘制功能, 它能很快速的实现这一效果, 它为我们提供了三种参考方式, 分别是游标、自定义、现有物体:

image-20240531111403529

我们以游标为例做个示范:

iShot_2024-05-31_11.15.12

摄像机视角问题

我们在绘制绘制时, 一定要先移动摄像机再进行绘制, 否则会出现物体视角不对的情况

比如, 我们在移动摄像机之前进行绘制, 此时图像没有问题:

image-20240530203156289

但是当我们将摄像机移动到绘制物体时, 画面就发生的变形:

image-20240530203344205

绘制的内容本身没有发生变化, 问题主要出在于摄像机的视角, 用错误的视角绘制内容, 那么得到的内容也是错误的, 除非摄像机不进行移动, 否则绘画之前先把摄像机视角摆正

动画模式

在Blender动画摄影表中, 分为好几种不同的动画模式, 有动作、形态、蜡笔、遮罩等等:

image-20240602102605799

其中蜡笔动画, 是真正意义上的帧动画

而其他诸如动作模式, 则是属性动画, 通过物品某个属性值的变化来实现动画效果, 它往往需要配合曲线编辑器来实现不同速率的属性值变化

我们在blender中也能看到, 它们占用不同的时间线窗口, 两者并没有共用同一个关键帧:

image-20240602103337927

image-20240602103405285

我们在制作动画的过程中一定要注意区分, 避免丈二摸不着头脑

相关问题

物体拆分后重新给子物体使用自动插帧 出现动画错乱的情况

我们可能会对已经绘画好的内容进行拆分成单独的一个物体, 方便后期的动画处理, 比如将人物的手臂或者嘴巴等单独拆分出来

拆分的方式有两种, 一种是使用复制的方式, 也就是复制一份物体, 然后将不需要的部分进行擦除, 另一种是使用Blender自带的物体拆分功能

如果使用复制的方式, 那么连带之前的动画也会一并复制过来, 此时如果我们想要删除过渡帧重新计算并插入顺序帧, 则会出现动画错乱:

image-20240529123815110

解决办法是, 删除当前物体下的动画数据, 然后再进行自动插帧:

image-20240529123936739

image-20240529124044139

解决动画播放速度和实际渲染出来的速度不一致的问题

blender默认是按照逐帧进行播放的, 而不是按照我们设置的24/秒, 所以在播放动画时会出现不那么流畅的情况, 和导出的动画速度不一致, 解决办法就是将动画播放设置为逐秒播放

我们进入到时间线窗口, 点击回放设置面板, 在同步属性中选择帧优化:

image-20240531224744586

此时我们播放动画就按照渲染输出中设置的帧率进行播放了

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

有关动画制作的一些基础知识

发表于 2024-05-27

帧率

帧率, 指的是每秒显示的画面数量

由于动画制作的时间成本比较高, 尤其是对于帧动画而言, 我们尽可能地在保证画面流畅度的前提下画最少的画面数量

通常来说帧率在24帧以上就能保证画面足够流畅了, 电视画面的帧率基本都是在25帧, 游戏画面的帧率通常是30帧或60帧

所以我们在进行动画制作时, 只需要选择24帧的帧率, 就可

拍数

动画制作中, 有拍数的说法, 比如一拍一或者一拍二等等

所谓的一拍几表示的是, 每个画面所占用的帧数, 通常来说在非跳跃运动前提下, 每个画面占用帧数越少, 画面越细腻流畅

以下是关于一拍几的具体分析:

  1. 一拍一:这种方式下,动画师需要为每秒绘制24张不同的图像,也称为全帧作画,能够提供最流畅的动画效果,但也是工作量最大的方式。
  2. 一拍二:在这种方式下,动画师每秒只需绘制12张图像,每张图像被使用两帧,是比较常见的折中方法,可以在保证动画质量的同时减少一些工作量。
  3. 一拍三:动画师每秒绘制8张图像,每张图像停留三帧,这种方法常用于降低成本或工期压力较大的情况。
  4. 静止帧:有时为了艺术效果或成本控制,某些场景可能会使用静止帧,即一张画面停留多个帧。
  5. 灵活运用:在实际制作中,根据动画的效果和氛围需求,这些拍摄手法会灵活改变,即各种拍数混合使用, 某些慢动作画面可能使用一拍一, 某些画面可能使用一拍二或一拍三。

我们在制作动画的时候, 根据自己的时间精力进行选择对应的起始拍数, 然后再一点点的优化

关键帧

关键帧是在动画或视频制作中的重要概念,它表示动画中的关键时刻或关键状态, 在软件中, 关键帧会记录下该关键时刻画面的所有信息

那么, 怎么样的时刻算是关键时刻呢? 比如:

  • 动画开始
  • 动画结束
  • 动画转折点

像这些具有特殊意义的关键位置, 我们称之为关键时刻或者关键状态, 在软件中, 我们需要将这些帧标记为关键帧

而除了关键帧之外的帧, 我们称之为过渡帧, 通常来说, 这些过渡帧可以使用软件自动生成, 以减少动画师的工作量

举个例子:

我们需要制作一个人物向上抬手的动作, 那么这个抬手动作的关键状态有两个, 一个是准备抬手的那个位置, 另一个则是抬手结束的位置

那么我们就可以将这两个关键状态所对应的帧标记为关键帧, 然后中间逐步抬手的动作画面对应的帧则为过渡帧, 我们在画面绘制的时候, 也只需要绘制这两个关键帧画面即可

但是, 如果人物抬手的动作并非是直线的, 而是中途往水平方向移动了一下, 那么这种情况下关键状态就不只两个了, 而是有四个:

  • 准备抬手的位置
  • 准备水平移动的位置
  • 移动结束的位置
  • 抬手结束的位置

你看, 小小的动作变化, 就完全不一样了,人物动作越复杂, 表情越细腻, 那么需要绘制的画面就越多

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

Blender制作2D动画之常用快捷键汇总

发表于 2024-05-27

2D动画常用快捷键

  1. 调整画笔半径

    1
    F+鼠标左右移动
  2. 调整画笔强度

    1
    Shift+F+鼠标左右移动
  3. 开启画笔稳定

    在自由绘制时按住该键开启笔画防抖动, 能能使线条更加稳定

    1
    Shift
  4. 画布缩放

    1
    鼠标滚轮
  5. 移动画布

    1
    Shift+按住鼠标滚轮拖动
  6. 平滑雕刻

    在雕刻模式下, 按住Shift键配合雕刻工具, 能起到平滑温和雕刻效果

  7. 关键帧插值

    1
    Ctrl+E

    image-20240527162505609

    image-20240527174955609

  8. 快速调出工具面板

    1
    Shift+空格

    image-20240527162600879

  9. 框选线条

    1
    Shift+鼠标左键

编辑模式下, 单独使用鼠标左键框选不起作用, 需要配合Shift键

  1. 绘制标注

    1
    键盘D键+鼠标左键
  2. 擦除标注

    1
    键盘D键+鼠标右键
  3. 移除某一层下所有标注

    按键盘N调出视图窗口, 然后在最下方找到标注选项栏, 点击-号进行移除标注层:

    image-20240530094055152

  4. 连续绘制

    1
    键盘E

    在绘制模式下, 按住E键可以实现连续绘制, 这里以直线为例, 连续绘制出折线:

    iShot_2024-05-31_11.28.54

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI生成与某张参考图类似的图片

发表于 2024-05-26

前言

有时候我们可能要模仿某种风格的图片, ComfyUI可直接使用图生图功能, 但是吧, 出来的效果差强人意, 如下:

原图 处理后的图片
表情原型 e769d0364f5797ee2a929869014bcdee6e064b774850f432ba177662f532cad2

如果我们想生成的图片更接近原图, 可以降低Ksampler节点中denoise的值, denoise表示去噪的强度, 也就是对原图擦除的程度, 擦除值越低, 和原图越相似, 比如我将denoise设置为0.3, 效果如下:

image-20240527082819017

和原图一样? 这肯定不是我想要的效果, 我只希望得到一个与原图风格特征类似的图片

为了实现这一目的, 我又尝试了使用AI提取原图特征, 然后将特征关键字翻译成英文, 并作为正向提示词填入到ComfyUI中

这里我使用了讯飞星火的AI识图功能:

image-20240527083830693

如果不满意, 可以多生成几次, 或者更换提问的方式

翻译的话我用的是百度翻译:

image-20240527084158981

然后生成的图片, 也是不能用:

image-20240527085115706

弯路我已经替大家走完了, 不过也有可能是我的操作不对,比如提示词没到位, 模型用错了之类的, 大家要是看出什么问题了, 欢迎指点😬

那么难道就没有其他办法了吗?

en… 是的, 暂时还没想到, 后面有了我会及时补充上来

不过 我们在ComfyUI也可以使用工作流的形式来从图片中逆推提示词, 也许在日后能起到一定的作用

根据图片逆推提示词

  1. 安装所需插件

    • ComfyUI WD1.4 Tagger插件

      image-20240524101943125

  1. 安装所需模型

    我们可以使用插件自动下载的方式, 只需进入到ComfyUI-WD14-Tagger插件目录下找到pysssss.json和wd14tagger.py文件, 将里面的https://huggingface.co改成https://hf-mirror.com:

    image-20240527101954751

    image-20240527102144792

    image-20240527103850801

    这样 当我们使用该插件节点的时候 会以国内加速的形式自动下载缺失的模型:

    image-20240527104713075

    当然我们也可以手动下载模型:

    点击进入模型下载页

    image-20240527102352411

    选择需要的模型然后下载model.onnx和selected_tags.csv

    image-20240527102526034

    下载完成后将文件进行更名, 比如改为wd-swinv2-tagger-v3.onnx和wd-swinv2-tagger-v3.csv, 让后将它们放置到ComfyUI-WD14-Tagger/models目录下

    image-20240527103810554

  1. 创建节点

    只需要三个节点

    • Load Image节点 : 用于加载并读取需要进行解析的图片
    • WD14 Tagger节点 : 用于解析图片
    • String Function节点 : 用于查看逆推后完整的提示词内容

    完整的工作流如下:

    image-20240527104646975

  2. 生成提示词

    工作流执行完毕后, 我们可以在节点中查看并拷贝生成的提示词

    image-20240527104519644

批量生成图片

目前AI绘图还是需要靠抽卡才能得到自己满意的图片, 这种情况下, 我们可以一次性生成多张图片, 然后从中挑选一张自己满意的, 我们只需在Empty Latent Image节点中设置batch_size字段的值即可:

image-20240527090737746

除此之外我们还可以使用Batch Prompt Schedule节点来一次性生成不同提示词的图片:

image-20240527094501594

这样的话, 针对那些付费的在线comfyui平台, 我们可以利用这种方法, 最大幅度的实现运算额度的价值😜

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI+Deforum生成瞬息视频

发表于 2024-05-26

前言

Deforum是一个基于SD模型生成视频的工具, 它生成的视频给人一种强烈的视觉冲击和不稳定感, 如下:

iShot_2024-05-26_18.47.30

由于上面的Gif图抽了帧, 看起来不是很流畅, 大家可以前往Deforum官网查看更多的示例效果

image-20240526185305075

点击进入官网

我们可以使用官方提供的在线生成视频功能, 不过要收费:

image-20240526190751400

之前Deforum在WebUI平台也推出了相应的插件, 可直接使用

如今ComfyUI平台也出了相应的插件

今天我们就来聊聊在ComfyUI中利用Deforum插件来生成瞬息视频

需要安装的插件

  • deforum-comfy-nodes

安装插件后打开插件根目录, 执行以下命令安装插件依赖:

1
pip3 install -r requirements.txt

该插件要求安装的python版本必须为v3.10以上, 否则无法正常工作

工作流下载

瞬息视频工作流json文件, 两种下载方式, 任君选择:

点击网盘下载 (访问密码: 312306)

点击本地下载

开始使用

  1. 启动ComfyUI, 导入下载的工作流

  2. 节点参数设置

    这一步可以看一看B站的视频讲解, 如下:

  3. 开始生成

Deforum官方博客

image-20240527081618990

点击进入

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI实现根据视频生成openpose

发表于 2024-05-25

前言

之前给大家介绍过一篇关于ComfyUI生成跳舞视频的文章, 详情可参见《ComfyUI实现根据文字生成跳舞视频》

iShot_2024-05-25_11.07.41

在那篇文章中我们使用的是现成的openpose动作姿势来生成的视频, 那么如果我们想要生成自定义的舞蹈动作呢?

比如想依照抖音中某位小姐姐的舞蹈视频来生成视频, 或者自己跳一段舞蹈, 然后让某个动漫人物来跳

要实现这种效果, 那么就得生成与之对应的舞蹈动作模板, 也就是openpose, 它是有一张张火柴人图片组成, 如下:

转圈_00006_

然后将生成的openpose动作模板, 与之前文章中介绍的AnimationDiff插件配合使用, 则可生成动作视频

接下来我们就来聊聊该如何使用ComfyUI生成openpose

需要安装的插件

  • ComfyUI-VideoHelperSuite
  • ComfyUI-Inference-Core-Nodes

以上插件推荐大家使用manager管理器进行安装

开始实现

为了方便演示和工作流共享, 这里我使用esheep在线ComfyUI

  1. 打开ComfyUI

  2. 创建节点

    主要创建以下三个节点:

    • LoadVideo节点 : 用于加载并读取需要解析的视频
    • OpenPose Pose节点 : 用于提取视频中的动作并生成对应的openpose
    • Save Image节点 : 保存openpose

    完整的工作流如下:

    image-20240525170851254

  3. 可在历史记录中找到生成的openpose图片

    image-20240525170930895

    我们将其下载到本地即可

工作流分享

大家如果想下载或体验该工作流 可以下方链接进入

image-20240525171258824

点击进入

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

12…8

动漫作坊

74 日志
29 标签
RSS
© 2024 动漫作坊
本站总访问量次
由 Hexo 强力驱动
|
主题 — NexT.Muse v5.1.4
0%