动漫作坊 – 分享动漫制作

动漫作坊 – 分享动漫制作


  • 首页

  • 归档

  • 搜索

ComfyUI实现对生成的视频进行放大补帧

发表于 2024-05-25

前言

前面给大家介绍了如何在ComfyUI中使用SVD模型生成视频, 详情可参见《ComfyUI使用SVD模型实现图生视频和文生视频》

虽然能够生成视频, 但是视频存在以下几个问题:

  • 视频尺寸太小
  • 视频帧率不够 画面不够流畅

如果我们想将生成的视频发布到短视频平台, 就必须解决上面的问题

那么今天我们来聊聊如何在ComfyUI中实现对视频的放大和补帧

需要安装的插件

  • ComfyUI-VideoHelperSuite
  • ComfyUI_UltimateSDUpscale
  • ComfyUI Essentials
  • ComfyUI Frame Interpolation
  • ComfyUI Impact Pack

以上插件推荐大家使用manager管理器进行安装

工作流下载

视频放大补帧工作流json文件, 两种下载方式, 任君选择:

点击网盘下载 (访问密码: 312306)

点击本地下载

开始使用

这里以现有的6帧视频为例

  1. 启动ComfyUI

    如果不想本地部署的话, 可以使用ComfyUI在线版本

    点击进入在线ComfyUI

    点击进入在线ComfyUI2

  2. 导入工作流 配置相关节点参数

    是否开启放大和补帧功能:

    image-20240525123143055

    指定输出分辨率和帧率:

    image-20240525123224814

  3. 开始生成

  4. 效果如下

其他放大补帧的工具

除了使用ComfyUI之外, 目前有一款专门针对视频放大修复的工具非常火, 名为TopazVideoAI, 该工具支持Mac和Windows版本, 网上有相应的和谐版本, 有兴趣的小伙伴可自行搜索

image-20240525121140901

关于该工具的使用, 可以参考知乎文章《史上最强视频增加工具TopazVideoAI》

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI实现使用中文提示词

发表于 2024-05-24

前言

AI绘图基本上使用的是英文提示词, 无法识别中文, 这对于英文不太好的小伙伴而言是一道阻碍

这个世界, 有需求就会有解决方案

这不 我们只需要使用第三方的插件就能实现在ComfyUI中使用中文提示词来绘图

其原理 其实就是内部翻译😂

需要安装的插件

  • comfyui-mixlab-nodes

    image-20240524122754858

  • Efficiency Nodes for ComfyUI

    image-20240524122915847

需要下载的模型

需要一个基础大模型,和一个优化模型以及一个VAE模型, 具体可自行选择下载

这里大模型我使用的是Juggernaut_RunDiffusionPhoto2_Lightning_4Steps模型, VAE模型使用的是vae-ft-mse-840000-ema-pruned模型

  • Juggernaut_RunDiffusionPhoto2_Lightning_4Steps模型 : 该模型放置到ComfyUI/models/inpaint目录下
  • vae-ft-mse-840000-ema-pruned : 该模型放置到ComfyUI/models/vae目录下

开始实现

这里以简单的文生图为例

  1. 启动ComfyUI

  2. 创建节点

    主要用到五个核心节点

    • Text Input节点 : 在该节点中填入中文提示词
    • Deep Translator节点 : 将中文提示词翻译成英文
    • Loader SDXL节点 :
    • Ksampler SDXL节点 :
    • Save Image节点 : 用于保存生成的图片

    完整的工作流如下:

    image-20240524123539558

  3. 效果如下

    image-20240524124526402

    可能是我的翻译出了问题, 结果有点差强人意, 大家可以自行尝试一下

其它实现方式

除了使用插件实现之外, 我们还可以使用腾讯出品的混元DIT中文理解模型

image-20240526195104119

image-20240526195153156

点击进入官网

点击进入混元GitHub

我们可以在ComfyUI平台上使用混元模型, 具体的用法可参见GitHub整合包

点击进入ComfyUI_ExtraModels

混元DIT模型和工作流下载:

image-20240526195807901

点击进入夸克下载

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

一些免费的AI模型下载网站汇总

发表于 2024-05-24

Civitai镜像站

Civitai官网需要大爬梯才能访问, 对于国内用户来说, 没有魔法就无法下载

好在有热心的大佬搭建了一个国内的镜像站

img

Civitai中国镜像 :点击进入

cvai

img

cvai官方网址链接:点击进入

LiblibAI

img

LiblibAI访问速度快, 无需登录即可下载模型

LiblibAI官方网站链接:点击进入

Hugging Face镜像站

同样的Hugging Face官方网站需要大爬梯才能访问, 镜像站点速度很快, 常用的基础模型基本上可以在这个网站找到, 推荐使用

img

Hugging Face镜像站 : 点击进入

modelscope

modelscope(魔搭社区) ,是阿里达摩院推出的AI模型社区

img

魔搭模型社区官方网址 :点击进入

TusiArt

主要是二次元和偏写实模型

img

吐司TusiArt官方网站链接 : 点击进入

TensorArt

可在线生图,支持Discord社区,有App

img

TensorArt官方网站链接 : 点击进入

CodeWithGPU

CodeWithGPU是一个AI镜像、模型技术社区, 该网站不仅提供一个开箱即用的云端GPU算力, 而且还提供模型的下载

image-20240601121252983

官方网站链接 : 点击进入

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI图像处理之物品擦除

发表于 2024-05-23

前言

前面给大家介绍了如何去去除人物背景, 详情参见《ComfyUI抠图之人物背景移除》

今天给大家聊一聊如何将图片中不需要的物品进行擦除

需要安装的插件和模型

插件:

  • sdxl_prompt_styler

  • Fooocus_Nodes

  • comfyui-inpaint-nodes

    这里推荐使用manage来安装这些插件, 它会自动安装插件所需的依赖包

模型

  • Realistic Vision模型下载 : 放置到ComfyUI/models/checkpoint目录下

  • fooocus_inpaint_head.pth : 放置到ComfyUI/models/inpaint目录下

  • inpaint_v26.fooocus.patch : 放置到ComfyUI/models/inpaint目录下

开始实现

  1. 启动ComfyUI

  2. 导入工作流

    擦除物品工作流json文件, 两种下载方式, 任君选择:

    点击网盘下载 (访问密码: 312306)

    点击本地下载

  3. 上传需要处理的图片

    在Load Image节点中点击Upload按钮上传图片

    然后点击图片鼠标右键选择Open in MaskEditor在蒙版编辑器中打开:

    image-20240523215700074

    接下里用画笔涂抹需要去除的部分,最后点击Save to node保存处理:

    image-20240523213306292

  4. 点击Queue Prompt开始处理工作流

  5. 效果如下

    原图 处理后的图片
    girl-1561989_960_720 6ef214ec0eb1c2a3559361939d1f00db1cddf4425ced1161c868d31b9104ac70

    效果说不上多完美, 但还算能用

    这里需要注意的是, 如果使用其他大模型, 比如DreamShaper模型, 可能会出现物品替换的效果, 像这样子:

    8e838a6f77b1089ac61342f3cbc714a2ab3dcd993d45139a40d810ff139acc46

    所以模型的选择也很关键

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI抠图之人物背景移除

发表于 2024-05-20

前言

从最开时候PS抠图到后来的在线智能抠图 到如今的AI抠图

科技发展 可谓是日新月异

工具的发展看似让人变得更懒, 实则让人变得更卷, 除非社会的发展停滞不前, 否则人类永远有学不完的东西

不禁思考 人类难道真的就是螺丝钉? 或者是迎接未来硅基生命的工蚁?

放长远一看 也许是真的 我们所谓的个人价值实现 其实到头来有可能就是个笑话

不过不管怎样 对于当下而言 饭总得吃 活好现在最重要

好了 回归正题 接下来聊聊如何使用ComfyUI一键去除人物背景

需要安装的插件和模型

插件:

  • comfyui_segment_anything

    这里推荐使用manage来安装插件, 它会自动安装插件所需的依赖包

    image-20240521125914962

    如果是手动下载zip包安装, 如果遇到有requirements.txt文件需要手动执行pip install -r requirements.txt命令进行安装插件依赖

模型

  • bert-base-uncased

    需要下载以下五个文件, 并将它们放置到ComfyUI/models/bert-base-uncased目录下

    1
    2
    3
    4
    5
    config.json
    model.safetensors
    tokenizer_config.json
    tokenizer.json
    vocab.txt

    image-20240521133533172

  • grounding-dino模型 : 放置到ComfyUI/models/grounding-dino目录下

  • sams 模型 : 放置到ComfyUI/models/sams目录下

由于涉及的模型配置文件比较多, 这里推荐使用自动下载的模式, 只需要找到comfyui_segment_anything插件目录下的node.py文件, 将里面的https://huggingface.co替换成https://hf-mirror.com,

image-20240521125402187

然后重启ComfyUI, 当我们点击Queue Prompt按钮时会自动下载缺失的grounding-dino 和sams 模型

工作流下载

两种下载方式, 任君选择:

点击网盘下载 (访问密码: 312306)

点击本地下载

开始实现

  1. 启动ComfyUI, 浏览器输入http://127.0.0.1:8188/

  2. 将工作流json文件拖拽至浏览器面板打开

  3. 检查模型是否选择正确

    这里SAM模型我使用的是2.75G的版本,grounding-dino模型使用的是938M的版本:

    image-20240521134733466

  4. 上传需要去除背景的原始图片

    image-20240521134434368

  5. 点击Queue Prompt开始生成

    image-20240521134527288

  6. 效果如下

    image-20240521134554714

这个工作流对于中规中矩的人物抠图效果还可以 但是如果碰上发丝凌乱的情况 效果可能差一些

image-20240521140410603

相关问题

  1. 如果生成过程中报错If you are running on a CPU-only machine, please use torch.load with map_location=torch.device('cpu') to map your storages to the CPU

    如果你使用Mac平台, 那么大概率会出现这种情况, Mac只能用CPU运算, 而SAMModelLoader节点默认使用GPU进行加载

    这里我们只需要找到comfyui_segment_anything插件目录下build_sam_hq.py文件,并将里面的torch.load(f)改成torch.load(f, map_location="cpu")即可:

    image-20240521132334722

其他实现方式

除了上述所说的segment_anything插件去除背景的方式外 还可以使用python开源库rembg来实现, 当然了ComfyUI可以直接通过插件的方式使用该库, 具体流程如下:

  1. 安装was-node-suite-comfyui插件

  2. 安装rembg依赖库

    1
    pip3 install rembg
  3. 下载U-2-Net模型

    两种下载方式 任君选择

    点击网盘下载

    image-20240521144359685

    点击GitHub下载

    可以只下载u2net.onnx模型, 当然全部下载自然最佳

    将下载的模型放置到ComfyUI/models/Rembg目录下

  4. 启动ComfyUI 创建工作节点

    这里需要创建三个节点, 分别是

    • Load Image: 用于输入需要处理的原始图片
    • Image Rembg : 核心节点 用于处理图片
    • Preview Image : 用于预览处理后的图片

    我们可以双击鼠标左键根据关键字搜索相应节点:

    image-20240521145214399

  5. 点击Queue Prompt开始处理

  6. 效果如下

    image-20240521145520541

使用Rembg去除背景效率很快 但是效果差强人意 也许是我的图片关系 大家可以用不同模型尝试一下

总结

在ComfyUI中去除人物背景的方式有很多种, 和写代码是一个道理, 同一个功能, 可以使用不同的写法来实现

在众多的方法中选一个适合自己的即可

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI实现无损扩图

发表于 2024-05-20

前言

如何将小尺寸的图片进行无损放大

放在以前 这种需求的实现会比较难 如今借助AI轻轻松松实现

接下来给大家介绍如何使用ComfyUI进行无损扩图

需要安装的插件和模型

插件:

  • ComfyUI_UltimateSDUpscale

    这里推荐使用manage来安装插件, 它会自动安装插件所需的依赖包

    image-20240521153545411

模型

  • v1-5-pruned-emaonly : 该模型放置到ComfyUI/models/checkpoint目录下
  • OmniSR_X4_DIV2K : 该模型放置到ComfyUI/models/upscale_models目录下
  • ControlNet inpaint : 该模型放置到ComfyUI/models/controlnet目录下

开始实现

  1. 启动ComfyUI, 浏览器输入http://127.0.0.1:8188/打开工作面板

  2. 创建UltimateSDUpscale节点

    image-20240521154256182

    image-20240521154331815

    通过该节点的输入输出端口能大致判断该节点所需的数据,

  3. 创建相应的输入输出节点:

    • Load Image节点: 用于输入需要处理的原始图片
    • Load Checkpoint节点 : 用于加载并读取大模型
    • Load UpScale Model节点 : 用于加载并读取UpScale模型
    • Preview Image节点 : 用于预览处理后的图片
    • CLIP Text Encode节点 : 用于加载正向/负向提示词

    节点连接如下:

    image-20240521162433632

    但是当我们点击Queue Prompt按钮生成时却报错Required input is missing: tiled_decode:

    image-20240521162525197

    那大概率是我们的节点配置有问题, 于是我前往插件GitHub主页查看使用说明, 发现官方示例中还用到了一个Control Net节点:

    image-20240521181252016

    于是我将该节点补充上后即可正常使用了:

    image-20240521181451469

    这里的ControlNet主要是针对正面条件的处理

  4. Done

工作流下载

两种下载方式, 任君选择:

点击网盘下载 (访问密码: 312306)

点击本地下载

使用Python代码实现

无论是ComfyUI还是内置的插件, 本质上都是一个Python库或程序

除了通过界面节点式操作实现之外, 我们还可以直接通过代码实现

示例代码如下:

1
2
3
4
5
6
7
8
9
10
11
from comfyUI import ComfyUI
from ultimatesDUpscale import setup_ultimateSDUpscale, upscale_image

# 初始化ComfyUI
comfy = ComfyUI()

# 设置UltimateSDUpscale
setup_ultimateSDUpscale(comfy)

# 执行图片放大
upscale_image(comfy, 'input_image.jpg', 'output_image.jpg')

其他插件实现放大

除了使用ComfyUI_UltimateSDUpscale插件之外, 我们还可以使用ComfyUI-SUPIR 或者ComfyUI-TiledDiffusion插件来实现图片的高清修复和放大

ComfyUI-SUPIR实现图片放大具体步骤如下:

  1. 安装ComfyUI-SUPIR插件

    image-20240521173119243

  2. 下载所需模型

    • SUPIR模型 : 点击百度云盘下载
    • sd_xl_base_1.0.safetensors模型

    模型下载后放置在ComfyUI/models/checkpoints目录下

  3. 创建节点

    • Load Image节点: 用于输入需要处理的原始图片
    • SUPIR Upscale 节点 : 用于修复并扩大图片
    • Preview Image节点 : 用于预览处理后的图片

    完整工作流如下:

    image-20240523121419584

  4. 效果如下

    原图 处理过后的图
    241615884488_.pic_hd 68629d7a4b6ec1db09bc6d52c961225c9b097d1127772f7e80665d730e8a5296

    由于原图也还算清晰, 可能效果不是太明显, 不过仔细看的话 多多少少还是有些区别的

ComfyUI-TiledDiffusion插件实现图片放大:

该方法能在较低显存配置下实现图片的无损扩大, 强烈推荐使用

  1. 安装插件

    • ComfyUI-TiledDiffusion插件

      image-20240524100500169

    • ComfyUI WD1.4 Tagger插件

      image-20240524101943125

    • ComfyUI-Custom-Scripts插件

      image-20240524103222372

    • rgthree’s ComfyUI Nodes插件

      该插件主要用到里面的Image Comparer节点, 用于图片前后处理对比

      image-20240524105049295

  2. 下载所需模型

    • 4x-UltraSharp.pth : 放置在ComfyUI/models/upscale_models目录下

    • control_v11f1e_sd15_tile.pth : 放置在ComfyUI/models/controlnet目录下

    • epicrealism pureEvolution v5超写实模型 : 放置在ComfyUI/models/checkpoints目录下

      image-20240524111943177

  1. 导入工作流

    image-20240524100958757

    Tile 放大增加细节工作流json文件, 两种下载方式, 任君选择:

    点击网盘下载 (访问密码: 312306)

    [点击本地下载](https://acg.newban.cn/comfyui/workflow/Tile 放大增加细节.json)

  2. 效果如下

    原图 处理过后的图
    241615884488_.pic_hd image-20240524102710901

    整体效果和原图大差不差, 但是尺寸却足足扩大了一倍:

    image-20240524102653337

    对于TiledDiffusion的扩图, 个人还是相当满意的

文章参考

《ComfyUI 几种放大方法测试》

《ComfyUI_SD图片高清修复的方法》

《基于 ComfyUI 和 SURIR 节点搭建图片放大工作流》

《Stable Diffusion 利器之ControlNet》

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI使用SVD模型实现图生视频和文生视频

发表于 2024-05-20

前言

目前市面上文生视频的产品有很多比如runway、pika、Genmo等等 详情参见之前文章《根据文字生成视频》

另外前面也给大家介绍过如何使用animatediff插件生成视频, 详情参见《ComfyUI实现根据文字生成跳舞视频》

在ComfyUI中 除了使用animatediff插件之外, 还有很多其他的插件也能生成视频, 比如deforum等等

那么本文呢 将给大家介绍如何使用SVD大模型来生成视频

什么是SVD

Stable Video Diffusion简称SVD, 可以理解为Stable Diffusion模型的视频版本

目前该模型分为两个架构:

  • SVD基础版 : 默认生成14帧相同分辨率的视频, 注意是总共14帧图片, 不是14帧/秒
  • SVD-XT : 在SVD基础上微调以生成25帧视频 该模型对显存要求更高

image-20240521214952395

就当下来说, 除了Sora之外,SVD算得上是众多文生视频工具中效果最好的一个

开始上手

  1. 下载SVD模型

    点击进入官方下载页面

    image-20240521215659993

    或者

    点击进入夸克网盘下载

    image-20240521215322425

    下载完后将模型存放在ComfyUI\models\checkpoints目录下

  2. 安装ComfyUI-VideoHelperSuite插件

    这个插件主要用来将生成的图片转成mp4格式的视频文件

    这里推荐大家使用Manager进行下载:

    image-20240522195447255

  3. 创建节点

    每个插件其实就是一个Python库, 每个节点相当于是某个库中的方法函数, 节点只是代码的图形化, 如果你是程序员, 那么这一点应该能明白

    这里我们需要创建七个节点:

    • Load Image节点 : 用于加载图片 以该图片为基础生成视频
    • Image Only Checkpoint Loader节点 : 用于加载并读取SVD模型
    • VideoLinearCFGGuidance 节点 : 用于跨帧缩放 CFG来改进视频采样,距离初始图像帧较远的帧会接收较高的 CFG,高CFG意味着高对比度和高色彩, 通过控制CFG的跨度来控制所生成的视频色彩丰富程度
    • SVD_img2vid_Conditioning节点 : 用于设置视频参数 比如视频帧率、尺寸等等
    • KSampler节点 : 对潜空间图像进行去噪处理
    • VAE Decode节点 : 作用是利用VAE模型将KSampler采样器处理后的潜空间图像进行解码成像素图像
    • Video Combine 节点 : 将生成的内容转成视频格式

    节点连接如下:

    image-20240522221114403

    image-20240523144202021

  4. 效果测试

    原始图片 视频
    girl-1561989_960_720 dfdfd

使用SVD实现文生图

ComfyUI环境下使用SD模型可以根据文字生成图片, 而SVD模型又能根据图片生成视频, 那么两个模型结合起来使用, 就可以实现文生视频的功能

完整的文生视频工作流搭建如下:

image-20240523162729299

文生图这一步我使用的是sd_xl_base_1.0.safetensors模型

生成效果如下:

iShot_2024-05-23_19.45.42

工作流下载

两种下载方式, 任君选择:

点击网盘下载 (访问密码: 312306)

点击本地下载

在线体验

如果你不想本地部署ComfyUI, 仅仅想体验一下SVD模型的效果, 可以使用SVD在线版本, 目前在线网站也有不少:

  • FALAI : 点击进入

    image-20240525092552145

  • Replicate : 点击进入

    image-20240525092827681

  • Huggingface : 点击进入

  • Stablevideo : 点击进入

    img

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

ComfyUI实现根据文字生成跳舞视频

发表于 2024-05-19

前言

目前使用AI生成视频的方式有很多中, 详情可参见之前文章《根据文字生成视频》

今天给大家介绍如何使用ComfyUI生成视频, 关于ComfyUI工具的安装和使用可参见《基于StableDiffusion的AI绘图应用ComfyUI》和《Mac平台部署AI绘图应用ComfyUI》 这里就不赘述了

需要下载的插件和模型

插件:

  • comfyui-art-venture

  • comfyui-animatediff

  • ComfyUI-AnimateDiff-Evolved

  • ComfyUI-VideoHelperSuite

  • ComfyUI-Advanced-ControlNet

  • Fooocus_Nodes

模型:

  • mm_sd_v15_v2 : 该模型下载后放置到ComfyUI/models/animatediff_models目录下, 如果animatediff_models目录不存在则手动创建

  • v1-5-pruned-emaonly : 该模型放置到ComfyUI/models/checkpoint目录下

  • vae-ft-mse-840000-ema-pruned : 该模型放置到ComfyUI/models/vae目录下

  • lcm-lora-sdv1-5 :这个模型下载后需要将文件名改为lcm-lora-sdv1-5.safetensors 然后放置到ComfyUI/models/loras目录下

工作流和素材下载

image-20240520211557942

image-20240520211636318

点击下载

开始生成视频

  1. 启动ComfyUI, 浏览器输入http://127.0.0.1:8188/

  2. 将工作流json文件拖拽至浏览器面板打开

  3. 修改模型路径

    当我们使用别人的工作流文件时, 模型加载路径不会动态修正为我们的模型路径, 这里需要我们手动修改:

    image-20240520215805578

    image-20240520215859977

  4. 加载动画参考素材

    image-20240520211503227

  5. 开始生成

    点击Queue Prompt生成视频

    image-20240520211437288

  6. 效果如下

    iShot_2024-05-25_11.07.41

注意事项

本地生成视频对电脑配置要求比较高 吃内存厉害 如果配置不够 建议使用在线ComfyUI

点击进入在线ComfyUI

点击进入在线ComfyUI2

点击进入在线ComfyUI3

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

一些免费的音乐下载网站汇总

发表于 2024-05-15

MyFreeMp3

点击进入

一个页面超干净的免费音乐网站,提供的音乐资源不仅丰富,而且还支持免费下载MP3格式的歌曲,还可以当做一个在线听歌网站,一些最新发布的音乐也能在这里找到。

打开页面可以看到各种推荐的艺人、单曲推荐,最新上传等分类,喜欢的音乐可以直接点击播放,也可以点击右侧的三个点就会出现免费下载按钮,还能单独下载封面一个歌词。

img

音乐客

点击进入

一个打开就能看到很多歌曲的音乐网站,这里的所有音乐都没有进行分类,打开就可以看到歌曲、歌手、专辑等内容,可以直接在页面预览查找自己喜欢的歌曲。

找到喜欢的歌曲后点击播放的同时还会看到下载按钮,支持免费下载MP3格式的音乐。

img

音乐下载器

点击进入

一个非常强大的音乐搜索网站,支持免费搜索各大平台的音乐文件,并且搜索到的音乐还支持在线播放和免费下载,无需登录打开就能开启搜索。

img

搜索方式也很简单,可以通过输入歌名、歌手、音乐ID、音乐地址的方式,搜索歌曲的文件,搜索到音乐后支持在线播放以及免费下载。

img

无损音乐吧

点击进入

一个页面风格比较复古的音乐网站,提供了大量的免费老歌,可以找到很多经典的粤语曲目,它将所有的歌曲都按照专辑的方式展示在页面,并且还提供了专辑封面,非常有年代感。

找到自己喜欢专辑,点击就可以看到整首专辑里的所有歌曲,里面的歌曲全部都支持免费播放。

img

听音乐

点击进入

一个非常强大的音乐搜索网站,它支持输入歌名、歌手查找想听的音乐,比如搜索歌手名字,你可以找到所有演唱的歌曲,页面非常干净,打开就能看到很多歌曲以及搜索框。

下载音乐也比较简单,单击播放音乐,然后点击右下角的三个点就可以免费下载MP3歌曲。

biu-二次元音乐

点击进入

一个专门提供免费的动漫音乐网站,可以在这里找到很多日漫歌曲、国内动漫歌曲,它还对不同动漫影视插曲进行了整理分类,还支持强大的歌名搜索,输入歌名或出处就能快速找到。

img

页面上的每首歌曲都支持免费播放以及直接点击下载,一共收录了超4首动漫歌曲,每周都会不定时更新歌曲。

img

下面再来分享一个简单好用的音频格式转换工具-视频转换器,支持免费转换下载的各种音频文件,包括:M4A转MP3、FLAC转MP3、MP3转WAV等。

转换方法也简单,打开软件后直接点击音频转换,软件支持批量转换,然后点击左下角选择输出格式,选择完成后点击开始转换,最后点击开始转换就好了,简单两步就可以更改音频格式了,而且音频质量也不会有所改变。

Free Music Archive

点击进入

Free Music Archive是一个知名的免费音乐库,由音乐爱好者和独立音乐家共同维护。它提供了丰富的音乐资源,用户可以根据自己的喜好和需要下载各种类型的音乐,包括无损格式的音乐文件。

音乐种类丰富:FMA收录了来自世界各地的各种风格的音乐,涵盖了从古典到现代流行、电子、摇滚、爵士等各种类型。

高品质音乐:除了提供常规的MP3格式外,FMA还提供高质量的音频文件,如无损FLAC格式,满足音质要求较高的用户的需求。

艺术家和专辑信息:每首音乐都附有详细的艺术家和专辑信息,方便用户了解音乐背景和艺术家信息。

img

音乐网站支持按时长搜索歌曲。

img

cctrax

点击进入

CCTrax是一个适合寻找和下载欧美风格无损音乐的网站,它的便利性和基于CC授权的特点使得音乐爱好者可以轻松享受到高质量的音乐体验。

多样性:无论你偏向何种风格,各种古典和流行音乐等,cctrax都提供了丰富的选择。

无需注册:用户无需注册账户即可直接下载音频,操作简单方便。

界面简洁:网站设计简洁,以暗黑色调为主,突出音乐内容,便于用户浏览和使用。

专辑为单位:与其他音乐下载网站不同,CCTrax以音乐专辑为单位展示音乐作品,便于我们下载整个专辑的歌曲

歌曲支持在线试听,满意的话再下载。

遇到喜欢的音乐,下载后想要转换格式或是提取音频,不用担心找不到工具,这里给大家推荐一款特色音频提取转换工具——迅捷视频转换器。

通过【添加文件夹】,可以一键批量提取音频,你追求的极致高品质这里都有,格式如mp3、ogg等按需设置好,点击全部提取等待提取完成即可。

CD包音乐网

点击进入

CD包音乐网是一个提供无损音乐下载的音乐论坛。它聚集了许多音乐爱好者,用户可以在这里找到各种格式的无损音乐。

丰富的曲库:网站拥有丰富的音乐资源,用户可以根据自己的喜好选择不同类型和风格的音乐进行下载。

高音质体验:提供了高质量的无损音乐文件,满足对音质有较高追求的用户的需求。

社区互动:作为一个论坛,用户之间可以交流音乐心得,分享下载经验,趣味性和互动性十足。

瀑布流似的展现方式,直观又简洁。

本文转载自 : 知乎

ACG作坊– 分享动漫制作的博客站

Krita常用功能的实现

发表于 2024-05-13

前言

以下的一些常用功能的实现 对于老手而言 可能过于简单 但是对于刚上手的小伙伴 尤其是以前没怎么摸过绘图软件的新手来说 能起到一定帮助作用

图层缩放

有时候我们使用变换工具对导入的外部图片进行缩放时会出现无法缩放的情况

软件会提示我们改用变形模板

image-20240513214016964

此时 我们只需要在右侧图层面板选中该图片的图层 然后右键新建-->变形模板

image-20240513214149131

这时 我们再点击图片就会出现变形锚点:

image-20240513214444141

拖动锚点即可对图片进行缩放操作 如果我们要进行等比缩放 只需按住shift即可

在图片上进行绘制

如果我们要在图片上层进行图案的绘制 不能直接在图片的图层上进行涂抹 需要新建一个颜料图层

image-20240513215047956

然后选中一个画笔就可以进行相应的涂抹绘画了

image-20240513215442744

擦除绘图

如果我们想要擦除已经绘制的图案 那么需要选择橡皮工具

image-20240513215614790

点击不透明度拉条旁边的倒三角按钮可以设置橡皮擦的大小

image-20240513220408410

image-20240513220827148

调整图案不透明度

为了使绘制的文字与背景画面更加融合 有时我们需要调整文字的不透明度来实现

这个不透明度的调整拉条位于图层面板的上方:

image-20240513221000766

选择文字所在的图片 然后拉动滑条进行调整图层的不透明度:

image-20240513221108182

给图片添加文字

选中文本工具(T), 然后在图片上按住鼠标左键拖拽创建一个文本框, 会自动创建一个矢量图层:

iShot_2024-05-20_17.11.48

说实话 在Krita里面文字编辑不是那么的方便

本文为作者原创 转载时请注明出处 谢谢

ACG作坊– 分享动漫制作的博客站

123…8

动漫作坊

74 日志
29 标签
RSS
© 2024 动漫作坊
本站总访问量次
由 Hexo 强力驱动
|
主题 — NexT.Muse v5.1.4
0%