简单起见,又或者是没有N卡或者显卡的配置比较低,可以使用腾讯云HAI直接搭建ComfyUI服务。

入门使用

可以先clear掉当前的workflow,之后右键新建模块。

首先需要新建一个采样器(KSampler),采样器的配置如下:

参数 说明
seed 0 随机种子,控制生成结果的随机性。相同种子会产生相同结果
control_after_generate randomize 生成后种子控制方式:randomize(随机化)、increment(递增)、decrement(递减)、fixed(固定)
steps 20 采样步数,通常15-30步较为合适。步数越多质量越好但耗时更长
cfg 8.000 CFG引导强度,控制AI对提示词的遵循程度。范围1-20,推荐7-12
sampler_name euler 采样算法:euler、euler_a、dpm_2、dpm_2_ancestral、lms、ddim等
scheduler normal 调度器类型:normal、karras、exponential、sgm_uniform等
denoise 1.000 去噪强度,1.0为完全去噪,0.0为不去噪。图生图时可调节此值

采样器的model可以选择Load Checkpoint。
positive是正向提示词,negative是反向提示词,都可以选择CLIPTextEncode。为了方便区分,可以给prompt修改一个有意义的标题。
latent_image可以设置图片的选项,例如EmptyLatentImage。
LATENT可以选择VAE Decode模块,然后可以添加一个图片预览模块。

多图合并,使用同一个背景

输出大小设置为图片背景总大小。
图片正向prompt输出拖拽,然后添加Conditioning(Set Area)节点,在其中设置图片的大小和图片在背景画布中的位置。
使用ConditioningCombine节点,合并多个Conditioning节点,之后把合并节点的输出连接到KSample。
但是,如果是单纯两个prompt直接连到采样器,两张图片会很割裂。解决办法是再新建一个prompt,之后把两张图片的输出和这个prompt使用一个combine进行合并,之后合并结果再输出到采样器。

模型

CheckPoints(检查点模型)是Stable Diffusion的核心基础模型,包含了完整的图像生成能力。它是一个预训练的神经网络模型,决定了生成图像的整体风格、质量和特征。

常用CheckPoints模型类型:

模型类型 特点 适用场景 推荐模型
SD 1.5系列 经典基础模型,兼容性好 入门学习,插件丰富 v1-5-pruned-emaonly.ckpt
SDXL系列 更高分辨率,质量更好 高质量出图 sd_xl_base_1.0.safetensors
写实人像 专注真实人物生成 人像摄影、写实风格 realisticVisionV60B1_v51VAE.safetensors
动漫二次元 卡通动漫风格 动漫插画、角色设计 anything-v5-PrtRE.safetensors
艺术绘画 艺术风格强烈 创意艺术、概念设计 dreamshaper_8.safetensors
建筑风景 专注场景和建筑 建筑设计、风景画 architectureExterior_v40.safetensors

模型文件格式:.ckpt:早期格式,文件较大;.safetensors:更安全的格式,加载速度快,推荐使用;.pt:PyTorch原生格式

使用LoRA模型:在主模型的MODEL节点拖拽,可以新增LoRA节点,之后把LoRA的模型替代主模型连接到采样器上面。同样的,主模型的CLIP需要连接到LoRA上面,之后把正向prompt连接到LoRA就可以了(反向prompt还是连接在CheckPoint的CLIP上面)。

参考

一口气学ComfyUI系列教程