【AI作画】第2章comfy ui的一般输入节点,文本框的类型和输入形式

【AI作画】第2章comfy ui的一般输入节点,文本框的类型和输入形式

目录

CLIP文本编码器

条件输出和文本输出

转换某一变量为输入

展示作品集


在默认的工作流之外,我们如何自己添加节点呢?

一般我们用到的sampler采样器在“鼠标右键——添加节点——采样——K采样器” 

我们用的clip文本编码器在“鼠标右键——添加节点——条件——CLIP文本编码器”

一般我们使用的是默认的CLIP文本编码器

CLIP文本编码器

在comfy ui里面,文本输入有很多不同的类型。我们在默认的文本编码器里只能输入英文。如果我们想输入中文,就要打开翻译器,有条件和文本两种类型。

条件输入在“鼠标右键——添加节点——Alek节点——条件——CLIP文本编码器(翻译)”

文本输入在“鼠标右键——添加节点——Alek节点——文本——翻译文本(翻译)”

那么两者有什么不同呢?我们反别来看一下。

我们分别添加CLIP文本编码器(Argos翻译),Clip文本编码器(翻译高级),翻译文本(Argos翻译),翻译文本(高级)。

可以看到每一个翻译都有从什么语言翻译到什么语言的选项,这里我们要把第一项RUSSIAN俄文改成chinese中文。

改后

默认

高级

默认的翻译就是用谷歌翻译,而高级翻译可以选择不同的翻译引擎,可以选择代理。这里我们用默认翻译。

条件输出和文本输出

上方的文本编码器是条件输出,而下方的翻译文本是文本输出,两者有什么不同?

 我们看到,CILP文本编码器的条件输出可以直接连接到K采样器的正面条件,成橘色,说明两者匹配。而翻译文本的文本输出则不行,成绿色,说明两者不匹配。

这时因为两者的数据类型不一样。K采样器的正面条件只能接受条件变量,而不能接受文本变量。为了把文本变量转换为条件变量,我们可以进行如下操作。

在文本编码器上点击“鼠标右键——转换为输入——转换文本为输入”

就可以把文本改为输入节点,这样就可以把文本翻译的文本输出连接到编码器的文本输入上。

这样就可以了

我们来生成一下

这样就完成了,中文输入进行转换。

转换某一变量为输入

比如说,我们看到,K采样器上有很多变量,像是随机种子,运行操作步数等,如果我们建立2个采样器,要使它们的变量保持一致,就需要调节2个采样器的变量。如果是3个,5个呢,就显得繁琐。

所以我们可以把某一变量转换为输入,然后进行统一设计

按住ctrl圈选K采样器,VAE解码,保存图像三个组件

按下ctrl+C,在空白处按下ctrl+v,进行复制粘贴,就得到了两组输出节点 

在K采样器点击“鼠标右键——转换为输入——转换随机种为输入”

这样随机种子就变成了输入节点。

我们在空白处点击“鼠标右键——添加节点——实用工具——Primitive元节点”

元节点是一个很实用的节点,它可以识别接到的变量,转换成对应的数据类型。将元节点连接到两个采样器的随机种,这样就可以统一输入了。在元节点改变变量,可以改变两个采样器的随机种子数。

展示作品集

下面是我用comfy ui生成的一些作品


关注作者了解更多

我的其他ZEEKLOG专栏

误差理论与可靠性工程

过程控制系统

虚拟仪器技术labview

毕业设计

求职面试

大学英语

过程控制系统

工程测试技术

虚拟仪器技术

可编程控制器

工业现场总线

数字图像处理

智能控制

传感器技术

嵌入式系统

复变函数与积分变换

单片机原理

线性代数

大学物理

热工与工程流体力学

数字信号处理

光电融合集成电路技术

电路原理

模拟电子技术

高等数学

概率论与数理统计

数据结构

C语言

模式识别原理

自动控制原理

数字电子技术

关注作者了解更多

资料来源于网络,如有侵权请联系编者

Read more

AMD显卡Vulkan后端兼容性问题终极解决方案:llama.cpp本地化部署完全指南

AMD显卡Vulkan后端兼容性问题终极解决方案:llama.cpp本地化部署完全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在AMD显卡上运行llama.cpp时遭遇"Vulkan初始化失败"或推理速度异常缓慢的困扰?本文针对AMD显卡在llama.cpp项目中Vulkan后端的兼容性问题,提供一套从问题诊断到性能优化的完整解决方案。 问题速诊与症状识别 AMD显卡用户在使用llama.cpp的Vulkan后端时,通常会遇到以下典型症状: * 程序启动直接崩溃,错误日志显示"vkCreateInstance failed" * 模型加载进度停滞在0%或卡在"Initializing Vulkan backend"

Unsloth支持哪些模型?Llama、Qwen、Gemma全兼容

Unsloth支持哪些模型?Llama、Qwen、Gemma全兼容 1. 引言:Unsloth在大模型微调中的定位与价值 随着大语言模型(LLM)的广泛应用,如何高效地对模型进行微调成为开发者关注的核心问题。传统微调方法往往面临显存占用高、训练速度慢、部署复杂等挑战。Unsloth作为一款开源的LLM微调和强化学习框架,致力于解决这些问题,其核心目标是“让人工智能尽可能准确且易于获取”。 根据官方文档,Unsloth能够在保持模型性能的同时,实现2倍的训练速度提升,并降低70%的显存消耗。这一优势使其在资源受限环境下尤为突出,适用于从消费级GPU到企业级训练集群的多种场景。 本文将深入解析Unsloth所支持的主流模型体系,涵盖Llama、Qwen、Gemma等热门架构,并结合实际配置与代码示例,帮助开发者快速掌握其应用方式。 2. Unsloth支持的模型类型详解 2.1 支持的主流模型家族 Unsloth的设计具有高度通用性,能够兼容当前主流的大语言模型架构。根据其官方说明及社区实践,以下几类模型已被验证可成功集成: * Meta Llama系列:包括Llam

VSCode + Copilot 保姆级 AI 编程实战教程,免费用 Claude,夯爆了!

VSCode + Copilot 保姆级 AI 编程实战教程,免费用 Claude,夯爆了!

从安装到实战,手把手教你用 VSCode + GitHub Copilot 进行 AI 编程 你好,我是程序员鱼皮。 AI 编程工具现在是真的百花齐放,Cursor、Claude Code、OpenCode、…… 每隔一段时间就冒出来一个新选手。 之前我一直沉迷于 Cursor 和 Claude Code,直到最近做新项目时认真体验了一把 GitHub Copilot, 才发现这玩意儿真夯啊! 先简单介绍一下主角。VSCode 是微软出品的全球最流行的代码编辑器,装机量破亿;GitHub Copilot 则是 GitHub 官方出品的 AI 编程助手插件,直接安装在 VSCode 中使用。 个人体验下来,相比其他 AI 编程工具有 4 大优势: 1. 支持最新 AI 大模型,

3步轻松部署Stable Diffusion:Docker一键安装完整指南

3步轻松部署Stable Diffusion:Docker一键安装完整指南 【免费下载链接】stable-diffusion-webui-dockerEasy Docker setup for Stable Diffusion with user-friendly UI 项目地址: https://gitcode.com/gh_mirrors/st/stable-diffusion-webui-docker 想要体验强大的AI图像生成功能,但被复杂的安装配置吓退?现在通过Stable Diffusion WebUI Docker项目,只需简单几步就能在本地运行专业的Stable Diffusion系统。这个项目使用Docker容器技术,让AI图像生成变得触手可及。 🚀 为什么选择Docker部署Stable Diffusion Docker部署的优势: * ✅ 环境隔离:避免依赖冲突,保持系统干净 * ✅ 一键启动:无需手动安装Python、CUDA等复杂环境 * ✅ 跨平台兼容:支持Windows、macOS、Linux系统 * ✅ 快速更新:轻松升级到最新版本