🤖 AI总结
主题
ComfyUI v0.15.1稳定版发布,带来多项性能优化与功能更新。
摘要
ComfyUI发布v0.15.1稳定版,重点修复错误、增强模型支持并优化性能,提升了AI视觉生成任务的效率与稳定性。
关键信息
- 1 修复了节点处理中的KeyError等稳定性问题。
- 2 新增了对FlowRVS视频分割模型和Gemini 3.1 Flash图像模型的支持。
- 3 优化了动态显存管理和注意力控制机制。
![]()
![]()
![]()
2026年2月28日,ComfyUI 正式推出了v0.15.1 最新稳定版本,这是一次深度更新与性能优化的版本,被官方标记为“immutable release”,意味着除了发布标题和说明外,其内容将保持稳定,不再进行结构性更改。此次版本带来了多项修复、优化以及模型扩展支持,涉及低显存模式、模型推理稳定性、前端接口改进以及多模态生成能力的拓展。
以下是对于本次更新的系统性解析,全面涵盖代码改动、文件更新及新增特性。
一、版本信息与发布背景
•版本号:v0.15.1
•发布日期:2026年2月29日
•特性类型:Immutablerelease(仅标题和注释可修改)
•影响范围:核心代码框架、API节点、模型加载模块、前端、脚本执行体系
此次更新共涉及17 次提交(commits)、28 个文件修改、632 行新增代码、65 行删除。主要涉及核心文件main.py、comfy/model_base.py、comfy/ops.py、comfy_api_nodes/nodes_gemini.py等关键模块。
二、更新概览:What’s Changed
本次 v0.15.1 的关键更新包括如下几个方面:
1.修复 prompt entries 缺少 class_type 键导致的 KeyError
2.Comfy Aimdo 模块升级至 0.2.2 版本,全面接入动态显存控制优化。
3.禁用 torch 编译器下的 dynamic_vram 功能,增强兼容性。
4.修复 Aimdo fallback 机制在 probe 阶段的 zero-copy sft 使用问题。
5.前端版本正式升级至 1.39.19(从 1.39.16),优化 API 节点的进度文本序列化能力。
6.修复 LTXAV 模型 text encoding 最小长度与内存估算相关问题。
7.新增 WanVideo 流式分割模型 FlowRVS 支持,实现视频级流动分割能力。
8.新增 Self-Attention 每指引强度控制能力,强化模型注意力机制灵活性。
9.GLSL 节点优化:引入 PyOpenGL 加速 Numpy 纹理管理,提升渲染性能。
10.新增 API 节点 NanoBanana2,支持 Gemini 3.1 Flash Image 模型自动生成。
11.更新工作流模板至 0.9.4,全面同步生态工作流规范。
三、核心代码改进详解 1.Prompt Node修复与兼容增强
在app/node_replace_manager.py中新增了容错逻辑:
if "class_type" not in node_struct or "inputs" not in node_struct:
continue
此修改解决了当 prompt 条目缺失class_type键时触发关键错误(KeyError)的 bug,使得节点替换逻辑更加稳健。
2.条件比较函数升级 – comfy/conds.py
新增is_equal(x, y)函数用于深层递归比较字典、张量与序列结构,提高条件合并与判断的稳定性。
该函数支持 tensor、dict、list、tuple 全类型比对,避免传统直接比较引发异常。
在CONDRegular类中,原有的直接比较:
if self.cond != other.cond:
现已升级为:
if not is_equal(self.cond, other.cond):
这使得复杂条件在合并过程中可正常识别,从而改善生成稳定性。
3.Light Tricks 模块全面增强位于comfy/ldm/lightricks/av_model.pymodel.py
新增参数self_attention_mask,为多模态自注意机制引入独立控制层。
这意味着模型的内部注意力不再固定,而可通过 mask 动态调节噪声到引导信号之间的注意强度,实现更加精细的多模态融合。
新增_build_guide_self_attention_mask()方法,允许模型根据每个引导参考自定义注意力衰减。
该函数基于每个guide_attention_entries构建遮罩矩阵,对噪声↔引导 token 的注意力进行定量调整。
在计算过程中,遵循以下逻辑:
•strength < 1.0时,进行关注度衰减。
• 支持通过 pixel_mask 生成自适应遮罩。
• 构建 log-space 加法偏置,用于 Transformer 的注意力层。
此功能的意义在于:模型对于多个引导输入(如视频帧、图像提示)可形成独立的注意力权重分布,从而提升多参考控制下的生成一致性。
4.模型检测与元数据兼容扩展
文件:comfy/model_detection.py
新增自动提取 metadata 配置中 transformer 字段的能力,使保存的模型可加载自定义的 transformer 优化参数。
5.模型克隆机制扩展
文件:comfy/model_patcher.py
新增参数disable_dynamic=False,可在 clone 时禁用动态显存机制,实现与torch.compile一致的模型静态化操作。
并通过缓存cached_patcher_init保留模型加载初始化信息,为后续冷启动提供支持。
6.动态 VRAM 管理逻辑优化
文件:comfy/ops.py
原有的enables_dynamic_vram()调用被替换为comfy.memory_management.aimdo_enabled逻辑。
这意味着系统不再依赖命令行参数,而通过内部内存管理器自动判断 AIMDO 动态显存支持状态,极大简化配置复杂度。
7.新模型流派支持:WAN21_FlowRVS 与 IMG_TO_IMG_FLOW
文件:comfy/model_base.py与comfy/model_sampling.py
新增模型类型枚举值IMG_TO_IMG_FLOW (11)。
并定义对应的模型类WAN21_FlowRVS:
class WAN21_FlowRVS(WAN21):
def __init__(self, model_config, model_type=ModelType.IMG_TO_IMG_FLOW, image_to_video=False, device=None):
model_config.unet_config["model_type"] = "t2v"
该模型继承 WAN2.1 架构,支持图像到视频流变变换(Flow-based Realistic Video Segmentation)。
在采样类型中新增:
class IMG_TO_IMG_FLOW(CONST):
def calculate_denoised(self, sigma, model_output, model_input):
return model_output
为 ComfyUI 框架增加了新的视频分割式生成管线支持。
8.Gemini 系列 API 全面扩展
文件:comfy_api_nodes/nodes_gemini.py
新增 Gemini NanoBanana2 节点——支持 Google Vertex AI 的 Gemini 3.1 Flash Image 模型调用。
此节点可生成高分辨率图像(1K~4K),支持thinking_level控制,可在 MINIMAL 与 HIGH 两种思维层次间切换。
新增价格徽章逻辑GEMINI_IMAGE_2_PRICE_BADGE,用于 API 自动计算使用费用。
所有配置类均升级,例如:
class GeminiThinkingConfig(BaseModel):
includeThoughts: bool | None = Field(None)
thinkingLevel: str = Field(...)
这使生成请求可通过thinkingLevel影响模型推理策略,从而在简洁与复杂思维之间平衡图像质量与成本。
9.GLSL 节点与纹理加速修复
文件:comfy_extras/nodes_glsl.py
修复纹理删除逻辑,确保在启用 PyOpenGL 加速后,类型强制转换为int避免 numpy 类型错误:
gl.glDeleteTextures(int(tex))
提高系统渲染稳定性。
10.前端与依赖更新
文件:requirements.txt
关键依赖升级:
• comfyui-frontend-package →1.39.19
• comfyui-workflow-templates →0.9.4
• comfy-aimdo →0.2.2
增强前端 API 节点的进度文本序列化,和 workflow 模板的自动化管理能力。
11.脚本执行主入口调整
文件:main.py
在主执行体之前新增 AIMDO 初始化逻辑:
import comfy_aimdo.control
if enables_dynamic_vram():
comfy_aimdo.control.init()
确保系统在导入 Torch 模块前完成显存动态优化启动,防止显存管理冲突。
12.版本号统一与构建文件更新
•comfyui_version.py更新为 0.15.1
•pyproject.toml同步为 0.15.1
版本标识与依赖一致,确保构建系统与安装文件保持同步。
四、总体评估与技术意义
本次更新可被视为 ComfyUI 框架的一次底层稳定性强化版本。
显著改进如下:
1.增强错误容忍度:节点处理更稳健,避免低级键缺失导致进程中断。
2.模型泛化扩展:FlowRVS、NanoBanana2、Gemini 3.1 Flash 等新模型支持。
3.动态显存机制优化:显存控制由命令行切换至自动检测机制。
4.注意力控制升级:引入 per-guide attention mask,优化多参考图像特征融合。
5.前端和API协同更新:前端升级与API节点同步,交互更加实时、准确。
这使得 ComfyUI 在处理高维度视觉生成任务时,更加高效、稳定且具备较强的扩展性。
五、结语
ComfyUI v0.15.1 的发布,是一次非常重要的稳定性版本更新。它在保持架构完整性的同时,进一步增强了AI生成体系的连续性与智能性。
尤其是针对多模态融合和视频流式模型的支持,使得其在视频生成、图像修复和AI艺术设计领域再进一步。
对于开发者与AI内容创作者而言,建议尽快将环境升级至v0.15.1,以充分体验其改进后的运行效率与生成质量。
版本总结表:
项目模块
更新内容
优势说明
comfy_aimdo
升级至 0.2.2
动态显存优化
comfy/model_base
新增 FlowRVS 模型支持
视频生成更自然
comfy_api_nodes/gemini
NanoBanana2 节点
支持 Gemini 3.1 图像模型
comfy/ops.py
内部显存检测改进
稳定性提升
comfy_extras/nodes_lt.py
Guide attention 功能
多参考融合
comfyui_version.py
版本同步更新
构建一致性
前端工作流模板
升级至 v0.9.4
工作流可扩展性提升
我们相信人工智能为普通人提供了一种“增强工具”,并致力于分享全方位的AI知识。在这里,您可以找到最新的AI科普文章、工具评测、提升效率的秘籍以及行业洞察。 欢迎关注“福大大架构师每日一题”,发消息可获得面试资料,让AI助力您的未来发展。