Wan-AI/Wan2.2-Animate-14B

Wan-AI/Wan2.2-Animate-14B

Wan-AI/Wan2.2-Animate-14B

modelscope download --model 'Wan-AI/Wan2.2-Animate-14B' --local_dir './Wan2.2-Animate-14B'

Wan2.2 Anmate ComfyUI 原生工作流(无自定义节点)

  • 拷贝到目录 ComfyUI/user/default/workflows

video_wan2_2_14B_animate

https://raw.githubusercontent.com/Comfy-Org/workflow_templates/refs/heads/main/templates/video_wan2_2_14B_animate.json 
https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/clip_vision/clip_vision_h.safetensors 
Comfy-Org/Wan_2.1_ComfyUI_repackaged 
modelscope download --model 'Comfy-Org/Wan_2.1_ComfyUI_repackaged' --local_dir './Wan_2.1_ComfyUI_repackaged'
modelscope download --model 'Comfy-Org/Wan_2.1_ComfyUI_repackaged' --local_dir './Wan_2.1_ComfyUI_repackaged/split_files/clip_vision' --include 'split_files/clip_vision/clip_vision_h.safetensors'
[Tutorial](https://docs.comfy.org/tutorials/video/wan/wan2-2-animate )## Model links **diffusion_models** - [Wan2_2-Animate-14B_fp8_e4m3fn_scaled_KJ.safetensors](https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled/resolve/main/Wan22Animate/Wan2_2-Animate-14B_fp8_e4m3fn_scaled_KJ.safetensors) - [wan2.2_animate_14B_bf16.safetensors](https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/resolve/main/split_files/diffusion_models/wan2.2_animate_14B_bf16.safetensors) **loras** - [lightx2v_I2V_14B_480p_cfg_step_distill_rank64_bf16.safetensors](https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/Lightx2v/lightx2v_I2V_14B_480p_cfg_step_distill_rank64_bf16.safetensors) - [WanAnimate_relight_lora_fp16.safetensors](https://huggingface.co/Kijai/WanVideo_comfy/resolve/main/LoRAs/Wan22_relight/WanAnimate_relight_lora_fp16.safetensors) **clip_visions** - [clip_vision_h.safetensors](https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/clip_vision/clip_vision_h.safetensors) **vae** - [wan_2.1_vae.safetensors](https://huggingface.co/Comfy-Org/Wan_2.2_ComfyUI_Repackaged/resolve/main/split_files/vae/wan_2.1_vae.safetensors) **text_encoders** - [umt5_xxl_fp8_e4m3fn_scaled.safetensors](https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/resolve/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors) ComfyUI/ ├───📂 models/ │ ├───📂 diffusion_models/ │ │ ├─── Wan2_2-Animate-14B_fp8_e4m3fn_scaled_KJ.safetensors │ │ └─── wan2.2_animate_14B_bf16.safetensors │ ├───📂 loras/ │ │ ├─── lightx2v_I2V_14B_480p_cfg_step_distill_rank64_bf16.safetensors │ │ └─── WanAnimate_relight_lora_fp16.safetensors │ ├───📂 text_encoders/ │ │ └─── umt5_xxl_fp8_e4m3fn_scaled.safetensors │ ├───📂 clip_visions/ │ │ └─── clip_vision_h.safetensors │ └───📂 vae/ │ └── wan_2.1_vae.safetensors 
video_wan2_2_14B_animate_reference_image.png video_wan2_2_14B_animate_original_video.mp4 
https://docs.comfy.org/tutorials/video/wan/wan2-2-animate#wan2-2-anmate-comfyui-native-workflow-without-custom-nodes

上传图片和视频

https://raw.githubusercontent.com/Comfy-Org/example_workflows/refs/heads/main/video/wan/wan2.2_animate/ref_image.png 
在这里插入图片描述
modelscope download --model zhangjin/DWPose yolox_l.onnx --local_dir './DWPose'
modelscope download --model svjack/DWPose-TorchScript-BatchSize5 dw-ll_ucoco_384_bs5.torchscript.pt --local_dir './DWPose'

保存到路径

# ls -lh ComfyUI/models/annotator/yzd-v/DWPose total 207M -rw-r--r-- 1 root root 207M Nov 220:25 yolox_l.onnx 
# ls -lh ComfyUI/models/annotator/hr16/DWPose-TorchScript-BatchSize5 total 129M -rw-r--r-- 1 root root 129M Nov 220:25 dw-ll_ucoco_384_bs5.torchscript.pt 
在这里插入图片描述

Read more

ComfyUI-Manager实战指南:4个核心价值解决AI绘画插件管理痛点

ComfyUI-Manager实战指南:4个核心价值解决AI绘画插件管理痛点 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager 在AI绘画创作中,插件管理的效率直接决定工作流质量。ComfyUI效率提升的关键在于能否快速构建稳定的插件生态,而ComfyUI-Manager正是为此打造的专业工具。本文将通过场景化解决方案,帮助你彻底摆脱插件安装繁琐、版本冲突频发、环境配置耗时的困境,让AI绘画创作更加流畅高效。 🔍 当插件冲突导致工作流崩溃时,你需要怎样的解决方案? 插件生态就像一幅复杂的拼图,每个插件都是不可或缺的拼块。但当拼块之间无法兼容时,整个创作流程就会陷入停滞。传统解决方式往往需要手动排查冲突源、卸载重装插件,整个过程平均耗时3小时,且成功率不足50%。 核心价值:智能兼容性守护 ComfyUI-Manager的安全验证模块会在插件安装前进行全面扫描,自动识别潜在的"插件打架问题"。该模块通过分析插件依赖关系和版本兼容性,提前规避90%以上的冲突风险。当

Llama-3.2-3B入门指南:Ollama部署与使用全解析

Llama-3.2-3B入门指南:Ollama部署与使用全解析 本文面向初学者,手把手教你如何快速部署和使用Llama-3.2-3B模型,无需复杂技术背景,10分钟即可上手体验AI对话的魅力。 1. 认识Llama-3.2-3B:你的智能文本助手 Llama-3.2-3B是Meta公司开发的一款轻量级但能力强大的语言模型。虽然只有30亿参数,但在多语言对话、文本生成和问答任务上表现优异,特别适合个人使用和小型项目。 这个模型能帮你做什么? * 智能对话:像朋友一样聊天,解答各种问题 * 内容创作:帮你写文章、邮件、文案等 * 知识问答:提供专业领域的知识和建议 * 文本摘要:快速提炼长篇文章的核心内容 最棒的是,这个模型完全开源免费,你可以在自己的电脑上部署使用,不需要联网也能享受AI服务。 2. 环境准备:快速搭建运行环境 2.1 选择适合的部署方式 根据你的设备情况,选择以下两种方式之一: 方式一:使用ZEEKLOG星图镜像(最简单) 如果你已经在ZEEKLOG星图平台,直接选择Llama-3.2-3B镜像即可一键部署,无需额外配置。 方式二:

Face Fusion能否集成Stable Diffusion?创意组合玩法

Face Fusion能否集成Stable Diffusion?创意组合玩法深度解析 1. 引言:当人脸融合遇上AI绘画 你有没有想过,如果能把一张照片里的人脸,完美地“移植”到另一张由AI生成的奇幻场景里,会是什么效果?比如,把自己的脸放到一幅赛博朋克风格的未来城市画作中,或者让历史人物“穿越”到现代艺术里。 这正是我们今天要探讨的核心问题:Face Fusion(人脸融合)技术,能否与Stable Diffusion这样的AI绘画模型结合,创造出前所未有的创意玩法? Face Fusion,简单来说,就是能把一张图片(源图像)里的人脸特征,智能地融合到另一张图片(目标图像)上。而Stable Diffusion,则是目前最强大的文生图AI模型之一,能根据文字描述生成各种风格的图像。这两者看似独立,但如果能结合起来,就能打开一扇通往无限创意的大门。 本文将带你深入探索这种技术组合的可能性。我们将从Face Fusion的基本原理讲起,分析它与Stable Diffusion集成的技术路径,并分享一些极具想象力的创意玩法。无论你是AI技术爱好者、内容创作者,

从敏捷到生成式:AIGC如何改变软件测试的全流程

从敏捷到生成式:AIGC如何改变软件测试的全流程

过去二十年,软件测试经历了两次重要范式变迁。 第一次是 瀑布式测试 → 敏捷测试。 第二次是 人工驱动测试 → 自动化测试。 而今天,随着生成式人工智能(AIGC)的兴起,软件测试正在经历第三次重大转型: 从“敏捷测试”走向“生成式测试(Generative Testing)”。 这种变化不仅仅是工具升级,而是测试方法论、测试流程和测试角色的全面重构。 本文将从工程实践的角度,系统分析 AIGC 如何重塑软件测试全流程,并给出可以落地的技术路径。 一、软件测试范式的三次演进 软件测试的发展基本可以分为三个阶段。 阶段核心特点主要问题瀑布测试测试在开发后期进行反馈周期长敏捷测试测试融入开发迭代人工成本高生成式测试AI参与测试设计与执行方法论正在形成 敏捷测试思想来自 Agile Testing: A Practical Guide for Testers and Agile Teams 以及 Continuous Delivery 提出的持续交付理念。 其核心思想包括: * 测试左移(Shift Left)