功能介绍
评论列表

详情介绍

Pixelle MCP是由AIDC-AI团队开发的多模态AIGC解决方案,它的核心理念是打破大语言模型与专业生成工具之间的壁垒。传统上,你想让AI助手帮你处理图像或视频,要么需要复杂的API对接,要么得手动操作多个软件。而Pixelle MCP通过MCP协议这座桥梁,让任何支持MCP的AI客户端都能直接调用你在ComfyUI中设计的任何工作流。

这个项目的巧妙之处在于它的“零代码转化”机制。你在ComfyUI里搭建的工作流——比如一个复杂的图像修复链条,或者一个视频风格迁移流程——只需要在节点标题里用简单的语法标记输入输出参数,导出为API格式后放到指定目录,系统就会自动把它注册成一个可供AI调用的工具。整个过程就像复制粘贴文件一样简单。

Pixelle MCP支持全模态内容生成,涵盖文本、图像、音频、视频四大领域。它内置了与主流大模型的集成能力,包括OpenAI、Claude、Gemini、通义千问等10多个模型。部署方式非常灵活,你可以通过pip一键安装,也可以用Docker快速启动,甚至支持临时运行体验。版本还增加了对RunningHub云ComfyUI的支持,即使本地没有强大的GPU也能使用云端的算力资源。

官网入口地址

官网入口网址:https://pixelle.ai/
(注意:官网目前正在维护中,建议优先访问GitHub项目页)

下载地址

开源项目地址:https://github.com/AIDC-AI/Pixelle-MCP

功能介绍

全模态内容生成支持

Pixelle MCP真正实现了TISV全模态覆盖:

  • 文本处理:支持提示词优化、文档摘要、多语言翻译、文本改写等

  • 图像处理:支持文生图、图生图、图像修复、风格迁移、超分辨率、背景移除等

  • 音频处理:支持语音识别转录、音乐源分离、声音风格转换、文本转语音等

  • 视频处理:支持文生视频、图生视频、视频插帧、视频风格化、高效合成等

零代码工作流转化

这是Pixelle MCP最核心的功能。你只需要:

  1. 在ComfyUI中搭建好工作流

  2. 用特定语法标记输入参数(如$image.image!:输入图片

  3. 导出为API格式的JSON文件

  4. 放到data/custom_workflows/目录下
    系统会自动将这个工作流注册成一个MCP工具,大语言模型立刻就能识别并使用它。从搭建到使用,全程不需要写一行代码。

多LLM协同支持

项目集成了LiteLLM框架,支持主流的大语言模型:

  • OpenAI系列(GPT-4、GPT-3.5)

  • Anthropic Claude系列

  • Google Gemini系列

  • 通义千问(Qwen)

  • DeepSeek

  • Ollama本地模型

  • 以及他兼容OpenAI接口的模型

灵活的双执行模式

版本提供了两种执行引擎选择:

  • 本地ComfyUI模式:适合有GPU的用户,数据本地处理,隐私安全,支持自定义节点和模型

  • RunningHub云模式:无需本地GPU,注册后获取API密钥即可使用云端的ComfyUI服务,自动处理并发和资源分配

智能参数解析系统

系统会自动识别节点参数类型:

  • 根据节点字段的当前值推断类型(整数、浮点数、布尔值、字符串)

  • 支持必填参数(用!标记)和可选参数

  • 支持URL自动下载处理(用~标记)

  • 支持多个输出结果的定义

可视化Web界面

基于Chainlit框架开发的Web界面:

  • 界面清爽,操作直观

  • 支持多模态交互(上传图片、音频、视频)

  • 可同时接入多个MCP服务器

  • 内置用户认证系统(默认账号密码dev)

多客户端兼容

作为标准的MCP服务器,它可以连接任何支持MCP协议的客户端:

  • Cursor编辑器

  • Claude Desktop应用

  • 他自定义MCP客户端
    通过MCP端点(http://localhost:9004/pixelle/mcp)即可接入

一键部署方案

提供多种部署方式适应不同需求:

  • pip安装pip install -U pixelle后直接运行pixelle命令

  • 临时体验uvx pixelle@latest零配置启动

  • Docker部署docker compose up -d适合生产环境

  • 源码运行:克隆仓库后用uv run pixelle启动

应用场景

数字艺术创作

艺术家可以用自然语言指挥AI助手完成复杂的创作流程。比如输入“生成一个武侠战斗场景:剑客在竹林顶端对决”,Pixelle MCP会自动调用文生图工作流生成分镜,再通过图生视频工作流动起来,整个过程就像在和助手聊天一样自然。

电商广告自动化

某电商团队用Pixelle MCP实现了商品海报的批量生成。他们搭建了一个工作流:输入商品图片和文案,自动抠图、合成背景、添加高效、输出成品。原来每天需要设计师手工处理的百款商品海报,现在只需要在AI对话框里说一句“生成这批商品的海报”,系统就自动完成了,效率提升了20倍。

教育内容生产

教育机构可以用它快速制作教学素材。将教材文本输入,系统自动提取知识图谱,生成动画视频,再配上多语言配音。原本需要3天完成的课程素材,现在1小时就能产出。

影视预可视化

导演和分镜师在前期创作时,可以直接用剧本描述生成动态分镜。输入“黄昏时分,主角站在城堡前仰望”,系统立即生成场景画面,还能实时调整灯光角度、运镜参数,大大加快了创意迭代速度。

音频后期处理

音乐制作人可以用它批量处理音频素材。搭建一个音频工作流,输入人声干音,自动分离伴奏、添加混响、调整EQ,全程在AI聊天界面里用语音指令完成。

必要补充信息

定价模式

Pixelle MCP本身是免费的开源项目,采用MIT许可证。你可以自由使用、修改、分发,甚至用于商业项目。但需要注意,它依赖的ComfyUI和各类AI模型需要你自己准备,如果你选择使用RunningHub云模式,RunningHub平台会收取相应的云服务费用。

硬件要求

  • 本地部署:推荐使用NVIDIA GPU(显存建议8GB以上),需要安装Docker和NVIDIA容器工具包

  • 云模式:不需要本地GPU,只需注册RunningHub账号获取API密钥

社区支持

项目在GitHub上已有超过800个星标,社区活跃度较高。你可以通过以下渠道获取帮助:

  • GitHub Issues提交问题

  • 项目文档中的社区群二维码(支持Discord和微信)

  • 各类技术博客的体验分享

实际应用示例

一个完整的AI漫画创作流程示例:

  1. 文本生成分镜:输入“生成武侠战斗场景:剑客在竹林顶端对决”

  2. 图像生成:调用Stable Diffusion XL工作流生成关键帧

  3. 视频合成:用AnimateDiff节点将图像序列生成动画

  4. 配音添加:调用XTTS语音合成工作流生成对白
    整个过程只需要在Web界面上和AI对话就能完成。

Pixelle MCP常见问题

本文标签