返回市场
麦克蜂群

麦克蜂群

作者:Menoxcide0 星标更新:2025-11-09

项目介绍

MCP-Swarm 🤖

npm 版本 许可证:MIT TypeScript Node.js

免费、本地优先、NVIDIA GPU驱动的多代理系统 使用MCP服务器、持久沙箱、实时UI和自我进化。

运行:npx mcp-swarm "构建一个病毒式AI仪表板"

系统自动:

  1. 🧠 发现50多个免费的MCP服务器
  2. 🏗️ 运行11个并行专家代理
  3. 🎨 在 http://localhost:3000 显示实时UI
  4. 🚀 自动提交和部署
  5. 💪 仅使用免费模型 + 本地GPU
  6. 🔄 通过批评/进化代理自我改进

✨ 功能

🤖 11个专业AI代理

  • 市场研究员 - 竞争对手分析及市场情报
  • 产品战略家 - MVP规划及升级路径
  • 系统架构师 - 零成本架构设计
  • MCP工程师 - MCP服务器开发及集成
  • UI/UX设计师 - React/Tailwind界面设计
  • DevOps工程师 - Docker、部署及CI/CD
  • QA测试员 - 安全测试及模糊测试
  • 增长黑客 - 营销及社交媒体
  • 批评者 - 代码审查及质量评估
  • 进化者 - 自我改进及优化
  • 基准测试者 - 性能测试及指标

🔧 50多个MCP服务器集成

  • DevOps:GitHub、GitLab、Jenkins、Docker、Kubernetes、Terraform
  • 通信:Slack、Discord、LINE、Carbon Voice、ntfy
  • 数据库:Postgres、MySQL、MongoDB、Redis、ClickHouse、BigQuery
  • 云服务:AWS、Azure、Google Cloud、Cloudflare、Fly.io
  • AI/ML:OpenAI、Anthropic、HuggingFace、Replicate
  • 业务:Linear、Jira、Notion、Airtable、Salesforce
  • 监控:Sentry、DataDog、VictoriaMetrics、Signoz

🎨 实时UI仪表板

  • 实时代理执行监控
  • 沙箱文件浏览器实时更新
  • 性能指标及GPU使用情况
  • MCP服务器注册管理
  • 交互式代理调试

🔌 Cursor IDE集成

  • 命令面板Cmd+Shift+P → "MCP Swarm: 运行任务"
  • Composer Hook@swarm 前缀用于代理工作流
  • 工具集:预定义的MCP工具集合
  • 侧边栏视图:资源管理器、调试器、注册表、监控
  • 代理模式:原生VS Code语言模型集成

🚀 性能与扩展性

  • GPU加速:LM Studio集成实现2-4倍速度提升
  • 本地优先:无需API密钥,完全离线运行
  • 自我进化:批评/进化代理改善系统
  • 插件系统:自动提交、自动部署、自定义触发器
  • 沙箱隔离:带版本控制的持久工作区

🚀 快速开始

先决条件

  • Node.js 18+
  • NVIDIA GPU(推荐RTX 20/30/40/50系列)
  • LM Studio(免费应用,适用于本地LLM)
  • Cursor IDE 0.51+(可选,用于扩展)

安装

方案1:全局CLI(发布后)

npm install -g mcp-swarm
mcp-swarm "构建一个React仪表板"

方案2:直接使用(发布后)

npx mcp-swarm "创建一个Node.js API"

方案3:本地开发(当前)

# 从项目目录
node bin/mcp-swarm.js "构建一个React仪表板"
# 或
npm run test

方案4:本地开发(完整设置)

git clone https://github.com/yourusername/mcp-swarm.git
cd mcp-swarm
npm install
npm run build
node bin/mcp-swarm.js "构建一个应用程序"

GPU设置与LM Studio(推荐)

# 1. 下载LM Studio: https://lmstudio.ai/
# 2. 搜索并下载一个模型(推荐:"Llama 3.2 8B"或"Grok-1")
# 3. 使用GPU卸载加载模型(所有层到CUDA,针对RTX GPU)
# 4. 启动本地服务器:http://localhost:1234/v1(兼容OpenAI的API)
# 5. 运行设置脚本:./setup-lm-studio.sh(Linux/Mac)或setup-lm-studio.bat(Windows)

LM Studio集成

MCP-Swarm自动检测并集成LM Studio以实现GPU加速的AI响应:

# 快速设置(启动LM Studio服务器后)
./setup-lm-studio.sh    # Linux/Mac
# 或
setup-lm-studio.bat     # Windows

# 然后使用真实AI模型运行
node bin/mcp-swarm.cjs "构建一个React仪表板"

环境变量:

  • USE_LM_STUDIO=true - 启用LM Studio集成
  • LM_STUDIO_URL=http://localhost:1234/v1 - LM Studio服务器URL
  • LM_STUDIO_API_KEY - 可选API密钥(通常本地不需要)

性能优势:

  • 使用GPU加速响应速度快2-4倍
  • 本地隐私(无数据发送到外部API)
  • 支持RTX 20/30/40/50系列GPU

📖 使用示例

构建完整的应用程序

# 发布后:
npx mcp-swarm "构建一个带有用户认证、支付整合和管理面板的SaaS仪表板"

# 本地开发:
node bin/mcp-swarm.js "构建一个带有用户认证、支付整合和管理面板的SaaS仪表板"

API开发

node bin/mcp-swarm.js "为博客创建一个带有PostgreSQL和认证的REST API"

UI/UX设计

node bin/mcp-swarm.js "为金融科技初创公司设计一个现代着陆页"

DevOps与部署

node bin/mcp-swarm.js "使用Docker设置CI/CD管道并部署到Fly.io"

自定义代理任务

node bin/mcp-swarm.js "分析AI代理领域的竞争对手"
node bin/mcp-swarm.js "为新产品发布生成营销内容"
node bin/mcp-swarm.js "审查并优化此代码库以提高性能"

🏗️ 架构

mcp-swarm/
├── core/              # 引擎、MCP发现、模型集成
├── agents/            # 11个专业AI代理
├── plugins/           # 自动提交、自动部署、自定义触发器
├── ui/                # 实时Web仪表板(Express + Socket.IO)
├── sandbox/           # 持久工作区(永不删除)
├── extensions/        # Cursor IDE扩展(VSIX)
├── models/            # LM Studio配置
└── bin/               # 全局CLI可执行文件

代理流水线流程

  1. 任务输入 → 解析和验证请求
  2. MCP发现 → 加载并初始化配置的服务器
  3. 并行执行 → 同时运行相关代理
  4. 结果聚合 → 结合输出并解决冲突
  5. 文件生成 → 将结果写入沙箱并进行版本控制
  6. 插件触发 → 执行自动提交、通知等
  7. UI更新 → 实时仪表板反映进度

🔧 配置

MCP服务器

编辑sandbox/mcp-config.json添加自定义集成:

{
  "name": "自定义API",
  "url": "https://your-api.com/openapi.json",
  "auth": "api-key",
  "enabled": true,
  "description": "您的自定义服务"
}

模型配置

更新core/model.ts以适应不同的LLM提供商:

export class CustomModel {
  async invoke(messages: any[]) {
    // OpenAI、Anthropic、本地模型等
    return { content: response, usage: { tokens: count } };
  }
}

代理定制化

agents/your_agent.ts中创建新代理:

export default {
  name: 'your_agent',
  async run(state: any, { explorer, model }: any) {
    const response = await model.invoke([{
      role: 'user',
      content: `任务:${state.task}`
    }]);

    await explorer.writeFile('output/result.md', response.content);
    return { results: { [this.name]: response.content } };
  }
};

🎯 Cursor IDE集成

安装

# 从MCP-Swarm目录
code --install-extension extensions/mcp-swarm.vsix

# 或手动:Cursor → 扩展 → 从VSIX安装

功能

  • 命令面板MCP Swarm: 运行任务
  • Composer集成@swarm 构建一个仪表板
  • 工具集:预定义的MCP工具集合
  • 实时监控:侧边栏中的实时代理执行
  • 语义搜索:Cursor的嵌入模型用于代码库查询

高级用法

// 在Cursor设置中配置群工具
{
  "mcp-swarm.toolSets": {
    "dev-tools": ["add_mcp", "grep", "execute_ts"],
    "web-tools": ["browser_click", "take_screenshot"],
    "api-tools": ["http_request", "parse_json"]
  }
}

📊 性能

基准测试(RTX 4090 + Grok-1)

  • 代理执行:GPU比CPU快2-4倍
  • MCP调用:平均响应时间<100ms
  • 内存使用:全部代理套件约500MB
  • 并发代理:最多11个并行执行

支持的模型

  • Grok-1:314B MoE,最适合推理
  • Llama 3.2:8B/70B,多语言任务
  • Mistral Nemo:12B,工具调用及代理
  • DeepSeek Coder:专注于代码生成
  • Phi-3 Mini:快速低VRAM操作

🤝 贡献

  1. 分叉仓库
  2. 创建功能分支:git checkout -b feature/amazing-agent
  3. 将您的代理/插件添加到适当的目录
  4. 更新AGENTS.md文档
  5. 本地测试:npm run test
  6. 提交拉取请求

开发设置

git clone https://github.com/yourusername/mcp-swarm.git
cd mcp-swarm
npm install
npm run build
npm link  # 用于全局CLI测试

📄 许可证

MIT许可证 - 免费用于所有用途,包括商业用途。

基于karthikscale3的ctx-zip构建。

🙏 致谢

  • Cursor IDE 提供了出色的AI优先开发体验
  • LM Studio 提供免费本地LLM托管及GPU加速
  • MCP社区 提供了通用API标准
  • xAI 开源了Grok模型

📞 支持


准备好构建任何东西了吗? 🚀

# 本地开发:
node bin/mcp-swarm.js "构建下一个大事件"

# 发布后:
npx mcp-swarm "构建下一个大事件"