1作者: mahdiyar2 个月前原帖
嗨,HN, 上周,我花了40分钟调试一个生产环境中的问题,而这个问题本应该只花5分钟。并不是因为这个bug很复杂,而是因为我不断在Claude Code、Cursor、Codex和Gemini之间切换——复制上下文、丢失线索、重新开始。 这个工作流程非常痛苦: 1. Claude Code无法重现一个React渲染bug 2. 将200行代码复制粘贴到Cursor——不同的答案,仍然错误 3. 尝试Codex——需要重新解释数据库架构 4. 最后Gemini发现了问题,但我已经丢失了原始错误日志 这种上下文切换的成本每周都会发生。因此,我构建了Roundtable AI MCP Server。 它的不同之处在于: 与现有的多代理工具需要自定义API或复杂设置不同,Roundtable通过模型上下文协议与您现有的AI CLI工具协同工作。零配置——它会自动发现已安装的工具并直接工作。 架构:您的IDE → MCP服务器 → 多个AI CLI(并行执行) 它以无头模式运行CLI编码代理,并将结果与所选的LLM共享。 我每天使用的真实示例: 示例1 - 并行代码审查: Claude Code > 并行运行Gemini、Codex、Cursor和Claude Code子代理,并让他们审查我的登录页面 '@frontend/src/app/roundtable/page.tsx' → Gemini:React性能、组件架构、用户体验模式 → Codex:代码质量、TypeScript使用、最佳实践 → Cursor:可访问性、SEO优化、现代网页标准 → Claude:业务逻辑、用户流程、转化优化 将他们的审查结果保存到 {subagent_name}_review.md,然后汇总他们的反馈。 示例2 - 顺序任务委派: 首先:指派Gemini子代理总结 '@server.py' 的逻辑 然后:将总结发送给Codex子代理以实现 'feature_x_spec.md' 中的功能X 最后:我运行代码并向Codex提供反馈,直到 'test_cases.py' 中的所有测试通过 (为了避免过拟合,测试对Codex是隐藏的) 示例3 - 专业调试: 指派Cursor与GPT-5和Cursor与Claude-4思维一起调试 'server.py' 中的问题 这是生产日志:[内存泄漏堆栈跟踪] 创建全面的修复计划和根本原因分析 所有操作并行进行,共享项目上下文。耗时2-5分钟,而手动复制粘贴协调则需要20分钟以上。 尝试一下: ```bash pip install roundtable-ai roundtable-ai --check # 显示您拥有的AI工具 ``` 我希望能得到以下反馈: 1. 哪些AI组合最适合您的调试工作流程? 2. 有哪些IDE集成的痛点? 3. 我应该解决的团队采纳障碍? GitHub: https://github.com/askbudi/roundtable 网站: https://askbudi.ai/roundtable