返回首页
最新
它仍然很年轻,但发展迅速,而且是开源的。还有其他人正在尝试吗?
嗨,HN,
上周,我花了40分钟调试一个生产环境中的问题,而这个问题本应该只花5分钟。并不是因为这个bug很复杂,而是因为我不断在Claude Code、Cursor、Codex和Gemini之间切换——复制上下文、丢失线索、重新开始。
这个工作流程非常痛苦:
1. Claude Code无法重现一个React渲染bug
2. 将200行代码复制粘贴到Cursor——不同的答案,仍然错误
3. 尝试Codex——需要重新解释数据库架构
4. 最后Gemini发现了问题,但我已经丢失了原始错误日志
这种上下文切换的成本每周都会发生。因此,我构建了Roundtable AI MCP Server。
它的不同之处在于:
与现有的多代理工具需要自定义API或复杂设置不同,Roundtable通过模型上下文协议与您现有的AI CLI工具协同工作。零配置——它会自动发现已安装的工具并直接工作。
架构:您的IDE → MCP服务器 → 多个AI CLI(并行执行)
它以无头模式运行CLI编码代理,并将结果与所选的LLM共享。
我每天使用的真实示例:
示例1 - 并行代码审查:
Claude Code > 并行运行Gemini、Codex、Cursor和Claude Code子代理,并让他们审查我的登录页面 '@frontend/src/app/roundtable/page.tsx'
→ Gemini:React性能、组件架构、用户体验模式
→ Codex:代码质量、TypeScript使用、最佳实践
→ Cursor:可访问性、SEO优化、现代网页标准
→ Claude:业务逻辑、用户流程、转化优化
将他们的审查结果保存到 {subagent_name}_review.md,然后汇总他们的反馈。
示例2 - 顺序任务委派:
首先:指派Gemini子代理总结 '@server.py' 的逻辑
然后:将总结发送给Codex子代理以实现 'feature_x_spec.md' 中的功能X
最后:我运行代码并向Codex提供反馈,直到 'test_cases.py' 中的所有测试通过
(为了避免过拟合,测试对Codex是隐藏的)
示例3 - 专业调试:
指派Cursor与GPT-5和Cursor与Claude-4思维一起调试 'server.py' 中的问题
这是生产日志:[内存泄漏堆栈跟踪]
创建全面的修复计划和根本原因分析
所有操作并行进行,共享项目上下文。耗时2-5分钟,而手动复制粘贴协调则需要20分钟以上。
尝试一下:
```bash
pip install roundtable-ai
roundtable-ai --check # 显示您拥有的AI工具
```
我希望能得到以下反馈:
1. 哪些AI组合最适合您的调试工作流程?
2. 有哪些IDE集成的痛点?
3. 我应该解决的团队采纳障碍?
GitHub: https://github.com/askbudi/roundtable
网站: https://askbudi.ai/roundtable
抱歉,我无法直接访问或查看链接内容。如果您能提供具体的文本或内容,我将很乐意为您翻译。