返回首页
最新
我创建了Orchestro,一个开源的MCP服务器和Claude Code的网页仪表盘。简而言之:
“Claude Code的Trello”——内置“敏捷教练”,确保看板的真实状态,并且有代理在工作进行时将卡片从目标→任务→代码移动。
<p>为什么
- 提示中的隐藏状态、不可见的依赖关系、目标→任务→代码的损失交接。
- 项目经理和开发人员对进度的实时视图不一致。
<p>它的功能
- 实际执行的看板:在看板上进行规划,MCP工具驱动工作流程。
- 自动“敏捷教练”:分解故事,设置依赖关系,强制合理的状态转换。
- 代理为Claude准备丰富上下文的提示,并在列之间移动卡片。
- 实时看板(Socket.io)、依赖图、审计记录。
- 本地优先:您的数据存储在您的Supabase项目中。采用MIT许可证。
<p>快速开始(约2分钟)
npx @orchestro/init
npm run dashboard (打开 http://localhost:3000)
重启Claude Code,然后询问:“给我展示orchestro工具”(约60个工具)
<p>技术
TypeScript MCP服务器,Next.js仪表盘(React Flow),Supabase(PostgreSQL + RLS)。
<p>我在寻找
- 重度使用Claude Code的用户进行测试,并告诉我哪些地方有问题(缺少工具、用户体验差、路径慢)。
- 关于“代理移动卡片”模型的真实反馈。
- 欢迎提交PR/问题。如果有用,给个星星可以帮助提升可发现性。
<p>链接
网站:<a href="https://www.orchestro.org/" rel="nofollow">https://www.orchestro.org/</a>
代码库:<a href="https://github.com/khaoss85/mcp-orchestro" rel="nofollow">https://github.com/khaoss85/mcp-orchestro</a>
让我们面对现实吧,如果你在进行深度学习相关的工作,GPU是必不可少的。<p>它们价格昂贵,搭建基础设施的过程也很痛苦。大多数时候,当你在编码时,GPU处于闲置状态,但当脚本第一次运行失败时,你仍然需要为其在线时间付费。<p>作为一名“GPU匮乏”的研究人员,我遇到了这个问题。下载数据集或转换数据等任务并不需要GPU,但传统的设置却强迫你使用GPU。云计算的设置也无济于事——带有GPU的虚拟机需要手动配置环境、安装CUDA或使用Docker容器才能开始。多GPU训练更是增加了麻烦:并非所有图像都支持NCCL,因此节点之间的通信可能会失败。<p>在我的研究实验室[1],我们在模型训练、合成数据生成和强化学习等方面进行实验。我们需要一个灵活、可靠、易于使用和协作的设置。<p>当我寻找一种解决方案,希望能够在本地编写代码并立即在GPU上运行,而不必担心基础设施、多节点设置或闲置GPU时间时,我偶然发现了Modal [2]。经过一年的使用,它彻底改变了我们的工作方式:它提高了我们的研究产出和生产力,节省了大量GPU成本和基础设施管理费用,使我们能够快速交付。<p>我将我们所学到的所有内容整理成了这篇博客和动手教程[3],其中包含三个示例,展示了使用Modal的不同方式:快速在GPU上开发、规模化部署,以及在不费力气的情况下完成所有工作。<p>在博客中,我们将涵盖以下内容:
- 将现有代码封装以在Modal的无服务器基础设施上运行。
- 使用卷在Modal上处理数据集,实现无缝访问。
- 使用Unsloth和Axolotl编写训练脚本,便于微调。
- 以可扩展、高吞吐量的方式提供模型,使用vLLM。<p>到最后,你将知道如何在本地编写和实验,并立即在GPU上运行——没有闲置费用,没有复杂的环境设置,没有多节点的麻烦。<p>[1] <a href="https://cognitivelab.in" rel="nofollow">https://cognitivelab.in</a>
[2] <a href="https://modal.com" rel="nofollow">https://modal.com</a>
[3] <a href="https://aiengineering.academy/LLM/ServerLessFinetuning/" rel="nofollow">https://aiengineering.academy/LLM/ServerLessFinetuning/</a>