1作者: danielepelleri大约 2 个月前原帖
我创建了Orchestro,一个开源的MCP服务器和Claude Code的网页仪表盘。简而言之: “Claude Code的Trello”——内置“敏捷教练”,确保看板的真实状态,并且有代理在工作进行时将卡片从目标→任务→代码移动。 <p>为什么 - 提示中的隐藏状态、不可见的依赖关系、目标→任务→代码的损失交接。 - 项目经理和开发人员对进度的实时视图不一致。 <p>它的功能 - 实际执行的看板:在看板上进行规划,MCP工具驱动工作流程。 - 自动“敏捷教练”:分解故事,设置依赖关系,强制合理的状态转换。 - 代理为Claude准备丰富上下文的提示,并在列之间移动卡片。 - 实时看板(Socket.io)、依赖图、审计记录。 - 本地优先:您的数据存储在您的Supabase项目中。采用MIT许可证。 <p>快速开始(约2分钟) npx @orchestro/init npm run dashboard (打开 http://localhost:3000) 重启Claude Code,然后询问:“给我展示orchestro工具”(约60个工具) <p>技术 TypeScript MCP服务器,Next.js仪表盘(React Flow),Supabase(PostgreSQL + RLS)。 <p>我在寻找 - 重度使用Claude Code的用户进行测试,并告诉我哪些地方有问题(缺少工具、用户体验差、路径慢)。 - 关于“代理移动卡片”模型的真实反馈。 - 欢迎提交PR/问题。如果有用,给个星星可以帮助提升可发现性。 <p>链接 网站:<a href="https://www.orchestro.org/" rel="nofollow">https://www.orchestro.org/</a> 代码库:<a href="https://github.com/khaoss85/mcp-orchestro" rel="nofollow">https://github.com/khaoss85/mcp-orchestro</a>
1作者: Adithya-Kolavi大约 2 个月前原帖
让我们面对现实吧,如果你在进行深度学习相关的工作,GPU是必不可少的。<p>它们价格昂贵,搭建基础设施的过程也很痛苦。大多数时候,当你在编码时,GPU处于闲置状态,但当脚本第一次运行失败时,你仍然需要为其在线时间付费。<p>作为一名“GPU匮乏”的研究人员,我遇到了这个问题。下载数据集或转换数据等任务并不需要GPU,但传统的设置却强迫你使用GPU。云计算的设置也无济于事——带有GPU的虚拟机需要手动配置环境、安装CUDA或使用Docker容器才能开始。多GPU训练更是增加了麻烦:并非所有图像都支持NCCL,因此节点之间的通信可能会失败。<p>在我的研究实验室[1],我们在模型训练、合成数据生成和强化学习等方面进行实验。我们需要一个灵活、可靠、易于使用和协作的设置。<p>当我寻找一种解决方案,希望能够在本地编写代码并立即在GPU上运行,而不必担心基础设施、多节点设置或闲置GPU时间时,我偶然发现了Modal [2]。经过一年的使用,它彻底改变了我们的工作方式:它提高了我们的研究产出和生产力,节省了大量GPU成本和基础设施管理费用,使我们能够快速交付。<p>我将我们所学到的所有内容整理成了这篇博客和动手教程[3],其中包含三个示例,展示了使用Modal的不同方式:快速在GPU上开发、规模化部署,以及在不费力气的情况下完成所有工作。<p>在博客中,我们将涵盖以下内容: - 将现有代码封装以在Modal的无服务器基础设施上运行。 - 使用卷在Modal上处理数据集,实现无缝访问。 - 使用Unsloth和Axolotl编写训练脚本,便于微调。 - 以可扩展、高吞吐量的方式提供模型,使用vLLM。<p>到最后,你将知道如何在本地编写和实验,并立即在GPU上运行——没有闲置费用,没有复杂的环境设置,没有多节点的麻烦。<p>[1] <a href="https://cognitivelab.in" rel="nofollow">https://cognitivelab.in</a> [2] <a href="https://modal.com" rel="nofollow">https://modal.com</a> [3] <a href="https://aiengineering.academy/LLM/ServerLessFinetuning/" rel="nofollow">https://aiengineering.academy/LLM/ServerLessFinetuning/</a>