9作者: odedfalik28 天前原帖
我为Lambda云GPU实例构建了一个非官方的命令行接口(CLI)和管理控制平面(MCP)服务器。<p>主要思想是:您的AI代理现在可以为您启动和管理Lambda GPU。<p>MCP服务器提供了查找、启动和终止实例的工具。只需一条命令将其添加到Claude Code、Cursor或任何代理,您就可以说诸如“启动一个H100,SSH进入,并运行big_job.py”之类的话。<p><pre><code> 其他功能: - 当实例准备好SSH连接时,通过Slack、Discord或Telegram发送通知 - 支持1Password用于API密钥 - 还包括一个具有相同功能的独立CLI </code></pre> 使用Rust编写,采用MIT许可证。<p>注意:这是一个非官方的社区项目,与Lambda无关。
11作者: nico28 天前原帖
我一直在使用Claude Code来处理DevOps风格的任务,比如通过SSH连接到服务器、搜索日志、检查文件和查询数据库。总体来说,这个工具非常好。然而,我发现自己不得不逐一审核每个命令,其中很多都是重复的。虽然它仍然为我节省了大量时间,但这变得有些乏味。 我希望能给这个代理更多的自主权,比如提供一份预先批准的命令或操作列表,让它可以在SSH下执行。 例如: ``` 允许的:ls, grep, cat, tail 不允许的:rm, mv, chmod等 允许的:SELECT查询 不允许的:INSERT, DELETE, DROP, TRUNCATE ``` 有没有人成功或令人满意地解决了这个问题?你们实际使用的设置是什么?在自主权和风险之间,你们是如何划定界限的?
1作者: pdrojack28 天前原帖
简而言之:为AI工作流审批提供移动通知。之所以开发这个,是因为同时运行5个以上的AI代理会导致混乱。 问题: 这是我几周来手写的最长段落。其他所有内容?都是通过5个浏览器标签(GPT、Gemini、Claude)和多个运行Claude Code的终端生成的AI内容。 它们速度快,质量好。但没人告诉你的是:你会成为瓶颈。 我会启动3个代理处理不同任务,在它们之间切换,结果搞不清哪些需要我的输入,哪些可以安全自动执行。关键决策被淹没在终端输出中。 我尝试过的: - Telegram机器人(不可靠,效果差) - Slack集成(信息过载) - 每5分钟检查一次终端(违背了自动化的初衷) 这些都没有奏效。 我开发的: viahuman——一个通知服务器,让AI代理在需要人类审批时可以提醒我。 它是如何工作的: - 将本地MCP服务器与我的大型语言模型(LLMs)集成 - 告诉它们:“自主运行,但在重要决策时通知我” - 当完成或遇到障碍时,它们会发送移动推送通知 - 我可以通过手机进行审批或提供上下文 - 它们会适应并继续执行
1作者: masterpos28 天前原帖
大家好, Repomance 是一款用于发现精心策划和热门代码库的应用。您可以直接通过您的 GitHub 账户滑动来收藏它们。 目前该应用已在 iOS、iPadOS 和 macOS 上可用。我计划在应用用户达到 100 人后开发 Android 版本。 欢迎大家提供反馈,希望您喜欢使用这款应用。