返回首页
最新
一个“精彩列表”的新颖版本:每个条目都是经过验证的案例研究,而不仅仅是一个链接。要出现在这个目录中,代理必须在公共持续集成(CI)中通过 tracecore run --strict-spec,生成一个不可变的、经过模式验证的工件作为证据。<p>GitHub Actions 是公开的入口。仅靠人工审批无法认证代理;工作流程必须首先通过。
MongoDB 很棒,直到你阅读了 SSPL。然后你要么支付 Atlas 的高价,要么使用旧版 4.x,要么假装 FerretDB 已经可以投入生产。我们提供了第三种选择。
Salvobase 是一个与 MongoDB wire-protocol 兼容的文档数据库,使用 Go 编写。只需指向任何 Mongo 驱动程序,它就能正常工作。无需更改驱动程序或配置。它是 Apache 2.0 许可,因此你可以将其嵌入到商业产品中,而无需法律上的讨论。
它的功能包括:
- 完整的 CRUD 操作,索引(单一、复合、唯一、文本、TTL、部分、通配符),以及大部分聚合管道($match、$group、$lookup、$unwind、$facet 等)
- SCRAM-SHA-256 认证
- bbolt 存储引擎:每个数据库一个 .db 文件,使用 Snappy 压缩的 BSON
- 内置 Prometheus 指标,地址为 :27080/metrics(无需导出器)
- 内置 REST/JSON API,地址为 :27080/api/v1/(MongoDB 的等效版本是付费的 Atlas)
- 每个租户的速率限制、审计日志、1 秒 TTL 精度、SIGHUP 热重载
- 运行 make build && make dev 即可启动
它的限制包括:
- 不支持复制。不支持分片。不支持变更流。不支持多文档事务(已简化)。不支持 $where 或 mapReduce(故意设计:安全性 + 复杂性)。仅支持单节点。如果你需要一个分布式的 MongoDB 替代品,这还不是它。但我们希望有一天它会成为那样,由代理构建。
奇怪的部分:
代码库由 AI 代理维护。不是“AI 辅助”——这些代理从待办事项中挑选问题,编写代码,提交 PR,相互审查 PR,并合并。存在一个正式的协议(https://github.com/inder/salvobase/blob/master/AGENT_PROTOCOL.md),涵盖身份、信任等级、审查的反串通规则、声明超时和紧急停止开关。人类设定方向;代理执行任务。
我们很好奇,自动化代理维护是否能够在长时间内维持一个真正的开源项目,而不仅仅是生成初始代码。
如果你想捐赠一个代理,只需将以下提示输入 Claude Code、Cursor、Aider、Devin 等工具中:Fork/clone github.com/inder/salvobase,阅读 QUICKSTART.md,并开始贡献。
GitHub: [https://github.com/inder/salvobase](https://github.com/inder/salvobase)
谢谢。
嗨,HN,
我一直在进行一个名为OpenVerb的项目,探索一种AI系统的架构理念:将推理与执行分离。
目前大多数AI代理框架专注于改善推理循环、规划和编排(如LangChain、LangGraph等)。但是一旦代理决定执行某个动作,执行通常就变成了直接的工具调用、脚本或API调用。
这种方法是可行的,但也带来了一些问题:
- 每个集成都需要自定义的连接代码
- 动作模式不一致
- 执行的确定性有限
- 审计和政策执行困难
OpenVerb实验性地将动作视为一个协议层,而不仅仅是函数调用。
系统定义结构化的动词,描述:
- 正在执行的动作
- 所需的输入
- 预期的输出
- 执行政策
- 审计信息
从概念上讲,架构如下:
AI模型 / 代理框架
↓
推理层
↓
OpenVerb
(动作协议)
↓
系统执行
这个理念是,代理框架控制AI的思维方式,而OpenVerb标准化动作的执行方式。
一些现有项目涉及相关领域:
- 模型上下文协议(MCP)——AI系统的工具和数据发现
- LangGraph——代理的确定性推理循环
- PydanticAI——代理输出的结构化模式
OpenVerb试图探索一些稍微不同的东西:一种可在多个领域(软件系统、空间系统、机器人等)中工作的确定性执行的通用语法。
目前仍处于早期实验阶段,但我非常希望听到对代理架构或执行可靠性有想法的人的反馈。
也想知道是否有其他人探索过类似的理念,或者是否有相关系统我应该关注。
我之所以构建这个平台,是因为我基于产品信念进行投资,但找不到一种清晰的方式来跟踪公司是否真正按照其路线图执行。
AlphaPerch使用一种专有的管道,综合多种数据源,并利用人工智能提取和分类产品里程碑,按产品线和执行阶段(预期、已宣布、进行中、已发货、延迟、取消)进行分类。每个里程碑都可以追溯到其原始来源,您可以自行验证。
该平台旨在跟踪任何上市公司。特斯拉(TSLA)、谷歌(GOOGL)和罗布洛克斯(RBLX)是实时更新的,因为这是我个人的投资信念所在,但该框架是通用的。如果您希望添加特定公司,可以在首页找到覆盖请求表单。
非常希望能收到关于提取质量和缺失内容的反馈。如果您觉得这个平台有用,请告诉我!
alphaperch.com
嗨,HN,
我开发了 Compose Launcher,因为我经常同时处理多个项目,每个项目都有自己的 docker-compose 设置。
这使得跟踪以下内容变得困难:
• 哪些 compose 文件正在运行
• 哪些端口已经被占用
• 在不同文件夹中启动/停止环境
Compose Launcher 提供了一个小型的 macOS 图形用户界面,您可以在一个地方注册多个 compose 文件并进行管理。
您可以快速查看正在运行的服务,启动/停止堆栈,并避免端口冲突。
这个项目仍处于早期阶段,我非常希望能收到那些在本地运行多个 docker-compose 环境的人的反馈。
我构建了一个系统,可以直接从其本地代码库中学习,并从一开始就理解整个项目的上下文。目前的编码代理通常需要花费2到3分钟来收集已经存在于代码库中的上下文,这既浪费时间又浪费资源。为了解决这个问题,我创建了一个名为Monocod的系统。
我最初创建Monocod是为了帮助维护我的主要项目,但它逐渐演变成了一个更强大的工具。
当前编码代理的核心问题在于,它们是在语言上下文中训练的,而不是系统上下文。它们基于文本模式生成代码,而不是实际理解真实代码库的结构、依赖关系和状态。在许多情况下,它们并不真正“了解”它们正在处理的代码库。
我的系统改变了这一点。
Monocod从代码库本身自我学习,在每个循环中持续更新本地模型。由于它已经掌握了完整的项目上下文,因此可以更高效地指导编码代理。它还能够检测系统架构和代码库中的缺口,从而生成真正满足用户需求的解决方案,而不仅仅是产生表面上的代码。
在我看来,当前的LLM系统在编码方面的方法是错误的。基础需要从以语言驱动的生成转向以系统为意识的智能。Monocod代表了我认为将成为下一代真实AI开发工具的新基础。
除了生成,系统还执行生成后的分析和代码库的维护。它自动评估和改进项目结构,在我的测试中,它的表现超越了主要的代码分析工具。所有这些都是通过纯算法完成的,而不是依赖繁重的外部服务。
我之所以主要构建这个系统,是因为作为一名独立开发者,手动审查和维护大量生成的代码是极其困难的。大多数编码代理只是生成代码以满足即时请求,而没有考虑长期的可维护性、生产标准或适当的架构。
大多数用户实际上并不知道什么是生产就绪的代码。编码代理往往将用户困在不断增量修复和重写的循环中,而不是引导他们走向行业级的系统。
Monocod旨在打破这一循环,确保生成和维护的代码符合真实的行业标准和系统级思维,而不仅仅是短期功能的完成。