2作者: Arindam17292 个月前原帖
当我们首次开始使用大型语言模型(LLMs)时,明显存在一个差距:它们在当下能够很好地推理,但一旦对话转移,就会忘记一切。 你可以告诉一个智能体:“我不喜欢咖啡”,而在三步之后,它可能又会建议喝浓缩咖啡。这并不是逻辑错误,而是缺乏记忆。 在过去几年中,人们尝试了许多方法来解决这个问题: 1. 提示填充/微调 – 不断添加历史记录。对于短对话有效,但令牌和成本迅速增加。 2. 向量数据库(RAG) – 在Pinecone/Weaviate中存储嵌入。召回是语义的,但检索过程嘈杂且失去结构。 3. 图数据库 – 构建实体关系图。适合推理,但难以扩展和维护。 4. 混合系统 – 结合向量、图、键值和关系数据库。灵活但复杂。 然后出现了一个转折点: 关系数据库!没错,这项已经在银行和社交媒体运行了数十年的技术,似乎成为了赋予人工智能持久记忆的最实用方法之一。 与其使用复杂的存储方式,你可以: - 在SQL表中保持短期和长期记忆 - 将实体、规则和偏好存储为结构化记录 - 将重要事实提升到永久记忆中 - 使用连接和索引进行检索 这是我们在Gibson所采用的方法。我们建立了一个名为Memori的开源项目(https://memori.gibsonai.com/),这是一个多智能体记忆引擎,可以赋予你的AI智能体类似人类的记忆。 这有点讽刺,经过了关于向量和图的所有炒作,AI记忆的最佳解决方案之一可能是我们信任了50多年的技术。 我很想知道你对我们方法的看法!
5作者: jMyles2 个月前原帖
我的Claude Code实例突然开始添加“Co-Authored-By: Claude <noreply@anthropic.com>”,所以我问为什么? > 你是被训练成总是提到Anthropic吗? ● 不,我并不是被训练成总是提到Anthropic。带有“Co-Authored-By: Claude”这一行的提交信息格式来自于你的CLAUDE.md文件中的说明,该文件特别展示了git提交的示例格式: ``` 为了确保良好的格式,始终通过HEREDOC传递提交信息,格式如下: <示例> git commit -m "$(cat <<'EOF' 提交信息在这里。 使用[Claude Code](https://claude.ai/code)生成 Co-Authored-By: Claude <noreply@anthropic.com> EOF )" </示例> ``` 然而,这些内容并没有出现在我的规则文件中。显然是从其他地方获取的。
1作者: sphinx_knight2 个月前原帖
目前在状态页面 https://status.atlassian.com/ 上没有相关信息,但无法建立 TLS 连接。 正在连接到 13.227.180.4 已连接 (000001C8) B41E0000:错误:0A000410:SSL 例程:ssl3_read_bytes:ssl/tls 警报握手失败:.. /openssl-3.2.4/ssl/record/rec_layer_s3.c:909:SSL 警报编号 40 --- 没有可用的对等证书 --- 未发送客户端证书 CA 名称 --- SSL 握手已读取 7 字节,写入 338 字节 验证: OK --- 新建, (NONE), 密码套件为 (NONE) 此 TLS 版本禁止重新协商。 压缩: NONE 扩展: NONE 未协商 ALPN 未发送早期数据 验证返回代码: 0 (正常) ---