我在使用大型语言模型(LLMs)时遇到的主要问题,以及最阻碍我进一步采用它们的原因,是代理无法记住相关上下文。<p>几年前,大家都在使用RAG、嵌入、数据库等技术来增强模型的能力。而现在,能够访问本地Markdown和记忆文件的模型(如OpenClaw)似乎在性能上明显优于这些依赖grep和简单UNIX工具的数据库。<p>这是LLMs在扩展时固有的问题吗?对于大多数人来说,Obsidian的效果真的好得多吗?有没有人发现有什么东西实际上能超越Markdown?<p>目前,我在采用这些技术时的主要瓶颈似乎是记忆和持久的长期上下文,而不是模型的质量或可靠性。<p>我很好奇是否有任何技术或扩展指标可以用来预测这一领域的未来发展方向。
返回首页
最新
当PG取消了公众的点赞和点踩时,是为了消除偏见和投票的惯性。然而,这些反馈在事后仍然对研究有用。关于标记数量也是如此——了解哪些帖子被标记得最多会很有趣。<p>我也很乐意听到其他更具深度的建议。