我在使用大型语言模型(LLMs)时遇到的主要问题,以及最阻碍我进一步采用它们的原因,是代理无法记住相关上下文。<p>几年前,大家都在使用RAG、嵌入、数据库等技术来增强模型的能力。而现在,能够访问本地Markdown和记忆文件的模型(如OpenClaw)似乎在性能上明显优于这些依赖grep和简单UNIX工具的数据库。<p>这是LLMs在扩展时固有的问题吗?对于大多数人来说,Obsidian的效果真的好得多吗?有没有人发现有什么东西实际上能超越Markdown?<p>目前,我在采用这些技术时的主要瓶颈似乎是记忆和持久的长期上下文,而不是模型的质量或可靠性。<p>我很好奇是否有任何技术或扩展指标可以用来预测这一领域的未来发展方向。
返回首页
24小时热榜
谷歌学术“现在”使用谷歌云端硬盘中的一个文件夹来存储公共文章的PDF文件。<p>我在谷歌学术的个人资料中的链接不存在,访问时返回404错误。我无法上传我想公开分享的新文章!<p>我浏览了我的谷歌账户的所有选项,但找不到任何方法来更改谷歌学术使用的文件夹。<p>我尝试联系谷歌支持,但当然没有得到回复。我甚至不确定是否有谷歌学术的工作人员会查看与谷歌学术相关的支持票据。<p>重现步骤:
- 我登录到我的谷歌学术账户
- 我有一些文章没有PDF,因此在我的个人资料页面顶部出现一个标题为“审核公共访问”的框,里面有一个链接“审核”
- 我点击“审核”进入一个标题为“具有公共访问要求的文章”的页面。该页面显示了缺少PDF的文章列表。每篇文章旁边都有一个大的蓝色按钮“上传PDF”。
- 我点击其中一个蓝色按钮,打开一个标题为“上传”的对话框。它显示了所选文章的标题和作者。同时显示的信息是“您上传到谷歌云端硬盘的文章将是公开的——任何人都可以查看。要替换PDF,只需上传另一个版本。要删除它,请访问您谷歌云端硬盘中的‘公共研究文章’文件夹。”文本“公共研究文章”实际上是指向我谷歌云端硬盘中一个文件夹的链接。
- 当我点击这个链接“公共研究文章”时,我收到404错误,消息是“请求的URL在此服务器上未找到。这就是我们所知道的一切。”<p>有人能帮忙吗?还是我漏掉了什么?