返回首页
24小时热榜
嗨,HN,
这是一个小型的 Python 应用程序,带有可选的网页用户界面。它旨在本地运行,可以通过 Docker 运行(但 cookie 自动检测功能将无法使用)。
该应用允许您下载单个 Substack 内容,可以选择全部或部分下载,并将输出保存为 epub 文件,方便转移到 Kindle 或其他阅读设备上。
坦白说,这是一个“随意编码”的应用,使用 Claude Code 和几小时的迭代完成,但我发现它对我自己非常有用。
它支持免费和付费内容(如果您是该创作者的付费订阅者)。
您可以按受欢迎程度、新est first(最新优先)或 oldest first(最旧优先)对 epub 中的条目进行排序,并且可以限制条目的数量,如果您不想下载所有内容。
您可以手动提供您的 substack.sid cookie,也可以让大多数浏览器/操作系统自动检测。
我在使用大型语言模型(LLMs)时遇到的主要问题,以及最阻碍我进一步采用它们的原因,是代理无法记住相关上下文。<p>几年前,大家都在使用RAG、嵌入、数据库等技术来增强模型的能力。而现在,能够访问本地Markdown和记忆文件的模型(如OpenClaw)似乎在性能上明显优于这些依赖grep和简单UNIX工具的数据库。<p>这是LLMs在扩展时固有的问题吗?对于大多数人来说,Obsidian的效果真的好得多吗?有没有人发现有什么东西实际上能超越Markdown?<p>目前,我在采用这些技术时的主要瓶颈似乎是记忆和持久的长期上下文,而不是模型的质量或可靠性。<p>我很好奇是否有任何技术或扩展指标可以用来预测这一领域的未来发展方向。