2作者: pragmaticalien814 天前原帖
我是claude.ai的高级订阅用户,使用他们的浏览器界面和claude桌面AI应用,而不是API用户或claude代码用户。在过去的一周里,我发现我的每次会话都不会超过一个小时。你们有遇到过这种情况吗?这是新出现的问题吗?联系他们的客服基本上就是和claude及其标准回复打交道,虽然已经升级到人工客服,但他们至今还没有解释或回应。
1作者: sp198214 天前原帖
我正在根据公司的职位发布信息构建一个公司概览。我希望这能为面试准备等提供一个快速的公司快照。请注意,数据质量仍在完善中。示例网址:<a href="https:&#x2F;&#x2F;jobswithgpt.com&#x2F;company-profiles&#x2F;openai&#x2F;" rel="nofollow">https:&#x2F;&#x2F;jobswithgpt.com&#x2F;company-profiles&#x2F;openai&#x2F;</a> <a href="https:&#x2F;&#x2F;jobswithgpt.com&#x2F;company-profiles&#x2F;advanced-micro-devices-inc&#x2F;" rel="nofollow">https:&#x2F;&#x2F;jobswithgpt.com&#x2F;company-profiles&#x2F;advanced-micro-devices-inc&#x2F;</a>
1作者: ahmedm2414 天前原帖
RLM-MCP – 使用麻省理工学院的递归语言模型分析Claude Code中的大型文件。 我构建了一个MCP服务器,允许Claude Code分析超出其上下文窗口的文件,采用了麻省理工学院的递归语言模型方法(arXiv:2512.24601)。 问题:Claude Code无法将一个10GB的日志文件放入其上下文中。传统的grep/read返回数千个原始匹配的token。 解决方案:与其将数据塞入上下文,不如将文件视为外部环境。Claude编写Python代码,MCP服务器在完整文件上执行该代码,只有结果返回。 你:“在这个5GB的日志中找到所有错误” Claude:加载文件 → 编写正则表达式 → 在REPL中执行 → 返回匹配结果 结果:token减少78%,准确性相同 实际基准测试(300KB日志文件): - Grep/Read: 约12,500个token - RLM: 约2,700个token - 两者找到的结果完全相同 不需要API密钥 – 适用于Claude Code订阅。Claude本身是“大脑”,MCP服务器只是执行Python的“手”。 安装: ``` pip install rlm-mcp ``` 在Claude Code设置中添加: ```json {"mcpServers": {"rlm": {"command": "rlm-mcp"}}} ``` GitHub: https://github.com/ahmedm224/rlm-mcp 论文: https://arxiv.org/abs/2512.24601 欢迎对该方法提供反馈。麻省理工学院的论文是在GPT-5和Qwen上进行测试的 – 本文将其适配于Claude Code的MCP架构。
3作者: RobertSerber14 天前原帖
嗨,HN, 我一直在尝试让大型语言模型(LLMs)生成并持续修改小型商业应用程序(CRUD、仪表板、工作流)。第一次生成通常是有效的,但问题往往在第二次或第三次迭代时出现。 我看到的一些反复出现的失败模式包括: - 架构漂移,悄然破坏仪表板 - 指标在不同迭代中含义变化 - 用户界面组件以不兼容的方式查询数据 - 人工智能在局部修复某些内容时违反全局不变性 令人惊讶的是,大多数人工智能应用构建者将生成视为一次性问题,而实际应用是需要安全演变的长期系统。 我正在探索的方向是将应用程序视为运行时模型,而不是生成的代码: - 应用程序由结构化的、版本化的JSON/DSL(实体、关系、指标、工作流)定义 - 每个人工智能提出的更改在执行前都由后端进行验证 - 用户界面组件绑定到语义概念(指标、数据集),而不是原始查询 - 人工智能提出结构;运行时强制执行一致性 从概念上讲,这种方法更接近Kubernetes对基础设施的处理方式,或语义层在分析中的工作方式——但应用于完整的应用程序,而不仅仅是报告。 我很好奇: - 这里有没有人探索过类似的模式? - 是否有成熟的方法来控制人工智能驱动的架构演变? - 你认为语义层应该在应用程序运行时内部,还是应该仅限于分析? 我并不是在推销什么——我真心想了解其他人如何看待人工智能与长期应用状态的结合。 谢谢。
5作者: segmenta14 天前原帖
Claude Cowork刚刚推出,将代理型人工智能带入日常工作中。Rowboat是一个开源替代方案,能够构建持久的知识。 这里有一个快速演示:<a href="https://youtu.be/T2Bmiy05FrI" rel="nofollow">https://youtu.be/T2Bmiy05FrI</a> 它可以连接到Gmail和会议记录(如Granola、Fireflies),并将这些信息整理成与Obsidian兼容的知识库。使用普通的Markdown文件,带有反向链接,围绕人、项目、组织和主题等内容进行组织。随着新邮件和会议的到来,相关的笔记会自动更新。 Rowboat也是这个知识库的主要界面。您可以直接阅读、浏览、编辑和添加笔记。它包括一个完整的Markdown编辑器和图形可视化功能,让您能够看到上下文如何在对话中积累。 为什么不直接搜索转录文本来获取所需信息呢?搜索只能回答您想到的问题。一个能够随着时间积累上下文的系统,可以跟踪决策、承诺和对话中的关系,揭示您未曾想到的模式。 一旦这些上下文存在,它就成为Rowboat可以利用的知识。因为它运行在您的机器上,所以可以直接处理本地文件,并执行Shell命令或脚本,包括在需要时使用ffmpeg等工具。 标题中的链接打开一个互动示例图,展示了上下文如何在邮件和会议中积累。我们使用了创始人的示例,因为它自然地包含了项目、人员和长期对话,但这种结构适用于任何角色。 使用Rowboat可以做的事情示例:从积累的上下文中起草电子邮件,通过汇总过去的决策并结合外部研究(例如通过Exa MCP)为会议做准备,随着工作的发展在您的机器上组织文件和项目文档,或通过像ElevenLabs这样的MCP服务器将笔记转化为语音简报。 我们对噪音有明确的看法。我们优先关注重复的联系人、活跃的项目和正在进行的工作,而忽略一次性的电子邮件和通知。我们的目标是建立长期有效的知识,随着时间的推移不断积累。 所有数据都以普通Markdown格式本地存储。您可以通过Ollama或LM Studio使用本地模型,或使用托管模型。采用Apache-2.0许可证。 GitHub: <a href="https://github.com/rowboatlabs/rowboat" rel="nofollow">https://github.com/rowboatlabs/rowboat</a> 我们很好奇这如何融入您当前的日常工作流程中。
1作者: paulhilse14 天前原帖
Genie AI 是一款早期产品,利用人工智能生成社交媒体内容。我们专注于多帧帖子,如轮播和主题串,创建结构、节奏和品牌声音一致的内容,而非普通的输出。 这个职位涉及设计驱动文案生成的核心人工智能系统。它不是仅限于基础设施的角色,也不是仅限于提示的角色,更不是关于单行标题的工作。该工作涉及将说服力和人类判断转化为可扩展的人工智能系统。 该职位起初为兼职/咨询,适合合适的人选有明确的路径转为全职领导或首席技术官角色。 ## 职责 - 设计并构建多帧社交媒体文案的人工智能系统 - 实施管道、路由、约束和评估层 - 直接与大型语言模型(LLM)API(如 OpenAI、Anthropic 等)合作 - 诊断并修复人工智能输出在系统层面失败的原因 - 定义可交付输出的质量标准 - 随着系统的发展,与产品和战略团队合作 ## 我们寻找的人 - 有构建多帧社交媒体内容的人工智能系统的经验 - 能够在连续帖子中保持吸引点、节奏和叙事流 - 能通过系统设计提升输出质量,而不仅仅依赖提示 - 能够构建生产级系统 - 理解说服力、文案写作和人类判断,除了大型语言模型的机制 - 对结果和质量负责 ## 不适合的人 - 人工智能经验仅限于单行标题、博客或普通内容 - 只关注后端基础设施或开发运维 - 主要自我认同为提示工程师 - 在开始工作之前需要非常详细的规格 - 只对短期自由职业项目感兴趣 ## 技术要求 - 有生产软件经验 - 熟悉大型语言模型API - 有构建内部工具、产品或软件即服务(SaaS)的经验 - 能设计具有评估逻辑和反馈循环的模块化系统 ## 如何申请 提交一段简短的 Loom 视频,包括: - 你的背景 - 你为多帧或连续社交内容构建的人工智能系统 - 你与大型语言模型的经验 - 你的回答:<i>为什么大多数人工智能生成的文案感觉很普通,你会如何设计一个系统来解决这个问题?</i> 未附带 Loom 视频或相关系统示例的申请将不予考虑。