嘿,HN,
我和我的联合创始人对 CC 忽视我们的 Markdown 文件感到厌倦,因此我们花了 4 天时间开发了一个插件,能够根据我们之前的会话自动引导 CC。问题通常出现在计划模式之后。
我们尝试过的方式:
- 大量使用计划模式(效果很好)
- CLAUDE.md、AGENTS.md、MEMORY.md
- 本地上下文文件夹(维护起来很麻烦)
- 光标规则(针对光标)
- claude-mem(开源)——实现会话连续性,但不进行引导
我们使用融合搜索来找到你的 CC 引导修正。
- 用户提示嵌入 + bm25
- 修正嵌入 + bm25
- 时间衰减
- 目标查询嵌入
- 排除项
- 元数据硬过滤器(例如文件)
CC 插件:
- 自动捕捉记忆/修正,无需你提醒 CC
- 自动注入修正,无需你提醒 CC 去做
该插件会合并、更新并提炼你的记忆,然后在你每次提示后注入最相关的内容。
我们不确定是否只有我们在做这个。我们正在进行一些基准测试,以查看上下文注入在引导 CC 方面的实际效果,并且我们知道需要继续改进提取、搜索,并增加更多集成。
我们对为代理提供实时和个性化的上下文层充满热情。让代理理解你说的“这个”或“那个”的意思。将你世界的上下文带入一个安全、结构化、实时的层面,所有代理都可以访问。
希望能得到你们的反馈,关于你们如何让 CC 实际遵循你的 Markdown 文件,理解你的工作方式,关于插件的反馈,或任何其他关于实时记忆和上下文的内容。
- Ankur
返回首页
最新
我一直在尝试一些有趣的东西。<p>AI 编码工具能够非常快速地生成代码,但几乎从未生成完整的端到端测试覆盖率。它们创建了大量的测试,主要是单元测试和集成测试,但缺少真实用户场景。在我们查看的许多代码库中,一旦团队开始使用 Copilot 风格的工具,新代码与少量高质量的端到端测试的比例急剧下降,或者这些工作被留给测试人员作为单独的任务。<p>因此,我尝试了一种不同的方法。<p>该系统读取拉取请求并:<p>• 分析更改的文件
• 识别未覆盖的逻辑路径 - 使用依赖图(单个代码库或多个代码库)
• 通过用户故事或需求理解上下文(作为 PR 中的评论提供)
• 生成测试场景
• 产生与 PR 关联的端到端自动化测试<p>此外,如果用户能够连接到他们的内容管理系统(CMS)或翻译管理系统(TMS),那么这些信息也可以被拉入。(我内部使用的是 graphRAG,但那是另一个话题)<p>示例工作流程:<p>1. 提交一个拉取请求
2. 系统读取差异 + 关联的 Jira 票据
3. 生成缺失的测试和覆盖率报告<p>在早期实验中,该系统始终能够发现开发人员遗漏的边缘案例。<p>示例输出:<p>代码引用 | 需求 ID | 需求/验收标准 | 测试类型 | 测试 ID | 测试描述 | 状态
src/api/auth.js:45-78 | GITHUB-234 / JIRA-API-102 | API 应该对无效令牌返回 400 | 集成 | IT-01 | 验证无效令牌的响应 | 通过<p>我很好奇其他人如何看待这种可追溯性。我也是一名开发人员,因此我很敏感,只向开发人员展示这些信息,只有开发人员才能将其展示给其他人,否则他可以直接采取纠正措施。
我开发了一款 macOS 语音听写应用,确保您的机器上不会有任何音频数据外泄。<p>EdgeWhisper 在 Apple Silicon 上通过 MLX 框架本地运行 Voxtral Mini 4B 实时模型(Mistral AI,Apache 2.0)。按住一个键,说话,然后松开——文本会出现在您当前聚焦的应用程序中的光标位置。<p>架构:
- 原生 Swift(SwiftUI + AppKit)。不使用 Electron。
- 通过 MLX 在神经引擎上进行 Voxtral 4B 推理。模型大小约为 3GB,在 M1 及以上设备上运行时占用约 2GB 内存。
- 双重文本注入:使用 AXUIElement(保留撤销栈)和 NSPasteboard+CGEvent 作为后备。
- 六阶段后处理管道:去除填充词 → 字典 → 片段 → 标点 → 大写 → 格式化。
- 滑动窗口 KV 缓存,实现无限流媒体传输而不降低延迟。
- 可配置的转录延迟(240ms–2.4s),最佳设置为 480ms。<p>它的优势:
- 在 20 多种终端/集成开发环境(VS Code、Xcode、iTerm2、Warp、JetBrains)中均可使用。大多数听写工具在终端中无法正常工作——我们能够检测到并切换注入策略。
- 自动去除填充词(“呃”、“啊”、“像”)。
- 支持 13 种语言并具备自动检测功能。
- 个人字典 + 片段扩展,支持变量({{date}}、{{clipboard}})。
- 在下载模型后完全离线工作。无需账户,无需遥测,无需分析。<p>尚未实现的功能(未来会有):
- 不支持文件/会议转录(即将推出)
- 不支持翻译(即将推出)
- 不支持 Linux/Windows(仅限 macOS,需 Apple Silicon)<p>定价:免费套餐(每天 5 分钟,无需账户)。专业版每月 7.99 美元或每年 79.99 美元。<p>我希望能得到以下反馈:
1. 本地 LLM 后处理(例如,通过 MLX 的 Phi-4-mini)用于语法/语调是否值得额外占用约 1GB 内存?
2. 对于使用语音转代码工作流程的开发者:您希望将什么上下文传递给您的编辑器?
3. 还有其他人在基于 Voxtral Realtime 开发吗?想了解您与因果音频编码器的使用体验。
我一直在探索联盟营销,并注意到一些有趣的现象:在像ClickBank和亚马逊这样的市场上,有成千上万的产品,但令人惊讶的是,几乎没有工具可以帮助联盟评估某个产品是否真的值得推广。
很多人似乎依赖一些粗略的经验法则,例如:
- 市场指标(例如ClickBank上的重力值)
- 产品页面质量
- 细分市场竞争
- 佣金大小
我开始构建一个小工具,尝试将这些信号结合成一个简单的产品“评分”,主要是作为个人项目。我很好奇更有经验的联盟是如何处理这个问题的。
具体来说:
- 在评估产品时,哪些信号实际上最重要?
- 像重力值这样的市场指标是有用的还是具有误导性的?
- 在决定推广某个产品之前,您希望能快速看到哪些信息?
我非常希望听到大家对此问题的看法。
llms.txt 解决了一个实际问题。它为人工智能工具提供了一种理解网站的方式。这个想法已经获得了一定的关注。但对于人类来说,没有类似的东西。我认为这可能会成为一个趋势。让我们看看 Hacker News 的看法。
每个人工智能工具都有某种版本的“自定义指令”,但这些指令被锁定在该工具内部。从 ChatGPT 切换到 Claude 再到 Gemini,每次都要从头开始。你的声音、偏好和专业知识,统统消失。
identity.txt 是一个简单的文本 Markdown 文件(与 llms.txt、humans.txt、robots.txt 采用相同的理念),它捕捉了你在人工智能工具中的身份。将其放置在你的域名下的 identity.txt 或者粘贴到任何上下文窗口中。
该规范故意保持简洁:
```
- H1 标题为你的名字
- H2 部分包括声音、专业知识、背景、偏好、条款
- 一个包含机器可读同意的条款部分(开放、署名、仅限提示、限制、无)
```
条款部分可能很有趣。这就像是个人身份的 robots.txt。是一种社会契约,而不是法律契约。我们认为同意和身份在某些方面是重叠的,这值得深入探讨。我们现在确实没有答案,但对问题持开放态度。
我们还在 identitytxt.org 上实验托管身份文件。你可以通过 Google 进行身份验证,选择一个用户名,并获得一个永久 URL。但自托管是主要的使用案例。托管版本只是为了方便。也许吧,我们不确定。
请注意,这仍处于早期实验阶段。我们构建这个工具是因为我们总是在每次与人工智能的对话中粘贴相同的上下文,认为应该有一种约定。该规范采用 CC-BY 4.0 许可,并在 GitHub 上发布: [https://github.com/Fifty-Five-and-Five/identitytxt](https://github.com/Fifty-Five-and-Five/identitytxt)
我们真心希望了解这个想法是否引起共鸣,或者是否有其他方式解决这个问题。我们还缺少什么?
[https://identitytxt.org](https://identitytxt.org)