4作者: captainkrtek大约 2 个月前原帖
我在几条评论中提到过这个问题,但想要展开一个更大的讨论。 有些观点认为,使用大型语言模型(LLMs)来编写代码只是我们作为工程师所使用的一种新的高级语言。然而,这在代码审查时会导致一种脱节,因为被审查的代码是生成该代码过程的产物。如果我们现在通过自然语言(提示、规划、编写,作为新的“编程语言”)来表达自己,但只将生成的产物(实际代码)提交审查,那么我们如何才能全面审查它呢? 我最近感到有些困惑,似乎缺少了关于如何产生这些变化的上下文,包括计划、提示等,以理解工程师是如何得出这个具体代码变更的。他们是一次性完成的,还是花了几个小时进行提示、迭代等?或者是介于两者之间的情况? PR中的总结通常说明了变化是什么,但并不包含完整的对话或我们是如何得出这个具体变化的(权衡、替代方案等)。 在你们的组织中,如何进行PR审查?你们是否制定了任何规则、自动化流程等?
1作者: xodn348大约 2 个月前原帖
我在寻找高质量讨论时感到沮丧,因此开始了这个项目,以更好地理解这个社区的运作方式。 这促使我构建了 readhn,这是一个 MCP 服务器,旨在帮助实现三件事: - 发现:通过关键词、评分和时间窗口找到相关的故事/评论 - 信任:使用类似 EigenTrust 的传播方法,从种子专家那里识别可信的声音 - 理解:展示每个结果的排名原因,提供明确的信号,而不是黑箱评分 它包含六个工具:discover_stories、search、find_experts、expert_brief、story_brief 和 thread_analysis。 我还添加了 readhn setup,以便 AI 代理(如 Claude Code、Codex、Cursor 等)在 pip install 后可以自动配置。 我希望能收到以下方面的反馈: 1) 这些排名信号是否与您评估 HN 质量的方式相匹配, 2) 信任模型的权衡, 3) 什么会使这个工具在您的日常工作流程中更有用。 如果您觉得这对您有帮助,给这个仓库加星可以帮助其他人发现它: [https://github.com/xodn348/readhn](https://github.com/xodn348/readhn)