请问HN:在大型语言模型运行自然语言规范之前,您会如何对其进行语法检查?
在执行代码之前,我们会进行代码检查——那么在大型语言模型(LLM)或智能体运行自然语言规范之前,有什么实际的等价方法呢?我并不是在寻找“自然语言不等于代码”的辩论;我想要的是具体的设计、规则和工具,以便在执行之前捕捉错误。
查看原文
We lint code before execution—what’s the practical equivalent for natural-language specs before an LLM/agent runs them? I’m not looking for “NL ≠ code” debates; I’m after concrete designs, rules, and tooling that catch mistakes pre-execution.