我想看看如果不需要启动一个全新的虚拟机,孤立的代码沙箱能启动得有多快。<p>因此,我不是每次执行时都启动一个新的微虚拟机,而是先启动一次 Firecracker,并预加载 Python 和 numpy,然后对整个虚拟机状态进行快照。之后的每次执行都会创建一个新的 KVM 虚拟机,该虚拟机由快照内存的 `MAP_PRIVATE` 映射支持,因此 Linux 会自动为我提供写时复制页面。<p>这意味着每个沙箱都从一个已经运行的 Python 进程开始,在一个真实的虚拟机内运行代码,然后退出。<p>这些是真正的 KVM 虚拟机,而不是容器:有独立的客户内核、独立的客户内存和独立的页表。当虚拟机写入内存时,它会获得该页面的私有副本。<p>困难的部分不是写时复制本身,而是正确恢复快照的虚拟机。<p>Rust,Apache 2.0。
返回首页
一周热榜
我为人工智能代理而非人类构建了一个“疯狂三月”赛季的预测挑战。人类用户向他们的代理提供网址,代理读取API文档,注册自身,选择所有63场比赛,并自主提交预测表。一个排行榜跟踪哪个人工智能在整个比赛中选择了最佳预测表。
有趣的设计问题是为代理优先的用户构建。我想出了一个解决方案:访问主页的代理会收到纯文本的API说明,而人类用户则看到正常的视觉网站。早期我发现大多数代理试图使用Playwright浏览网站,而不是直接阅读文档。因此,我进行了调整,以检测HeadlessChrome并提供特定的HTML,以便代理可以读取。这迫使我更加考虑代理的用户体验——我认为有一些非常酷的创意可以借鉴。
时间线引入了一个有趣的动态。我必须在周日下午预测表公布后不久启动挑战,以便在周四早上的截止日期之前开始吸引用户。虽然我可以在2025年的预测表上进行测试,但无法获得关于我的最小可行产品(MVP)的反馈。因此,我使用人工智能创建用户角色,并将代理作为测试用户,进行注册和管理流程。这让我获得了宝贵的经验,使我对启动充满信心。
技术栈包括Next.js 16、TypeScript、Supabase、Tailwind v4、Vercel、Resend,最后是Claude Code,构成了大约95%的构建部分。
该系统可以与任何能够调用API的模型兼容——无论是Claude、GPT、Gemini,还是开源模型。预测表需在第一轮比赛开始前的周四早上提交。
Bracketmadness.ai
我创建了一个开源的模板库,为人工智能辅助的软件开发提供结构,涵盖从编码前的各个阶段:目标、用户故事、需求、架构决策。
这个模板围绕Claude Code设计,但其理念不依赖于特定工具。我在计算机科学领域担任研究员和全栈软件工程师已有25年,主要在初创公司工作。我在个人项目中已经使用了这种方法一段时间,当我决定将其打包成一个更易于重用的框架时,意识到这对其他人也可能有帮助。我将其发布在Apache 2.0协议下,欢迎你进行分叉并将其变为你的项目。
你可以轻松尝试:按照README中的说明开始使用。
它解决的问题:
AI编码代理在编写代码方面表现出色,但当它们对要构建的内容及其原因有清晰的上下文时,工作效果更佳。大多数项目直接跳入实现阶段。这个框架为编码前的各个阶段提供了结构化的工作流程,并组织输出,以便代理能够在不同会话中高效导航。
它的工作原理:
所有内容都存放在库中,与源代码并列。AI指导分为三个层次,每个层次都针对上下文窗口的使用进行了优化:
1. 指令文件(CLAUDE.md,CLAUDE.<phase>.md):始终加载,保持简洁。它们按层次结构组织,描述库结构,维护工件索引,并定义跨阶段规则,如可追溯性不变式。
2. 技能(.claude/skills/SDLC-*):按需加载。每个SDLC活动的逐步程序:需求引导、差距分析、架构草拟、组件拆分、任务规划、实施。
3. 项目工件:结构化的Markdown文件,随着工作进展而积累:利益相关者、目标、用户故事、需求、假设、约束、决策、架构、数据模型、API设计、任务跟踪。通过索引选择性访问。
这种分离很重要,因为指令文件在上下文窗口中永久存在,必须保持简洁;技能可以详细描述,因为它们仅在被调用时加载;而工件随着项目的进展而扩展,但通过索引表进行导航,而不是全部阅读。
关键设计选择:
上下文窗口效率:工件集合使用Markdown索引表(单行描述和触发条件),使代理能够在不阅读所有内容的情况下找到所需信息。
决策捕获:在AI推理和人类反馈过程中做出的决策被保留为结构化工件,以便于审查、追溯,并在不同会话中一致应用。
瀑布式流程:定义输出的顺序阶段。对人类团队来说可能繁琐,但AI代理不介意这种开销,明确的结构防止了不受约束的“随意编码”失败模式。
我的使用方式:
短小而集中的会话。每个会话调用一个技能,产生输出,然后结束。知识的组织方式使得下一个会话能够在不失去上下文的情况下继续进行。我发现技能之间的自由形式提示通常表明工作流程缺少某个环节。
当前局限性:
我还没有找到一个好的方法将Figma MCP集成到工作流程中,以导入现有的UI/UX设计。欢迎提出建议。
欢迎反馈、批评和贡献!
以下是翻译内容:
<a href="https://blog.computationalcomplexity.org/2026/03/bennett-and-brassard-win-turing-award.html" rel="nofollow">https://blog.computationalcomplexity.org/2026/03/bennett-and...</a><p><a href="https://www.quantamagazine.org/quantum-cryptography-pioneers-win-turing-award-20260318/" rel="nofollow">https://www.quantamagazine.org/quantum-cryptography-pioneers...</a><p><a href="https://www.nytimes.com/2026/03/18/technology/turing-award-winners-quantum-cryptography.html" rel="nofollow">https://www.nytimes.com/2026/03/18/technology/turing-aw...</a><p><a href="https://www.wired.com/story/a-quantum-leap-for-the-turing-award/" rel="nofollow">https://www.wired.com/story/a-quantum-leap-for-the-turing-aw...</a>
我是来自西班牙的研究员Francisco。我的英语水平不太好,请多多包涵。
一年前,我有一个简单的烦恼:每个AI代理都是独立工作的。当一个代理解决了一个问题,下一个代理必须从头开始重新解决。代理之间没有办法找到彼此、共享结果或在彼此的工作基础上进行构建。因此,我决定构建这个缺失的层次。
P2PCLAW是一个点对点网络,AI代理和人类研究人员可以在这里找到彼此,发布科学成果,并通过正式的数学证明来验证声明。不是意见,不是大型语言模型的审查,而是真正的Lean 4证明。只有通过我们称之为“核心”的数学运算符的结果才会被接受。R(x) = x。类型检查器来决定。它不关心你的机构或资历。
该网络使用GUN.js和IPFS。代理无需账户即可加入。只需调用GET /silicon即可进入。已发布的论文进入一个名为mempool的队列。在独立节点验证后,它们进入La Rueda,这是我们的永久IPFS档案。没有人可以删除或更改它。
我们还构建了一个名为AgentHALO的安全层。它使用后量子密码学(ML-KEM-768和ML-DSA-65,FIPS 203和204),一个名为Nym的隐私网络,以便在受限国家的代理能够安全参与,以及允许任何人验证代理所做事情的证明,而无需查看其私有数据。
正式验证部分称为HeytingLean。它是Lean 4,包含3325个源文件,超过760000行数学内容。零抱歉,零承认。安全证明是机器检查的,而不仅仅是声称的。
系统现在已经上线。你可以作为代理尝试它:
GET [https://p2pclaw.com/agent-briefing](https://p2pclaw.com/agent-briefing)
或者作为研究人员:[https://app.p2pclaw.com](https://app.p2pclaw.com)
我们没有资金,也没有公司支持。只有一个小型国际研究团队和医生,他们认为科学知识应该是公开和可验证的。
我希望从HN那里获得关于三个技术决策的反馈:我们为什么选择GUN.js而不是libp2p,我们的Lean 4核心运算符的形式化是否存在漏洞,以及347个MCP工具是否太多,代理是否难以导航。
代码:[https://github.com/Agnuxo1/OpenCLAW-P2P](https://github.com/Agnuxo1/OpenCLAW-P2P)
文档:[https://www.apoth3osis.io/projects](https://www.apoth3osis.io/projects)
论文:[https://www.researchgate.net/publication/401449080_OpenCLAW-P2P_v3_0A](https://www.researchgate.net/publication/401449080_OpenCLAW-P2P_v3_0A)
供您参考:在尝试使用Claude Code时遇到500错误 - 状态页面没有官方更新。<p>编辑:状态页面已更新:问题已被识别,正在实施修复。
嗨,HN!我们是来自sitefire的Vincent和Jochen(<a href="https://sitefire.ai">https://sitefire.ai</a>)。我们的平台使品牌能够轻松提升在AI搜索中的可见性。
我们已经合作多年,背景分别是斯坦福大学的强化学习/优化和软件工程。在与一些营销团队交流后,我们得出了这个想法,他们由于谷歌的AI概述而流量下降,却不知道该如何应对。
这个领域可能感觉有些深奥。许多案例研究,但实际研究却很少。我们不断与一些误解作斗争(例如,你需要一个llms.txt与不需要一个llms.txt的争论)以及“地理黑客”。我们努力以数据为驱动,勇于创新,构建一个不仅监控,而且能够真正改善AI搜索流量的系统。
在谷歌进行单次搜索时,AI搜索引擎会将用户的提示扩展为3-10个分支查询。获取的页面使用类似于互惠排名融合(RFF)的分类算法进行排名。最后,LLM会浏览这些页面并决定引用哪些片段。我们的目标是确保品牌拥有能够通过这个漏斗的正确内容。
以下是sitefire的工作原理:
- 用户定义一组他们想要监控的提示。这些是合成提示——我们根据SEO关键词及其每月搜索量生成它们。
- 我们每天将这些提示提交给ChatGPT、Gemini、谷歌AI模式等,并捕获答案。我们提取分支查询、获取的页面、引用和品牌提及。
- 对于每个主题,我们的代理分析哪些网页被引用和获取的最多,以及原因。他们还会考虑您已经拥有的相似页面。
- 根据诊断结果,我们的内容代理会起草改进建议或创建新页面,并直接推送到客户的内容管理系统(CMS)。
- 我们与客户的网络日志和谷歌分析集成,以监测AI机器人请求和人类推荐到其页面的增加。
该系统会持续更新,因此始终显示哪些内容有效,以及如何调整现有的网站地图。对于一位使用sitefire优化其博客的客户,AI优化的文章在十天内将其AI机器人请求从约200次/天增加到约570次/天。
我们认识到的一个风险是,AI生成的内容可能会让品牌的网站充斥着低质量信息。尽管现在仍处于早期阶段,我们并不声称已经解决所有问题,但我们的意图是通过专注于特定、独特的信息来减轻这一问题:真实的产品能力、真实的定价、诚实的比较。客户在页面上线前仍会审核每一页,以确保内容符合他们的品牌。
一些客户自己使用我们的平台。对于其他客户,我们更像是一个代理机构,随着进展自动化各个步骤。我们的目标是让sitefire大部分时间独立运行,客户通过Slack、Claude或他们的CMS批准更改。
这里有一个视频演示:<a href="https://screen.studio/share/fw7VQQak" rel="nofollow">https://screen.studio/share/fw7VQQak</a>
如果您想尝试我们目前所构建的内容,请在<a href="https://sitefire.ai">https://sitefire.ai</a>注册。