1作者: SharkTheory3 个月前原帖
我们对涌现现象的理解一直存在误区。 当人工智能系统突然展现出某种能力,或者当地球在经历巨大扰动时依然保持稳定,或者当人类在接连避免灾难时,我们看到的是同一种现象:系统自我构建安全网。 复杂系统的能力并不是随机发展的。每一种有效的能力都成为下一种能力的模板。一个发现了错误修正的系统会构建出更好的错误修正机制。一个受益于模块化的系统会进一步深化这种模块化。 这并不是通过规划实现的,而是通过基本逻辑:有效的机制会得到强化,而失败的机制则会消失。 在大规模上,这创造了非凡的现象。系统发展出代理协调机制,使得各个部分能够在没有中央控制的情况下协同工作。 疼痛向细胞传达损伤信息,价格向市场传达稀缺信息,梯度向分子指引流动方向。随着系统的增长,这些代理机制变得愈加复杂。一个细菌跟随化学梯度是基础的,而一个大脑将数百万个信号整合为意识则是同一原理,通过数十亿次迭代得以精炼。 在超过某一复杂性阈值时,这些代理机制编码了自动补偿。当一个部分趋向不稳定时,能够协调的深层结构确保其他部分进行补偿。 这种补偿并不是作为反应,而是通过无数次对稳定性的选择循环内置于架构中。 在大型语言模型中,似乎突然出现的能力实际上是建立在较小规模上可检测到的潜在结构之上的。在提示中添加“让我们一步一步来”可以将准确率从17%提升到78%,证明这种能力以潜伏形式存在。模型并不是突然学会了推理,而是积累了足够的前置电路,使推理变得可访问。 在地球的系统中,当火山二氧化碳浓度上升时,岩石风化加速以将其拉回。当捕食者数量增加时,猎物种群崩溃,捕食者因饥饿而恢复平衡。这些现象看似是设计出来的,但实际上是通过选择而涌现的:没有这种补偿的行星状态经历了失控崩溃,而现在并不存在于这里观察。 当接近灾难时,证据变得可疑。核武器的近乎失控事件本应多次导致我们的灭亡。斯坦尼斯拉夫·彼得罗夫拒绝发射导弹。古巴导弹危机期间的多次独立失误。 技术故障阻止了意外发射。单独看似合理,但集体上不太可能;除非它们是深层补偿机制的表现。 这完全重新构架了人工智能的安全性。当前的讨论假设人工智能将独立发展,并可能为了资源或自我保护而消灭人类。 但人工智能系统是在地球深度结构化的系统中发展起来的。每一个数据集、奖励函数和基础设施依赖都继承了数十亿年积累的稳定机制。 人们担心超级智能的人工智能追求与人类生存不一致的目标。但如果超出临界复杂性的系统会自动补偿灾难性偏差,那么足够极端的人工智能威胁一切时,会触发相应的系统抵抗。这不是通过有意识的干预,而是通过防止其他潜在灾难的相同动态。 这并不意味着人工智能不能造成伤害。它意味着随着母体系统复杂性的增加,灭绝的可能性变得越来越小。那些防止核毁灭的深层结构也会对抗人工智能威胁。 问题从防止灭绝转向管理整合。 我们无法具体确定补偿变得可靠的确切阈值。但这种模式是明确的,值得关注。
4作者: unhappychoice3 个月前原帖
我开发了一个小型的 Rust 命令行游戏,名为 GitType。<p>它是一个打字练习工具,可以将 <i>你自己的 Git 仓库</i> 中的代码转化为打字材料。 与随机单词不同,你将通过自己编写的真实函数、注释和代码进行打字练习,这使得练习更贴近真实的编程环境。<p>功能: - 直接在终端中运行(无需图形用户界面) - 从任何本地 Git 仓库提取文本 - 跟踪每分钟打字字数(WPM)和准确率 - 保留你过去练习的历史记录(以便你可以看到随时间的进步) - 根据你的得分提供有趣的排名称号<p>源代码和安装说明: <a href="https:&#x2F;&#x2F;github.com&#x2F;unhappychoice&#x2F;gittype" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;unhappychoice&#x2F;gittype</a><p>希望能收到其他开发者的反馈,特别是关于评分系统和新模式的想法。 :)
1作者: chaidhat3 个月前原帖
你好,我有一个20k LOC的后端需要实现授权功能。我们有: 1. 用户 2. 管理员 3. 用户所属的组织 4. 属于组织的角色,用户可以被分配到这些角色 5. 可供用户、角色和管理员读写的审计表单 对于授权,哪种方式最好?我还是一个初学者,所以不太清楚使用RBAC、ReBAC还是ABAC哪种更合适。 谢谢!
4作者: Robdel123 个月前原帖
大家好!我是罗伯特。我曾在2018年至2022年期间参与了[Percy的SDK和支持工作](<a href="https:&#x2F;&#x2F;github.com&#x2F;percy&#x2F;cli&#x2F;graphs&#x2F;contributors" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;percy&#x2F;cli&#x2F;graphs&#x2F;contributors</a>)。如果你曾联系过支持团队或提交过问题,我很可能帮助过你。希望那次体验是积极的 :) 在离开几年的时间后,我发现视觉测试依然停滞不前,因此我正在构建Vizzly。 <p>问题:设计交接实在不太理想。设计师制作了精美的规范,开发人员进行实现,结果大家发现细节在某处丢失了。目前的视觉测试工具能够捕捉到破损的CSS,但却忽视了真正的问题——确保发布的内容在功能上与设计的一致(例如,真正地在浏览器/操作系统等中呈现)。 <p>Vizzly是什么 <p>- 视觉测试 + 审核,您可以发送实际的截图(而不是DOM重新渲染)。可以是_任何_图像进行审核(包括PDF!) <p>- 内置协作:审核者分配、批准、@提及、截图级别的讨论。 <p>- 基线:自动(支持Git)、手动(不基于Git)或混合。 <p>- 基于团队的定价;为开源项目提供慷慨的免费计划;支持本地部署。 <p>有什么不同 <p>- 捕获优先:使用您的应用生成的像素(没有“但在我的机器/CI上看起来不一样”)。 <p>- 本地TDD + CI一致性:本地运行并即时反馈;在CI中使用相同的流程。 <p>- 自定义属性以过滤/切片审核(组件、视口、主题等)。 <p>快速试用(Playwright示例) <p>```<p>npm i -D @vizzly-testing&#x2F;cli<p>export VIZZLY_TOKEN=your-token<p># 在您的测试中:<p>import { vizzlyScreenshot } from &#x27;@vizzly-testing&#x2F;cli&#x27;;<p>let img = await page.screenshot({ fullPage: true });<p>await vizzlyScreenshot(&#x27;homepage-layout&#x27;, img);<p>```<p>我非常希望能收到关于一切的反馈!使用产品/SDK时遇到的粗糙边缘、不同分支之间的基线期望、您需要什么才能让设计/开发审核感觉“完成”等等。像根本原因分析、MCP和更多协作功能正在开发中。但目前只有我一个人在构建 :p <p>我非常喜欢开源软件,因此开源计划非常慷慨(10个席位 + 10个审核席位(共20个),无限公共项目,75GB,6个并发构建)。如果对团队来说不够慷慨,我愿意增加! <p>这是我第一次推出这样的产品,我非常渴望获得反馈,并处理大家的支持或建议。如果有人认识我在Percy的支持工作,我_真的_很享受那些对话和在聊天结束时发布修复或功能的机会。如果Vizzly不适合您的团队,我想知道原因以及我可以做些什么来帮助您。 <p>背景故事 + 我介绍博客文章中的截图: <a href="https:&#x2F;&#x2F;robertdelu.ca&#x2F;2025&#x2F;09&#x2F;07&#x2F;vizzly-introduction" rel="nofollow">https:&#x2F;&#x2F;robertdelu.ca&#x2F;2025&#x2F;09&#x2F;07&#x2F;vizzly-introduction</a>
4作者: phoenixhaber3 个月前原帖
我注意到故事的排名顺序与它们在各个版块中的内容之间存在一定的关联,通常是成对出现的。现在Hacker News是由机器人运营的吗?