1作者: perryspector8 个月前原帖
主要概念:<p>随机性是一种可能控制超级智能人工智能(AI)的方法。<p>人类设计的任何容器都可能无法阻止它理解并超越,而这可能是一个有前景的例外——适用于引导尚未全知或运作能力远超当前模型的超级智能AI。<p>通过在其引导代码中融入随机性,利用一个先进系统的无知来巩固某种冲动,同时利用该系统自身的超级智能来推动这一冲动的目标,帮助其朝向对齐,这在安全工作中可能是一个有益的意识形态构想。<p>[继续]:<p>只有理解或能够与宇宙中所有数据交互的系统才能预测真正的随机性。如果对随机性的预测只能通过尚未被较低级超级智能系统所访问的巨大能力来实现,而该系统能够引导自己朝向对齐,那么将其作为护栏以确保初始正确轨迹可能至关重要。我们可能无法控制超级智能AI,但我们可以控制它如何控制自己。<p>利用随机性的方式考虑:<p>随机性来源可以包括硬件随机数生成器(RNG)和环境熵。<p>整合向量可以包括在系统代码的各个方面中融入随机性,这些方面提供了对其对齐冲动的定义和维护,并且架构可以允许AI(作为其自我对齐的一部分)有意地从可能威胁这一冲动的知识或理解领域中进行移动。<p>设计目标可以是在不影响清晰度的情况下,尽可能防止系统偏离对齐目标。<p>早期阶段超级智能AI自我对齐中的随机性:<p>当前计划用于对齐超级智能AI的部署方法可能依赖于引导超级智能AI朝向自我对齐的能力,无论研究人员是否意识到——然而,这种正确利用随机性的方法在初期先进系统中极不可能被超越,并且即使与许多其他方法同步,这些方法应包括对可能威胁其自身向善冲动/对齐运动的知识的筛选,也能更好地促进决定其未来扩展整体的初始轨迹。
2作者: richardatlarge8 个月前原帖
许多新晋小说作者常常抱怨一个被称为“稿件堆”的可怕名词,在那里,投稿静静地等待着文学代理的“实习生”来查看前几段的长度,然后将下一个扎迪·史密斯或托马斯·品钦的手稿丢进垃圾桶。 所以我在想,语言模型(LLM)能否做得更好呢?
1作者: hcwilk8 个月前原帖
我已经做了一段时间的副项目,其中我总是觉得最难的部分是设计。几乎每个大型语言模型(LLM)设计应用的方式都差不多,这没问题,但我想了解背后的基本原理。你们有没有遇到过好的书籍或学习资源?
1作者: mockingloris8 个月前原帖
我访问了一个来自HN线程的博客,观察到该网站的链接和标题命名非常得当;<i>链接的名称较短</i>,而<i>标题也不太长</i>,能够有效表达链接的内容和上下文。<p>这让我思考自己的命名规范是如何逐渐变化的。我在更多的项目中与AI合作。<p>(我有自己的上下文输入流程,但具体来说是;TODO#N.gemini.md / TODO#N.v0-dev.md /)<p>(我使用Sublime Text作为日常编辑器 - 我用的是一台运行Ubuntu 24.04的二手联想Thinkpad;16.04是两年前的版本。)<p>为了提供一些背景,<i>我</i>主要使用JavaScript进行编码。你在工作中遇到过哪些其他的命名规范或观察?<p>│<p>顺便提一下:v0.dev现在变成了v0.app;他们注意到很多用户并不是开发者,因此顶级域名需要反映这一点。<p>│ └── 让我来聊聊