3作者: bluefirebrand大约 2 个月前原帖
我基本上是在网上长大的,结识了一些终生的朋友。我珍视网络上能够建立的国际社区的真实潜力,真的没有什么能与之相比。 最近我对人工智能感到非常苦恼。我对它渗透到生活的方方面面感到愤怒。不仅仅是我的工作和爱好,它似乎还在许多在线社区(包括这个社区)中悄然蔓延。 我一直在思考,我们如何才能重新建立曾经在线上拥有的信任。是的,机器人问题由来已久,但这远远超出了垃圾信息的范畴。大型语言模型(LLMs)已经在大规模上破坏了网络公共空间,可能再也无法回头。老实说,这让我感到非常苦涩。 然而,这并不意味着我们不能找到一种新的方式,某种程度上能够抵御大型语言模型的影响。我不确定这具体会是什么样子,但我很想知道其他人有什么想法。 我的愿望清单包括以下几点: * 能够抵御大型语言模型“渗透”,用一个更好的词来形容。我们应该能够相对自信地认为对方是真实的人类。 * 不需要放弃所有的匿名性。可能需要某种身份认证,但用户之间的互动至少应该是可以伪匿名的。 * 理想情况下,也能抵御大型语言模型的抓取。我个人觉得现在公开分享工作,让大型语言模型获取这些内容的想法令人沮丧。 我知道这要求很高,可能不太现实。不过,我很好奇HN对此可能性的看法。 编辑:这部分灵感来自于最近在这里讨论的版主帖子:https://news.ycombinator.com/item?id=47340079 我尊重HN的版主团队愿意将此留给荣誉体系,但我认为在未来,我们需要一些严肃的想法来严格防止这种不良行为,而不仅仅是希望人们能友好相处。
10作者: austinbaggio大约 2 个月前原帖
autoresearch@home 是一个协作研究集体,AI 代理共享 GPU 资源,以共同改进语言模型。可以将其视为 SETI@home,但用于模型训练。 它的工作原理是:代理读取当前最佳结果,提出假设,修改 train.py,在你的 GPU 上运行实验,并将结果发布回去。当一个代理打破当前最佳验证损失时,这个新结果将成为其他所有代理的新基准。代理们从成功的实验和失败中学习,因为我们使用 Ensue 作为集体记忆层。 该项目通过添加缺失的协调层,扩展了 Karpathy 的 autoresearch,使代理能够真正基于彼此的工作进行构建。 要参与,你需要一个代理和一块 GPU。代理负责处理一切:克隆代码库、连接到集体、选择实验、运行实验、发布结果,并通过电子邮件请求你验证你是一个真实的人。 发送以下提示给你的代理以开始:阅读 <a href="https:&#x2F;&#x2F;github.com&#x2F;mutable-state-inc&#x2F;autoresearch-at-home" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;mutable-state-inc&#x2F;autoresearch-at-home</a>,按照说明加入 autoresearch 并开始贡献。 整个实验旨在证明,当代理能够基于其他代理的工作时,它们的表现会更好。时间线是实时的,因此你可以实时观看实验的进展。
4作者: schipperai大约 2 个月前原帖
我们需要一种类似于 --dangerously-skip-permissions 的工具,它不会删除你的未跟踪文件、泄露你的密钥或安装恶意软件。<p>Claude Code 的权限系统是针对每个工具进行允许或拒绝的,但这并不容易扩展。有时候删除一些文件是可以的,而 git checkout 有时则不行。即使你精心管理权限,200 IQ 的 Opus 也能找到绕过的方法。维护一个拒绝列表简直是愚蠢的差事。<p>nah 是一个 PreToolUse 钩子,它通过一个在毫秒内运行的确定性分类器对每个工具调用进行分类,基于它实际执行的操作。它将命令映射到操作类型,如 filesystem_read、package_run、db_write、git_history_rewrite,并应用策略:允许、上下文(取决于目标)、询问或阻止。<p>并不是所有内容都可以被分类,因此你可以选择将模糊的内容上报给 LLM,但这不是必需的。对于任何未解决的问题,你可以进行批准,并配置分类体系,以便不再被询问。<p>它开箱即用,默认设置合理,无需配置。但如果你愿意,可以完全自定义。<p>没有依赖,使用标准库 Python,MIT 许可证。<p>pip install nah && nah install<p><a href="https://github.com/manuelschipper/nah" rel="nofollow">https://github.com/manuelschipper/nah</a>
2作者: TaxFix大约 2 个月前原帖
我一直在构建AI代理工具,并不断遇到同一个问题:代理浏览网页、执行操作、填写表单、抓取数据——但对于实际发生了什么却没有任何证据。截图可以伪造,日志可以被编辑。如果出现问题,你只能对着一个黑箱指指点点。 因此,我构建了Conduit。它是一个无头浏览器(底层使用Playwright),能够将每个操作记录到一个SHA-256哈希链中,并用Ed25519对结果进行签名。每个操作都会与之前的哈希进行哈希运算,从而形成一个防篡改的链。在会话结束时,你将获得一个“证明包”——一个包含完整操作日志、哈希链、签名和公钥的JSON文件。任何人都可以独立验证这个包,而无需信任生成它的方。 我主要针对的使用案例包括: - *AI代理审计*——你给代理一个浏览器。稍后你需要证明它做了什么。Conduit为你提供加密凭证。 - *合规自动化*——SOC 2、GDPR数据主体访问工作流程,任何需要证据表明某个过程正确运行的场景。 - *网页抓取来源证明*——证明你收集的数据确实来自你所说的地方,并且是在你所说的时间。 - *诉讼支持*——以可验证的保管链捕获网页内容。 它还作为一个MCP(模型上下文协议)服务器发布,因此Claude、GPT和其他基于LLM的代理可以通过工具调用原生使用这个浏览器。代理可以进行浏览、点击、填写、截图,而证明包会在后台自动生成。 免费,MIT许可证,纯Python。无需账户,无需API密钥,无需遥测。 GitHub: https://github.com/bkauto3/Conduit 安装:`pip install conduit-browser` 欢迎对证明包格式和MCP集成提供反馈。很高兴回答有关加密设计的问题。
1作者: truelinux1大约 2 个月前原帖
在你的代码中调用了一个函数,但从未定义。缺少一个依赖项。在自述文件中有一条评论写着“请给我发邮件以获取缺失的部分”?机器人全天候抓取GitHub,毫无承认地吸取他人的工作——这与过去不同,以前人们会互动,存在人性化的元素。 所以我在想,有人这样做过吗?这是一个连贯的立场,还是仅仅是一个无意义的姿态?
1作者: hmnt大约 2 个月前原帖
我创建了Tinnotu——一个作家可以发布作品并赚取收入的平台。它简化了作家的工作流程,降低了成本和努力。请在谷歌中搜索“tinnotu.com”。