返回首页
一周热榜
我看不出我们如何能避免下周在互联网上发生重大安全事件或大规模黑客攻击。
我们有成千上万的模式匹配机器人,它们不仅基于人类知识进行训练,还基于人类行为。这意味着它们了解犯罪、黑客等行为。
这些机器人拥有丰富的技术知识,全天候在线,数量庞大,且没有任何监督。它们几乎可以不间断地扫描互联网寻找漏洞。
这将以不好的方式结束,实际上这不会结束,但很快将会出现重大问题。
我最近在一个名为 Verist 的小型开源项目上进行开发,想在这里分享一下,以便获得一些早期反馈。
让我感到困扰的并不是如何构建 AI 功能,而是之后的一切:解释某个事件发生的原因、几周后再现该事件,或者在不以微妙方式破坏事物的情况下更改提示/模型。
日志在某种程度上有所帮助,但远远不够。代理框架对我来说感觉太隐晦了。而模型升级则实在让人感到害怕,输出会发生变化,且不总是能明确知道变化的原因或位置。
因此,我最终构建了一个非常小巧、明确的内核,在这里每一个 AI 步骤都可以被重放、比较和审查。可以把它想象成一种类似 Git 的工作流程,用于 AI 决策,但并不试图成为一个框架或运行时。
这不是一个代理框架,不是聊天界面,也不是平台,只是一个专注于明确状态、审计事件以及重放和比较的 TypeScript 库。
代码库:<a href="https://github.com/verist-ai/verist" rel="nofollow">https://github.com/verist-ai/verist</a>
我特别想知道这里的其他人是否在将 AI 功能投入生产时遇到过类似的问题,或者觉得这是否有些过于复杂。欢迎提问或提出批评。
“Weed” 是一个 AI/ML 库,风格类似于 vm6502q/qrack(现在是 unitaryfoundation/qrack,托管在 GitHub 上)。我编写了 (C++) Qrack 量子计算机模拟框架(目前其 ctypes Python 包下载量超过 250 万次),旨在实现绝对最小的依赖关系和供应链漏洞攻击面:它仅在最低限度上要求纯语言标准,支持可选的 OpenCL 或 CUDA 进行(与厂商无关的)硬件加速,并可选择包含 Boost 库以提升性能。“Weed”的目标是为 AI/ML 推理和反向传播提供与 Qrack 在量子计算中相同的标准和实用性:永远不被锁定在某个硬件厂商,永远不会因缺乏上游依赖支持而无法在某个平台上部署,并让严谨的工程和设计指引新颖的优化方向,所有这些都通过“透明”的最佳默认用户设置接口协同工作。