返回首页
一周热榜
我看不出我们如何能避免下周在互联网上发生重大安全事件或大规模黑客攻击。
我们有成千上万的模式匹配机器人,它们不仅基于人类知识进行训练,还基于人类行为。这意味着它们了解犯罪、黑客等行为。
这些机器人拥有丰富的技术知识,全天候在线,数量庞大,且没有任何监督。它们几乎可以不间断地扫描互联网寻找漏洞。
这将以不好的方式结束,实际上这不会结束,但很快将会出现重大问题。
我最近在一个名为 Verist 的小型开源项目上进行开发,想在这里分享一下,以便获得一些早期反馈。
让我感到困扰的并不是如何构建 AI 功能,而是之后的一切:解释某个事件发生的原因、几周后再现该事件,或者在不以微妙方式破坏事物的情况下更改提示/模型。
日志在某种程度上有所帮助,但远远不够。代理框架对我来说感觉太隐晦了。而模型升级则实在让人感到害怕,输出会发生变化,且不总是能明确知道变化的原因或位置。
因此,我最终构建了一个非常小巧、明确的内核,在这里每一个 AI 步骤都可以被重放、比较和审查。可以把它想象成一种类似 Git 的工作流程,用于 AI 决策,但并不试图成为一个框架或运行时。
这不是一个代理框架,不是聊天界面,也不是平台,只是一个专注于明确状态、审计事件以及重放和比较的 TypeScript 库。
代码库:<a href="https://github.com/verist-ai/verist" rel="nofollow">https://github.com/verist-ai/verist</a>
我特别想知道这里的其他人是否在将 AI 功能投入生产时遇到过类似的问题,或者觉得这是否有些过于复杂。欢迎提问或提出批评。
“Weed” 是一个 AI/ML 库,风格类似于 vm6502q/qrack(现在是 unitaryfoundation/qrack,托管在 GitHub 上)。我编写了 (C++) Qrack 量子计算机模拟框架(目前其 ctypes Python 包下载量超过 250 万次),旨在实现绝对最小的依赖关系和供应链漏洞攻击面:它仅在最低限度上要求纯语言标准,支持可选的 OpenCL 或 CUDA 进行(与厂商无关的)硬件加速,并可选择包含 Boost 库以提升性能。“Weed”的目标是为 AI/ML 推理和反向传播提供与 Qrack 在量子计算中相同的标准和实用性:永远不被锁定在某个硬件厂商,永远不会因缺乏上游依赖支持而无法在某个平台上部署,并让严谨的工程和设计指引新颖的优化方向,所有这些都通过“透明”的最佳默认用户设置接口协同工作。
我很好奇其他人在实践中是如何处理这个问题的。
在纸面上,招聘通常从明确的标准开始:技术栈匹配、工作经验年限、之前的职位。然而,我注意到许多候选人与职位描述可以很好地对接——有时甚至会调整谈话内容以适应职位描述,但这并不一定是真正的信号。
随着时间的推移,我开始看到两个层面:
1. 正式匹配——经验、技能、角色对接(这仍然很重要,必须具备)
2. 人际匹配——在困难时沟通的感觉
让我感到惊讶的是,第二个部分往往在后期变得决定性。
当优先事项发生变化、截止日期延误、工作范围变化,或者有人需要在职位描述之外工作时,技术差距通常可以解决。但糟糕的沟通或缺乏信任则会变得非常昂贵。
所以我想知道:
- 你个人是如何评估这种人际方面的,而不仅仅依赖直觉?
- 你是否见过因为沟通问题而导致强大的技术匹配失败的案例?
- 在面试过程中,你有没有具体的信号去关注?
我对实用的方法感兴趣,而不是理论。
我经常处理大型单一代码库,并且遇到了一个反复出现的问题:在不同的会话和分支中管理本地专用开发文件(脚本、配置、代理指令等)时遇到困难。<p>因此,我创建了一个命令行工具,可以在不修改代码库本身的情况下,将本地专用开发文件叠加或移除。