1作者: rsaxvc3 个月前原帖
我修改了STB-Image的JPEG编解码器,使其能够直接将JPEG文件渲染为32位浮点像素,从而减少在编辑图像时出现的颜色带状现象。<p>巧合的是,这样可以更一致地对JPEG进行重新压缩,最终在重新压缩时,当图像得到完全相同的压缩文件时,效果会变得更加稳定。
1作者: GustyCube3 个月前原帖
膜是用于自主系统的通用内存基底。 目前大多数自主记忆系统要么是上下文窗口状态,要么是仅支持追加的检索存储。这种方式允许回忆,但不支持学习。事实会变得过时,程序会偏离,而自主体在没有失去来源或可审计性的情况下无法安全地修订知识。 膜将记忆视为可以随时间演变的事物。它吸收原始经验,将其提升为结构化知识,并允许记录被取代、分叉、争议、合并或撤回,并附有证据。其目标是让长期存在的自主体在保持可预测性和可检查性的同时不断改进。 核心理念很简单: - 记忆是有类型的,而不是以平面文本存储 - 知识是可修订的,并保留来源 - 自主体可以学习能力和程序,而不仅仅是事实 - 显著性随时间衰减,因此未使用的知识会逐渐消失 - 检索受到信任和敏感性级别的过滤 - 修订历史保持可审计性 膜可以作为具有 gRPC API 的守护进程运行,也可以作为嵌入式 Go 库运行。存储使用 SQLite,并可选择 SQLCipher 加密。该库包括一个评估套件,涵盖了数据摄取、修订、整合和检索排序。 膜故意不实现向量相似性搜索。检索后端和自主体策略与内存层分离,以便系统保持确定性和可检查性。 我在实验需要更接近学习的长期自主体时构建了这个系统,而当前的 RAG 系统无法满足这一需求。关于架构、边缘案例和实际应用场景的反馈将非常有帮助。 如果您有任何建议或想要贡献,欢迎任何意见 :)
1作者: agairola3 个月前原帖
嗨,HN,我为那些尚未拥有专门安全团队的团队构建了一个基于假设的AI安全评估工具。 您只需粘贴您的AI用例(它的功能、数据类型、供应商、部署方式)。大约10分钟后,您将通过电子邮件收到一份PDF报告,内容包括: - 信任边界 + 数据流 + 威胁模型图(明确标记为概念性/基于假设) - 映射到STRIDE + MAESTRO(代理AI)的威胁 - 风险评级(影响/可能性) + 5×5风险矩阵 - 推荐的安全控制措施和合规映射(例如:欧盟AI法案,NIST AI 600-1) 重要提示:我们会做出一些假设(例如:AWS部署、常见模式),并在报告中指出,以便您进行更正。 链接: [https://raxit.ai/assessment](https://raxit.ai/assessment) 希望能收到关于哪些地方有问题、缺失的内容,以及如何使其在实际安全审查中更有用的反馈。
2作者: puremachinery3 个月前原帖
Carapace 是一个用 Rust 编写的开源个人 AI 助手网关。它可以连接到 Anthropic、OpenAI、Ollama、Gemini 和 Bedrock,并通过 Discord、Telegram、Signal、Slack 以及 Webhook 进行工作。该项目采用 Apache-2.0 许可证。 我在 2026 年 1 月 OpenClaw 安全漏洞披露后开始构建它——在 Shodan 上发现了 42,000 个暴露的实例(其中 78% 仍未修补),3 个具有公开利用代码的 CVE,ClawHub 上有 341 个以上的恶意技能(Snyk 发现 36% 的技能存在安全缺陷),通过控制界面实现一键远程代码执行(RCE),以及被普通信息窃取工具可获取的明文凭据。这些问题并不是漏洞,而是架构决策——默认开放、没有签名、完全主机权限、秘密存储在 JSON 文件中。来自 Kaspersky、Palo Alto、Snyk 和 SecurityScorecard 的 2 月份报告使情况变得更糟,而不是更好。 Carapace 采取了相反的默认设置:仅限本地主机绑定、关闭式身份验证、操作系统钥匙串凭据存储、使用 Ed25519 签名的 WASM 插件并进行能力沙箱化、执行批准的提示保护、SSRF/DNS 重新绑定防御。安全比较文档详细介绍了每个 OpenClaw 漏洞以及 Carapace 如何处理这些漏洞:<a href="https://github.com/puremachinery/carapace/blob/master/docs/security-comparison.md" rel="nofollow">https://github.com/puremachinery/carapace/blob/master/docs/security-comparison.md</a> 这是一个预览版本——Discord 的端到端功能正常,约有 5,000 个测试通过,但控制界面的前端尚未构建,子进程沙箱化功能也尚未完全实现。安全架构是真实的;但细节尚未打磨完善。
3作者: nycdatasci3 个月前原帖
感觉所有必要的组件终于可以用来构建一个自我强化的发展循环了。理论上,我们现在可以让像Claude Code或OpenClaw这样的工具监控一个git仓库,分析已完成工作的抽象,然后自主生成能够处理未来类似任务的新代理或技能。 有没有人成功运行过这样的循环?我很好奇这里是否有人将大部分时间从编写代码转向构建这些系统——本质上是在自举代理,使其能够从仓库历史中学习,以构建更好的代理。我很想听听那些在这方面不断突破的人。