3作者: strongpigeon大约 2 个月前原帖
我在 https://developer.apple.com/system-status/ 上没有看到任何信息,但从太平洋夏令时间上午11点开始,我无法在自己的设备上安装开发应用。<p>Reddit上的其他人似乎也遇到了这个问题[0]。有人知道这是怎么回事吗?<p>[0]: https://www.reddit.com/r/iOSProgramming/comments/1rq4uxl/comment/o9pwcps/?context=1
4作者: ra0x3大约 2 个月前原帖
<rant><p>经过几个月的尝试,我一直在给Claude(Opus 4)一个机会,但我再也无法忽视事实了。与Codex(5)相比,它实在是太糟糕了。作为一个较小的竞争者,我一直试图耐心对待,并忠实地支付每月100美元的费用,但此刻,Claude经常做出一些极其愚蠢的事情,而且做得如此_随机_,以至于我根本无法再 justify 支付这笔费用。当这个订阅结束后,我几乎会把所有的钱转投到Codex,每月200美元。<p>如果有Anthropic的员工在看这段话,Claude在某些时刻随机做出可能是我见过的最愚蠢的事情,这让我几乎感到愤怒。我对此感到非常震惊。它太急躁、太快,而且常常是错误的。<p>&lt;/rant&gt;
1作者: jacomoRodriguez大约 2 个月前原帖
嘿,HN,我是马里奥。最近我和一位同事讨论了人工智能、代理以及未来软件开发将如何变化。我们在想,既然人工智能代理已经非常擅长通过提示实现软件开发,我们为什么还要分享代码呢?为什么每个人不能通过提示获得定制软件呢? “分享提示,而不是代码。” 我想,这主意不错,那我们就这样做吧。这就是我创建 Open Prompt Hub 的原因:<a href="https://openprompthub.io" rel="nofollow">https://openprompthub.io</a>。 想象一下,GitHub 就是为了提示而存在。 这个想法很简单:用户可以上传提示,然后你和你的人工智能工具可以使用这些提示生成脚本、应用程序或网络服务(或者为某个特定任务准备代理):只需将其粘贴到你的代理或集成开发环境中,看看它为你构建的内容。如果提示没有完全覆盖你的用例,可以进行分叉,调整,瞧,量身定制的软件就准备好了! 这些提示是简单的 markdown 文件,包含一个用于元信息的前置块。(规范可以在这里找到:<a href="https://openprompthub.io/docs" rel="nofollow">https://openprompthub.io/docs</a>)它们是版本化的,包含成功构建该提示的人工智能模型的信息,并提供了如何让人工智能代理测试生成软件的说明。 用户可以提及他们成功或不成功执行某个提示所使用的模型(构建或失败)。这有助于评估一个提示是否提供可靠的输出。 想创建一个开放提示文件吗?这里有一个提示,可以指导你完成:<a href="https://openprompthub.io/open-prompt-hub/create-open-prompt" rel="nofollow">https://openprompthub.io/open-prompt-hub/create-open-prompt</a> 安全性!在处理人工智能和提示时,安全性总是一个话题。我添加了几个安全检查,检查每个提示是否存在注入和恶意行为。进行了统计分析,并对大型语言模型进行了两次检查,以进行行为分类和提示注入检测。 目前这是一个最小可行产品(MVP)。但所有提到的功能都已包含在内。 如果这听起来不错,请告诉我。试试一个提示,进行分叉,或者告诉我你希望在规范或安全扫描器中更改什么。我真的很想知道什么会让你信任并重新使用提示。或者你是否喜欢这个总体想法……
1作者: debug-0101大约 2 个月前原帖
AI代理的开发速度很快(LangChain、CrewAI、MCP服务器、OpenAI Agents SDK),但目前还没有统一的方式来确保它们的安全和治理。我们构建了g0来作为这一控制层。 **g0在代理生命周期中的功能:** - **g0扫描** - 对代理代码进行静态和行为分析。涵盖12个安全领域的1,180条规则,支持10个框架(LangChain、CrewAI、MCP、OpenAI、Vercel AI、Bedrock、AutoGen、LangChain4j、Spring AI、Go AI),以及5种编程语言。能够检测有毒工具链、污点流、过度特权描述和缺失的沙箱保护。集成的威胁情报检查工具会将工具的URL和依赖项与55个以上的IOC和已知CVE进行比对。 - **g0测试** - 动态对抗性红队测试。对正在运行的代理发起提示注入、数据外泄尝试、工具滥用序列、越狱和目标劫持有效载荷的攻击。采用3级渐进判断(确定性、启发式、LLM)。支持HTTP和MCP协议。 - **g0端点** - 发现机器上的每个AI工具(Claude Code、Cursor、Windsurf、Zed及15个以上工具),清点MCP服务器,并揭示配置错误。可以将其视为针对AI开发者环境的nmap工具。 - **g0守护进程** - 持续运行时监控。建立行为基线并进行异常检测,具备成本断路器,关联引擎将不同来源的事件链接成攻击链,并在出现问题时提供紧急关闭开关。 - **g0检测** - MDM注册检测(Jamf、Intune、Mosyle、Kandji等)、运行中的AI代理发现以及主机加固审计一览。 - **一流的OpenClaw支持**。g0是唯一理解OpenClaw架构的安全工具:网关加固(18个探针)、SKILL.md/SOUL.md/MEMORY.md分析、通过SHA-256基线监测认知漂移、部署审计、配置加固,以及ClawSec CVE信息流集成。如果您在生产环境中运行OpenClaw,g0能够捕捉到通用扫描器遗漏的内容。 - **合规性内置,而非附加**。每个发现都映射到10个标准:OWASP代理十大、OWASP LLM十大、NIST AI RMF、ISO 42001、欧盟AI法案、MITRE ATLAS等。生成证据记录、合规报告,并通过.g0-policy.yaml强制执行政策,支持CI门控。 - **输出格式**:终端、JSON、SARIF 2.1.0、HTML、CycloneDX AI-BOM、Markdown。可接入GitHub Actions、GitLab CI或任何管道。 - **启动命令**:npx @guard0/g0 scan。 - **GitHub**:[https://github.com/guard0-ai/g0](https://github.com/guard0-ai/g0) 我们认为AI代理生态系统需要与Web应用程序在Burp Suite和Semgrep中获得的同样的安全工具成熟度,但这是专门为代理构建的。欢迎就架构或威胁模型提出问题。