请问HN:我们如何让我们的AI/MCP安全产品触及更多受众?
我们一直在使用人工智能工具,并注意到在团队中管理MCP服务器或查看实际流向大型语言模型(LLM)提供商的内容并没有好的方法。谁在运行什么?哪些工具是被批准的?数据流向哪里,或者在AI网站上共享了什么?
因此,我们构建了CyberCage(<https://cybercage.io>)。
**它的功能:**
- **MCP管理** — 自动或手动发现MCP服务器,配备审批工作流程。管理整个组织中允许的MCP服务器(甚至到单个工具)。安全的MCP目录(与GitHub的MCP目录集成)。
- **运营** — 管理整个组织中允许的AI应用程序。完整的审计日志(可用Splunk集成)。通过Slack、Teams、Webex和Webhooks发送通知。
**兼容的工具:**
- AI集成开发环境(IDE):Claude Code、Cursor、VS Code、Windsurf、Antigravity。
- 低代码平台:n8n(原生集成)。
**私有测试版:**
- 为配置的AI域提供设备上的网络代理。对个人身份信息(PII)和敏感数据进行内容检查。数据包元数据异常分析。
**即将推出:**
- BYOLLM(自带模型进行检查)。浏览器扩展。
**观看演示:** <https://youtu.be/Zy7XhkQkUlk>
我们构建这个工具是为了在不拖慢团队速度的情况下,实现对AI工具的可见性和控制。
附言:我们计划在CyberSmol v1.0准备好后开源——这是一个针对AI威胁检测进行微调的小模型。
欢迎提问 ♥
查看原文
We've been building with AI tools and noticed there wasn't a good way to manage MCP servers across a team or see what's actually flowing to LLM providers. Who's running what? Which tools are approved? What data is going where or whats shared on AI websites?
So we built CyberCage (<https://cybercage.io>).<p>What it does:<p>MCP Management — Auto or manual discovery of MCP servers, with approval workflows. Manage allowed MCP servers org-wide (down to individual tools). Secure MCP catalog (integrates with GitHub's MCP Catalog).<p>Operations — Manage allowed AI applications org-wide. Full audit logs (Splunk integration available). Notifications via Slack, Teams, Webex, webhooks.<p>Works with:<p>AI IDEs: Claude Code, Cursor, VS Code, Windsurf, Antigravity. Low-code platforms: n8n (native integration).<p>In private beta:<p>On-device network agent for configured AI domains. Content inspection for PII and sensitive data. Packet metadata anomaly analysis.<p>Coming soon:<p>BYOLLM (bring your own models for inspection). Browser extensions.<p>See it in action: <https://youtu.be/Zy7XhkQkUlk><p>We built this for visibility and control over AI tooling without slowing teams down.<p>P.S. We're planning to open source CyberSmol v1.0 — a small model fine-tuned for AI threat detection — once it's ready.<p>Happy to answer questions ♥