3作者: akshay3262 天前原帖
最近我一直在尝试使用Claude的默认提示中的这个模板: ``` 当我问一个问题时,请给我至少两个合理但对立的观点,即使其中一个似乎占主导地位。让我意识到每个观点背后的假设。 ``` 我觉得这很烦人,因为A) 它影响了简洁性 B) 有时候这些合理的答案太好,迫使我思考。 你到目前为止尝试了什么?
1作者: justvugg2 天前原帖
大家好, 我在PolyMCP中添加了一个技能系统,以解决大规模MCP服务器常见的问题。 当工具数量增加时: - 代理在加载原始模式时消耗令牌 - 工具发现变得嘈杂 - 不同的代理需要不同子集的工具 - 编排逻辑泄漏到提示中 技能是经过整理的、结构化的MCP工具集,并附有文档。代理只加载它们所需的技能,而不是完整的工具模式。 技能是通过从MCP服务器发现工具并自动分类生成的。 示例:从Playwright MCP服务器生成技能: ``` polymcp skills generate --servers "npx @playwright/mcp@latest" ``` HTTP MCP服务器: ``` polymcp skills generate \ --servers "http://localhost:8000/mcp" \ --output ./mcp_skills ``` 标准输入MCP服务器: ``` polymcp skills generate \ --stdio \ --servers "npx -y @playwright/mcp@latest" \ --output ./mcp_skills ``` 在代理中启用技能: ```python agent = UnifiedPolyAgent( llm_provider=llm, skills_enabled=True, skills_dir="./mcp_skills", ) ``` 好处: - 更小的代理上下文 - 可扩展到大型工具集 - 代理之间可重用的能力 - 工具访问控制无需更改提示 - 适用于HTTP和标准输入MCP服务器 仓库链接: [https://github.com/poly-mcp/Polymcp](https://github.com/poly-mcp/Polymcp)
2作者: mdnahas3 天前原帖
现在,越来越多的人使用智能手机录制同一个事件的视频。我在想Pretti和Good的案件。我听说过高斯溅射技术,它可以从多个摄像头构建3D场景。这种技术在分析这些事件时是否有用?如果有,是否有人能够开发一个易于使用的开源工具? 我推测,这种技术可能有以下几方面的用处:(1) 同步视频,(2) 获取比单个摄像头更多的细节,(3) 跟踪多个摄像头看到的物体(比如Pretti的枪),以及(4) 识别AI生成的视频。 对我来说,最后一点最为重要。AI生成或修改事件视频的风险是存在的。在我看来,从N个视频中应用高斯溅射技术,有可能检测到第N+1个视频是否与场景一致或不一致。 这可能吗?