返回首页
最新
最近我一直在尝试使用Claude的默认提示中的这个模板:
```
当我问一个问题时,请给我至少两个合理但对立的观点,即使其中一个似乎占主导地位。让我意识到每个观点背后的假设。
```
我觉得这很烦人,因为A) 它影响了简洁性 B) 有时候这些合理的答案太好,迫使我思考。
你到目前为止尝试了什么?
大家好,
我在PolyMCP中添加了一个技能系统,以解决大规模MCP服务器常见的问题。
当工具数量增加时:
- 代理在加载原始模式时消耗令牌
- 工具发现变得嘈杂
- 不同的代理需要不同子集的工具
- 编排逻辑泄漏到提示中
技能是经过整理的、结构化的MCP工具集,并附有文档。代理只加载它们所需的技能,而不是完整的工具模式。
技能是通过从MCP服务器发现工具并自动分类生成的。
示例:从Playwright MCP服务器生成技能:
```
polymcp skills generate --servers "npx @playwright/mcp@latest"
```
HTTP MCP服务器:
```
polymcp skills generate \
--servers "http://localhost:8000/mcp" \
--output ./mcp_skills
```
标准输入MCP服务器:
```
polymcp skills generate \
--stdio \
--servers "npx -y @playwright/mcp@latest" \
--output ./mcp_skills
```
在代理中启用技能:
```python
agent = UnifiedPolyAgent(
llm_provider=llm,
skills_enabled=True,
skills_dir="./mcp_skills",
)
```
好处:
- 更小的代理上下文
- 可扩展到大型工具集
- 代理之间可重用的能力
- 工具访问控制无需更改提示
- 适用于HTTP和标准输入MCP服务器
仓库链接: [https://github.com/poly-mcp/Polymcp](https://github.com/poly-mcp/Polymcp)
显示未聚焦行的渲染预览以及正在编辑的行或块的原始Markdown。
现在,越来越多的人使用智能手机录制同一个事件的视频。我在想Pretti和Good的案件。我听说过高斯溅射技术,它可以从多个摄像头构建3D场景。这种技术在分析这些事件时是否有用?如果有,是否有人能够开发一个易于使用的开源工具?
我推测,这种技术可能有以下几方面的用处:(1) 同步视频,(2) 获取比单个摄像头更多的细节,(3) 跟踪多个摄像头看到的物体(比如Pretti的枪),以及(4) 识别AI生成的视频。
对我来说,最后一点最为重要。AI生成或修改事件视频的风险是存在的。在我看来,从N个视频中应用高斯溅射技术,有可能检测到第N+1个视频是否与场景一致或不一致。
这可能吗?