1作者: asdggag6 个月前原帖
要解锁 Wondr BNI Mobile 账户,请拨打 BNI 银行的 WhatsApp 客服中心 +6282I8I979O77,或前往最近的 BNI 银行分行说明您的情况。
1作者: freakynit6 个月前原帖
嘿,HN, 我一直在实验如何让大型语言模型(LLMs)动态使用大量工具,而无需将所有工具预先加载到上下文中——因此我构建了 one-mcp 来探索这个想法。 one-mcp 是一个开源的 MCP 服务器,使用 FastAPI 构建,充当语义索引和 API 工具的动态加载器。 与其在 LLM 会话中硬编码或嵌入每个工具规格(这会迅速增加上下文大小和成本),one-mcp 允许模型按需搜索、加载和执行工具——使用嵌入和自然语言查询。 它的功能包括: - 工具的语义搜索:使用自然语言查询您的 API 目录(例如“如何获取用户信息”),并返回相关的工具规格。 - 上传/管理/删除工具:通过简单的 REST API 或直接从 MCP 本身进行 JSON 或文件格式的工具导入。 - MCP 集成:作为一个合规的 MCP 服务器工作——可以将其插入到支持 MCP 的客户端或框架中。 示例: --- 上传工具 --- ```bash curl -X POST http://localhost:8003/api/tools/upload-json \ -H "Content-Type: application/json" \ -d '{"tools": [{"name": "getUserProfile", "description": "Retrieves user profile"}]}' ``` --- 语义搜索 --- ```bash curl -X POST http://localhost:8003/api/tools/search \ -H "Content-Type: application/json" \ -d '{"query": "how to get user info"}' ``` 您也可以直接使用 MCP 进行这两项操作 :) 为什么这很重要: 目前大多数 LLM 设置(即使是那些具有 MCP 或工具 API 的设置)都在前期加载所有工具——这会膨胀提示/上下文大小,浪费令牌预算,并增加推理成本。 通过 one-mcp,工具存储在外部向量存储中——LLMs 只“看到”与当前用户查询最相关的少数工具。这种架构可能使动态工具生态系统更具可扩展性。 我期待您的反馈。 [https://github.com/freakynit/one-mcp](https://github.com/freakynit/one-mcp)
1作者: denis4inet6 个月前原帖
我在去中心化金融(DeFi)协议中持有稳定币(例如,Morpho、Pendle、Jupiter、Storm、Hyperliquid HLP、Avantis vAAM、Save on Solana),并希望在像2025年10月10日那样的闪电崩盘期间进行低买(例如,ASTER、PUMP、JUP、HYPE、SOL、ETH、TON)。理想的解决方案是能够自动从流动性提供者(LP)中提取流动性,根据当前价格设置限价买单,并安全管理我的目标投资金额。 现有的机器人(如Bitsgap、Coinrule、3Commas)只能处理部分功能,但缺乏完整的DeFi LP集成。你是否有使用的工具或脚本来实现自动化?你是在虚拟专用服务器(VPS)上运行自定义机器人,还是有我遗漏的服务?在混乱期间,你如何处理燃气费用、预言机延迟和安全风险?期待听到你的设置!