1作者: rabidpraxis2 个月前原帖
我在一个Rails购物车的遥测中隐藏了一个性能bug(没有错误,整体延迟看起来正常),并挑战一个大型语言模型(LLM)仅通过查询数据来发现它。它成功找到了这个问题,并通过我们在Honeybadger构建的MCP服务器创建了一个仪表板和警报。 我对一个小型Rails购物车进行了监测(仅5行代码)。Insights自动捕获请求/控制器和ActiveRecord事件,我添加了两个业务上下文:一个会话ID注入到每个事件中,以便结账活动能够端到端关联,以及一个单一的意图事件,记录地区、购物车总额、支付网关和卡片类型。 隐藏的问题是:当卡片类型为MX且地区为EU时,Braintree的结账速度很慢。没有错误,正常运行时间良好,整体延迟看起来正常。 在这段6分钟的视频中,我给模型一个模糊的提示(“EU客户报告结账缓慢”)。它进行分段,直到找到异常值,推断出每个会话ID的放弃行为为GET而非POST,估算影响(当前时段约69美元,一周约1200美元,粗略估算),然后通过MCP服务器创建了一个仪表板和警报。 很高兴讨论MCP架构、查询语言,以及让我感到惊讶的地方与未能达到预期的地方。
1作者: heimdallr2 个月前原帖
我一直在思考使用像Claude或ChatGPT这样的前沿人工智能模型时的隐私权权衡问题。即使使用VPN,服务提供商仍然能够看到输入内容,并且使用情况与某种方式与身份相关的账户和支付方式绑定在一起。我一直在寻找一种方法,可以在不创建与我身份相关的特定服务提供商账户的情况下访问这些模型。理想情况下,通过某种中介来抽象身份,并且不保留输入内容。从技术和经济的角度来看,这种设置是否能显著改善隐私,还是仅仅转移了信任?在托管人工智能的情况下,真正的隐私是否在根本上是不现实的,无论架构如何?