3作者: openWrangler11 天前原帖
一种常见的开源可观测性方法通常从数据库和遥测可视化工具开始,例如 Grafana、Prometheus 和 Jaeger。但可观测性并不仅限于此:这些工具需要配置和仪表板自定义,可能无法准确定位您需要的数据以降低系统风险。 Coroot 的设计旨在解决手动、耗时的可观测性分析问题:它涵盖了完整的可观测性流程——从收集遥测数据到将其转化为可操作的洞察。我们也坚信,简单的可观测性应该是每个人都能受益的创新:这就是我们软件开源的原因。 功能特点: - 成本监控,跟踪和减少您的云开支(AWS、GCP、Azure)。 - SLO 跟踪及警报,检测异常并与系统的基线行为进行比较。 - 一键应用程序分析:查看导致异常的确切代码行。 - 映射时间框架(不再需要在 Grafana 中查找事件发生的时间)。 - eBPF 自动为您收集日志、指标、跟踪和性能数据。 - 服务地图,让您一目了然地了解系统的整体情况。 - 自动发现和监控您 Kubernetes 集群中的每个应用程序部署。 我们欢迎任何反馈,并希望这个工具能改善您的工作流程!
16作者: dhorthy12 天前原帖
大家好,我是来自HumanLayer(YC F24)的Dex,我已经在构建AI代理方面工作了一段时间。在尝试了各种框架并与许多使用AI的创始人交流后,我注意到一个有趣的现象:大多数进入生产阶段的“AI代理”实际上并没有那么“智能”。最好的那些代理大多只是经过精心设计的软件,在关键点上加入了大型语言模型(LLM)。 因此,我开始记录我在构建生产级AI系统方面的经验。今天,我很高兴分享“12因子代理”。 https://github.com/humanlayer/12-factor-agents 这是一个构建LLM驱动软件的原则集合,足够可靠,可以交给生产客户使用。 我看到许多SaaS开发者试图通过在代理框架上构建全新项目来转向AI,但发现使用现成工具无法达到70-80%的可靠性。那些成功的项目往往是将代理构建中的小型模块化概念整合到现有产品中,而不是从零开始。 受Heroku的12因子应用(https://12factor.net/)的启发,这些原则专注于使LLM应用程序更可靠、可扩展和易于维护的工程实践。即使模型变得越来越强大,这些核心技术仍然会保持其价值。 一些亮点包括: - 因子1:自然语言到工具调用 - 因子2:掌控你的提示 - 因子3:掌控你的上下文窗口 - 因子4:工具只是结构化输出 - 因子5:统一执行和业务状态 - 因子6:通过简单的API实现启动/暂停/恢复 - 因子7:通过工具调用联系人工 - 因子8:掌控你的控制流程 - 因子9:将错误压缩到上下文中 - 因子10:小而专注的代理 - 因子11:在用户所在的地方与他们会面 - 因子12:使你的代理成为无状态的归约器 完整指南详细介绍了每个原则,并提供了示例和可遵循的模式。我看到这些实践在处理真实用户流量的生产系统中表现良好。 我分享这个作为起点——这个领域发展迅速,我预计这些原则会不断演变。我欢迎大家的反馈和贡献,以帮助我们弄清楚“生产级”对AI系统意味着什么。 请查看完整指南:https://github.com/humanlayer/12-factor-agents 特别感谢(GitHub用户)@iantbutler01、@tnm、@hellovai、@stantonk、@balanceiskey、@AdjectiveAllison、@pfbyjy、@a-churchill,以及SF MLOps社区对本指南的早期反馈。
1作者: dubrado12 天前原帖
作为参与者,您将获得25美元的免费平台积分!只需填写下面线程中链接的申请表格。 您可以使用积分获得的服务包括: > Hyperbolic的GPU市场 – 按需启动最新的NVIDIA GPU,价格比传统云服务便宜高达75%。 > Hyperbolic的无服务器推理 – 在不接触基础设施的情况下运行开源模型。支持25种以上模型(文本、图像、音频、视觉语言模型、基础模型)。与OpenAI API兼容。无数据保留。 此外,您还可以利用Hyperbolic的Vercel AI SDK集成,立即访问我们平台上的最新模型,从基础模型到DeepSeek和Stable Diffusion。 链接:https://x.com/hyperbolic_labs/status/1909616429441122305
1作者: bayeslaw12 天前原帖
我们是一对自筹资金的创始人,背后有几个失败的产品(真痛苦!)。在寻找下一个项目时,我们发现了一些创意验证网站,但它们都需要付费,而且基本上只是围绕GPT的包装,没有太多附加价值,提供的内容也只是一些通用的语言模型废话。 因此,我们创建了ShouldIBuild.it,这是一个可以让你基于近10万个(并且还在增长)之前的产品发布数据库来验证创意的工具。我们分析了超过5万页的评论和反馈,以提取使用和购买信号,从而能够提供个性化的推荐和市场的快速概览。 在解决这个有趣的问题的过程中,我们最终创建了一个框架,将每个创意归入10个类别之一(我们知道……听起来像是成功的联合三角形……)。我们相信会有很多失误和错误的预测,但我们想停止琐碎的调整,直接请大家尝试一下。 非常期待您的反馈。有什么缺失的?有什么可以改进的?我们有很多想法,但从一系列失败的创意中学到的一件事就是,要倾听用户的声音,而不是只听自己的 :D 非常感谢!
1作者: NewUser7631212 天前原帖
我看到YC的一条帖子:“从OpenAI的DeepResearch到xAI的DeepSearch,我们正在看到向自主工具的首次真正推动,这些工具可以在最少的人类输入下规划、执行和完成诸如研究、外联和编码等任务。” 这让我思考,这些AI代理对任何人真的有用或有价值吗? 我对技术相当了解,使用AI生成代码以加快POC项目的进展。然而,我并不支持盲目地“随意编码”,我认为这很危险,而且在后期修复大型项目时可能会变得更慢。从其他讨论中,我发现许多HN上的人和我有类似的看法——也就是说,使用AI进行代码生成确实有价值,但让一个“代理”单纯为你“工作”可能并不太靠谱。 不过,关于研究和外联,大家对此有用吗?我看到对这些深度研究产品的批评很多。它们似乎类似于总结谷歌搜索的第一页链接,而且充满了在严肃研究中你可能想要忽略的来源(例如,reddit帖子)。所以我对它们的质量持怀疑态度。 我认为另一个可能有用的主题是将大型语言模型(LLMs)作为先进/更简单的RPA工具。基本上,可以想象成基于不同上下文的灵活RPA,这些上下文可以通过文本捕捉。也许这就是所谓的“MCP”热潮的全部意义。 所以我很好奇,谁在使用可以算作“AI代理”的东西(即超越文本聊天/提示的东西),并从中获得真正的价值?