7作者: vampiregrey2 个月前原帖
在过去几周,我遇到了多个AI/API的故障——而且不止是一个提供商。 - Anthropic的Claude出现了模型超时和HTTP 500/529错误 - 最近GitHub发生故障时,访问仓库出现问题 - Supabase的数据库/API也出现了小故障 - 甚至主要云服务商也偶尔出现基础设施的短暂故障 单独来看,这些都不算令人震惊。每个系统都有可能出现故障。 但综合来看?感觉故障的频率和影响范围在增加。 这引发了一些令人不安的问题: - 我们是否为了开发速度而过度优化,牺牲了系统的韧性? - 小团队是否在不知情的情况下构建在越来越脆弱的技术栈上? - 这只是可见性偏差,还是故障真的变得更加普遍? 我很好奇这里的其他人是如何看待这个问题的。
2作者: gregzeng952 个月前原帖
我正在开发一个视频转文本的网页应用,想分享一下以便获得反馈。核心流程很简单:上传文件,开始转录,然后在历史页面中跟踪进度,该页面在任务运行时会自动刷新。付费用户可以一次提交多个文件,并且支持对话和采访的说话者分离功能。 在过去几周,我主要专注于提高系统的可靠性。我更改了处理流程,先提取音频再进行转录,这使得长文件的处理更加稳定。我还花时间改进了故障处理,让用户在任务失败时能看到清晰的错误信息,而不是原始的模型错误。 目前定价设置非常简单:免费用户每天可以进行3次转录,有一个无限制计划,价格为每月20美元或每年120美元。 我非常希望能得到关于整体用户体验的反馈,尤其是故障/重试的行为是否合适,以及定价对首次使用的用户是否易于理解。
1作者: PantheonOS2 个月前原帖
我们很高兴地分享我们的预印本,内容关于PantheonOS,这是一个可进化的分布式多智能体系统,用于自动基因组发现。 预印本:<a href="https://www.biorxiv.org/content/10.64898/2026.02.26.707870v1" rel="nofollow">https://www.biorxiv.org/content/10.64898/2026.02.26.707870v1</a> 网站(对所有人开放的在线平台):<a href="https://pantheonos.stanford.edu/" rel="nofollow">https://pantheonos.stanford.edu/</a> PantheonOS结合了基于大语言模型的智能体、强化学习和智能体代码进化,超越常规分析——将最先进的算法进化到超人类的表现。 应用: - 进化的批量校正(Harmony、Scanorama、BBKNN)和强化学习增强算法 - 强化学习增强的基因面板设计 - 在22个以上虚拟细胞基础模型中进行智能路由 - 从新生成的3D早期小鼠胚胎数据中进行自主发现 - 将人类胎儿心脏的多组学数据与3D全心脏空间数据整合 Pantheon具有高度的可扩展性,尽管目前展示的应用集中在基因组学领域,但其架构非常通用。代码现已开源,我们希望构建一个新一代的人工智能数据科学生态系统。
3作者: anothereng2 个月前原帖
我想开发一款iOS应用,尽管我已经是一名软件开发人员,但我担心在我所在的国家目前无法负担得起一台Mac。如果有人有旧的Mac可以送给我,我将非常感激!
6作者: PrateekRao012 个月前原帖
嗨,HN — 我是 Prateek Rao。我的联合创始人和我创建了 Cortexa,我们将其描述为一个针对自主记忆的彭博终端。 我一直看到一个模式:当代理出现问题时,大多数团队会对提示进行迭代,然后通过添加一个记忆层(向量数据库 + RAG)来“修复”它。这有时会有所帮助,但并不能保证正确性。在实践中,这往往会引入一种新的失败模式:代理检索到一些可疑的信息,并将其写回记忆中,仿佛它是真实的,这个错误会变得顽固。随着时间的推移,你会遇到记忆污染、循环幻觉循环,调试变成了日志考古。 Cortexa 的功能: 1. 代理决策取证(端到端的“为什么”):追踪输出/行为回到导致它们的确切检索、记忆写入和工具调用。 2. 记忆写入治理:拦截并评分记忆写入(0–1),并可选择阻止/隔离没有依据的条目,以免它们污染未来的运行。 3. 记忆卫生 + 向量存储噪声控制:自动检测并移除近似重复/低信号条目,以保持检索质量高,存储和推理成本不增加。 为什么这很重要: 可观察性是自主 AI 缺失的一层。没有它,自主性就很脆弱:小错误默默累积,部署变得风险高,工程成本上升,因为失败无法重现或归因。 适合谁: 1. 在生产中交付自主工作流的团队 2. 任何面临“未知原因”失败、记忆污染或失控上下文成本的人 3. 希望实现可审计性 + 更快调试循环的工程师 网站: [https://cortexa.ink/](https://cortexa.ink/) 希望能收到任何在大规模运行代理的人的反馈: 1. 你在生产中见过的最痛苦的代理失败模式是什么? 2. 你希望在“代理终端”中看到哪些信号(检索差异、记忆责任、工具调用跟踪、警报等)?
2作者: freediver2 个月前原帖
这些天我去新的地方,感觉非常压倒。大量低质量的投稿。<p>建议的解决方案:限制投稿仅限于拥有超过X点声望(例如500点声望)或账号年龄超过Y年(例如5年)的用户。<p>这两种条件在未来都能适应,因为用户可以在不投稿的情况下逐渐满足这两个条件。
4作者: tomkit2 个月前原帖
《星际争霸2》是一款老游戏,但一直以来缺乏在游戏外部可视化重播的方式。我从零开始构建了一个重播渲染引擎,使用重播文件和Claude Code。 重播文件包含了玩家输入的采样位置坐标和指令。因此,我利用地图构建了一个等距视图,并在地图上叠加了单位图标,然后对单位随时间移动的位置进行了插值处理。 我还从游戏数据中提取了额外的指标,有些指标是基于其他指标推导出来的。 最后,我将所有这些上下文信息传递给一个大型语言模型(LLM),让它对游戏玩法进行评析,并为每位玩家提供优点和改进建议。 这并不完美,但这是一个很好的起点,可以进行迭代和改进。 让我知道你的想法!
1作者: natematthew2 个月前原帖
永不疲惫的支持代理 类人AI团队成员正在悄然解决困扰客户服务的问题。让我们认识一下莎拉。 莎拉是你最优秀的客户支持代理。她对你的产品了如指掌,耐心处理困难客户,解决工单的速度比团队中的任何人都快。然而,她在周一请了病假,到周四时已经精疲力竭,并在去年四月刚刚完成替代培训后辞职了。 这是关于客户服务的故事,没人提及的。潜藏在聊天机器人失败和客户满意度评分背后的安静结构性崩溃。 数学从未奏效 呼叫中心的员工流失率每年在30%到45%之间,远高于其他行业的两倍。替换一名代理的成本在10,000到20,000美元之间。在一个100人的团队中,这意味着在为客户提供优质服务之前,流失成本就超过了100万美元。 - 87%的联络中心员工报告工作压力很大 - 59%面临主动性疲惫的风险 - 77%表示与去年相比,工作负荷有所增加 美国企业每年因糟糕的客户服务面临8560亿美元的损失,这并不是因为公司不在乎,而是因为系统在结构上存在缺陷。 凌晨2点发生了什么 你的客户并不遵循商业时间: - 不同时间区的潜在客户有售前问题 - 一名客户在周日晚上发现了账单错误 - 一名新用户在午夜的入职过程中卡住,快要关闭页面 78%的客户因服务不佳而放弃购买。问题不在于AI,而在于错误的类型——旨在推脱而非解决。 实际的变化 一个新类别出现了:对话视频AI团队成员。不是嘴巴会动的动画聊天机器人,而是能够: - 进行完整对话,具有动态面部表情和自然的眼神交流 - 根据客户的实时反馈调整情感语调 - 从你的实际公司数据中提取上下文相关的答案 领先的平台现在提供不到1秒的端到端延迟,语音到头像的响应时间低于80毫秒,并支持无限并发会话。 莎拉与玛雅:并肩作战 现在是晚上11:47。玛雅注意到重复收费,并访问了你的支持页面。 旧模式: - 聊天机器人询问澄清问题,却无法提取账户数据 - 提供帮助文章,告诉她在工作时间内再打电话 - 玛雅通过银行对收费提出异议。你失去了这段关系。 AI团队成员模型: - 数字人类立即出现,按名字问候玛雅 - 实时提取账户信息,确认重复收费 - 在同一会话中发放退款并发送确认 总时间:不到四分钟。首次联系解决。午夜无需工单,也不需要人类代理。AI团队成员并不取代莎拉,而是保护她免受80%工单的困扰,这些工单让她感到疲惫不堪。 数字所言 - AI辅助支持每小时解决的问题提高了14% - 每投资1美元平均回报为3.50美元,顶尖表现者达到8倍 - Gartner预计全球呼叫中心的劳动力成本将减少800亿美元 - AI客户服务市场预计将从2024年的120亿美元增长到2030年的478.2亿美元 64%的消费者表示,如果AI客户服务展现出类人特征,他们更可能信任。这是文本聊天机器人从未弥补的信任差距。 像Trugen AI这样的平台正在构建这样的系统,让AI团队成员能够真实地“看”、“听”和“回应”。 莎拉得以留任 实时AI团队成员吸收了大量工作: - 账单争议、订单状态查询、密码重置 - 产品常见问题和非工作时间的咨询 莎拉处理真正需要她的事务: - 升级问题、复杂问题、高价值客户 - 处于真正困境中需要人类帮助的客户 她的工作得到了改善。她的疲惫风险降低。她留下来了。 如果你正在探索这对你的团队意味着什么,Trugen AI值得作为起点进行了解。 标签:客户服务、AI代理、数字人类、对话AI
1作者: crawdog2 个月前原帖
我创建了一个个人AI网关,可以在本地机器上运行,为与流行的大型语言模型(LLM)通信的任何服务提供保护措施。您可以将其作为openclaw的代理,注入提示、过滤个人身份信息(PII),并在出现越狱尝试时发出警告。它还可以以分布式方式工作。 该网关基于您从Anthropic、OpenAI或其他服务获取的API密钥创建个人访问令牌(PAT),然后注入相应的策略。它不存储机密信息,而是存储对环境变量的引用,这些变量中保存了这些值。 另一个好处是,如果您使用运行命令执行Claude代码或Codex,您还可以记录会话令牌的使用情况和提示流量。这使您能够将其与您的GitHub项目一起存储,作为共享内存。 使用“run”命令运行二进制文件,以创建一个在命令执行期间有效的上下文,或者使用“start/stop”命令在localhost:8443上启动代理。您还可以访问一个Web用户界面来收集统计信息。