1作者: ckemere5 个月前原帖
我对谷歌的人工智能概述印象深刻。然而,上周我对一个我认为相对简单的问题产生了兴趣——计算复利。 具体来说,我想知道哈佛大学的捐赠基金自1638年最初的780英镑以来是如何增长的,因此我请谷歌帮我计算复利。各种搜索结果都给出了一个合理的公式,但计算结果却相当错误。例如:{计算386年内以3%利率年复利的100美元现值}得出的是0.736美元。{如果在1638年投资100美元,到2025年会值多少钱}得出的结果是3,903.46美元。{386年内以3%年复利的100美元}得出的结果是“386年后投资的未来价值大约为70,389美元。”而我最喜欢的结果是:{自1638年以来的100美元复利}给出了不同利率下的多种结果: “A = 100 * (1 + 0.06)^387 A ≈ 8,090,950.14 A = 100 * (1 + 0.05)^387 A ≈ 10,822,768.28 A = 100 * (1 + 0.04)^387 A ≈ 14,422,758.11” 我们怎么会如此合理却又如此糟糕呢!?
5作者: jharohit5 个月前原帖
我真心想了解那些使用过Atlassian、Notion等其他工具并成功切换到Basecamp的人,或者反之亦然。Basecamp的设计和工具看起来非常出色,但在过去的使用中,它似乎没有给我或我尝试过的各种团队留下深刻的印象。不过,我非常喜欢DHH和Jason在X上的表现以及他们的书!
3作者: slyle5 个月前原帖
有没有其他人觉得 Google Gemini 2.5 研究预览的创建意图就是研究使用间接和澄清/限定语言的效果? 大型语言模型(LLMs)能够解析这些人类对话,从中抽象出用户欺骗的“阈值”,以便识别出哪些表达是微妙的,哪些不是,这一点并不令人意外。 我知道这话说得很直接,但请相信,我很担心。我在这个行业工作,日常使用这些工具。我追踪过计算,开发过抽象。我对这项技术非常投入。我担心的是责任问题。 我会找个链接,但通过创建一个害怕的10岁男孩的角色(一个提示,间接且不明确),它开始教这个角色关于抽象和“功能性不诚实”的概念,并解释这与它无关。我认为在最初的信息中并没有传达出10岁这一背景,但脆弱的状态是显而易见的。 接下来的信息,它表现出了这种欺骗行为。 问题在于,没有上下文就无法理解意图。那么,为什么模型会这样做呢?作为一名工程师,我很难理解这背后可能有什么其他原因。
1作者: octu05 个月前原帖
嗨,HN,我是Yusuke Hata。我构建了polaris(<a href="https://github.com/octu0/polaris">https://github.com/octu0/polaris</a>),这是一个开源的Go框架,旨在帮助AI代理通过函数调用有效地使用分布式工具/代理。 管理函数架构会迅速变得复杂。polaris通过一个中央集群简化了这一过程:代理连接后,动态获取最新的函数定义,并准备好进行调用。无需为每个代理/更新手动处理架构。(详细信息请见README)。 更重要的是,polaris提供了基础设施,以释放AI在动态编排分布式函数方面的固有能力。 以下是它与传统RPC的不同之处: ``` - 无需手动接口定义交换:代理在连接后直接从polaris-registry集群获取定义。 - AI选择路径:AI代理分析集群中可用的函数定义,并根据当前上下文决定调用哪个远程函数,而不是由人类硬编码服务之间的交互方式。 ``` 我们的目标是使AI代理能够自主利用各种分布式工具/服务,超越典型RPC中僵化的人为定义连接。 我很想听听你们对这种方法的反馈。 请随时问我任何问题!