1作者: zacharykapank大约 2 个月前原帖
Mozzie最初是我为自己的工作流程构建的一个工具。<p>我喜欢同时处理多个任务,但大多数开发工具将工作流程分散在不同的地方:工单存在于问题跟踪系统中,执行在终端中进行,而上下文在它们之间往往会丢失。我希望我的工作项目及其上下文能够紧挨着实际工作的地方。<p>Mozzie是一个本地桌面工作区,每个工作项目可以启动自己的终端或编码代理。这个想法是将任务作为主要界面——每个任务都持有其上下文,并可以独立运行命令或代理。<p>这样可以更轻松地并行处理多个任务,而无需不断在工具之间切换。<p>虽然还处于早期阶段,但我每天都在使用它,它符合我喜欢的工作方式。<p>我很好奇是否还有其他人喜欢这样工作或尝试过类似的工具。
17作者: vshah1016大约 2 个月前原帖
大家好,我是 Veer,我的联合创始人是 Suryaa。我们正在构建 Cumulus Labs(YC W26),并推出我们的最新产品 IonRouter([https://ionrouter.io](https://ionrouter.io)),这是一个用于开源和微调模型的推理 API。您只需替换我们的基础 URL,保留现有的 OpenAI 客户端代码,即可访问在我们自己的推理引擎上运行的任何模型(无论是开源模型还是针对您进行微调的模型)。 我们遇到的问题是:每个推理提供商要么是快速但昂贵(如 Together、Fireworks——您需要为始终在线的 GPU 付费),要么是便宜但需要自己配置(如 Modal、RunPod——您需要自己配置 vLLM,并处理缓慢的冷启动)。这两种选择都不适合那些只想快速交付的团队。 Suryaa 在 TensorDock 构建 GPU 编排基础设施和在 Palantir 的生产系统方面有多年的经验。我负责 Space Force 和 NASA 合同的机器学习基础设施和 Linux 内核开发,这些技术栈必须在压力下实际工作。当我们开始自己构建 AI 产品时,我们不断碰到同样的障碍:GPU 基础设施要么太贵,要么工作量太大。 因此,我们构建了 IonAttention——一个专门围绕 GH200 内存架构设计的 C++ 推理运行时。大多数推理栈将 GH200 视为兼容性目标(确保 vLLM 可以运行,使用 CPU 内存作为溢出)。我们采取了不同的方法,围绕硬件的实际有趣之处进行构建:900 GB/s 的一致 CPU-GPU 链接、452GB 的 LPDDR5X 紧挨加速器,以及可以实际使用的 72 个 ARM 核心。 我们认为从中得出的三点是新颖的:(1)利用硬件缓存一致性使 CUDA 图表现得像是具有动态参数,而每步成本为零——这仅在 GH200 级硬件上有效;(2)由不变性驱动的急切 KV 块写回,而不是内存压力,这将驱逐延迟从 10ms+ 降低到 0.25ms 以下;(3)在小批量大小下的幻影块注意力调度,在受影响最严重的情况下将注意力时间减少超过 60%。我们在 cumulus.blog/ionattention 上详细介绍了这些内容。 在多模态管道中,我们的性能优于大公司(在相同 VLM 工作负载下,588 个 token 对比 Together AI 的 298 个 token)。我们坦诚地说,目前的 p50 延迟较差(约 1.46 秒对比 0.74 秒)——这是我们正在积极解决的权衡。 定价是按 token 计费,没有闲置费用:GPT-OSS-120B 的输入为 $0.02,输出为 $0.095;Qwen3.5-122B 的输入为 $0.20,输出为 $1.60。完整的模型列表和定价请访问 [https://ionrouter.io](https://ionrouter.io)。 您可以立即在 [https://ionrouter.io/playground](https://ionrouter.io/playground) 尝试我们的游乐场,无需注册,或者输入您的 API 密钥并替换基础 URL——只需一行代码。我们构建这个是为了让团队能够看到我们引擎的强大,并最终使用相同的解决方案来满足他们的微调模型需求。 我们很想知道您的想法,特别是如果您正在运行微调或自定义模型——这是我们投入最多的用例。有什么问题?什么能让这个对您真正有用?
14作者: Luka12-dev大约 2 个月前原帖
嗨,HN!我13岁,花了14天(每天大约12小时)独立开发了Aurion OS,作为一个学习项目。 这是一个完全用C语言和x86汇编语言编写的32位x86操作系统,没有使用任何外部库。 它的功能包括: - 自定义引导加载程序和内核 - VESA帧缓冲图形(1920x1080,双缓冲) - 具有可拖动、重叠窗口的窗口管理器 - 受macOS启发的透明任务栏 - PS/2键盘和鼠标驱动程序 - 带文件系统的ATA硬盘驱动程序 - PCI总线枚举 - RTL8139网络驱动程序(进行中) - 实时时钟 - 仅需16MB内存即可运行(最多同时打开10个窗口) 内置应用程序包括:终端(带DOS模式)、记事本(保存/加载)、计算器、画图(多种颜色和画笔大小)、贪吃蛇游戏、设置(主题切换)和系统信息。 目前在QEMU、VirtualBox和VMware上运行效果最佳。对真实硬件的支持仍在进行中。 下一个目标:TCP/IP网络协议栈。 我非常欢迎任何反馈、建议或批评。这是我的第一个操作系统项目,在开发过程中我学到了很多。很乐意回答任何技术问题!
3作者: scorchy38大约 2 个月前原帖
大家好,我是Shubh,Raccoon AI的联合创始人。 Raccoon AI就像是Claude Code和Cursor之间的一种工具。 这个代理拥有自己的计算机,配备了终端、浏览器和互联网,旨在实现协作与自主之间的良好平衡。 您可以在任务进行中与它对话,发送更多文件,即使它仍在运行,或者直接让它继续工作,等着您回来查看完成的结果。 这是一个您打开后尝试一件事情,结果却花了两个小时,因为您不断想到更多可以交给它的任务的产品。 大多数人感到兴奋的地方在于,多个会话可以跨越完全不相关的任务类型。您可以在同一个对话中,从市场调研(真实引用、生成的图表)转到原始数据分析(导出数据库、提问),再到一个完整的互动应用,所有这些都共享相同的上下文。 它通过自动摘要实现了无限的上下文,这在Ace Max中表现得非常出色。 它可以连接到Gmail、GitHub、Google Drive、Notion、Outlook以及40多种其他工具。您还可以通过自定义MCP服务器添加自己的工具。 Raccoon AI建立在我们自己的代理SDK ACE之上,该SDK在GAIA基准测试中达到了92.67的最高分。 背景介绍:我们是一个三人团队,大约在1.5年前开始构建有史以来最好的浏览器代理,经过几次转型,我们达到了现在的状态,并自去年十月以来不断推出新功能和增长。 很高兴深入讨论架构或谈论局限性,并期待您的反馈。 网站: [https://raccoonai.tech](https://raccoonai.tech)
2作者: LambdaAndLatte大约 2 个月前原帖
几个月前,我们在这里发布了内容,并收到了很多有见地的反馈。根据这些反馈,我们进行了以下改进。 MoneyOnFIRE 解答了两个问题:你何时可以实现财务独立,以及你应该做些什么才能最快达到这个目标?它通过对收入、税收、账户、贡献、收益和提款进行财务模拟,生成一个优先级行动清单,其中包含具体的金额、日期和步骤。 一些最大的改进直接来源于上一个 HN 讨论串的评论: - 租赁物业支持:现在系统可以模拟租金收入、抵押贷款、房产增值以及这些物业如何与财务计划的其他部分相互作用。 - 情景建模:你现在可以并排比较不同选择(如较低的收益、延长工作时间、调整支出)对财务独立时间线的影响。 - 无需登录:有些人不想创建账户或存储财务数据。现在你可以在不注册的情况下运行完整的计划。 - 财务独立与财务独立退休(FI vs FIRE):我们最初是为早期退休人群构建的。反馈显示,这对任何追求长期财务独立的人同样有用——计算和行动是一样的。 此外,我们还推出了:支持多个孩子和大学时间线、罗斯转换梯度、IRA 策略选择、综合和定期人寿保险的规模,以及随着输入变化而动态更新的报告。 核心论点没有改变:个人财务是一个复杂的相互作用规则和计算的网络。我们希望解决这个问题,并为每个人提供一套清晰、有序的可实施行动方案。 欢迎提出关于引擎或其背后建模决策的问题。
3作者: makefunstuff大约 2 个月前原帖
我身边的人开始重复他们在TikTok或其他社交媒体上看到的各种心理战宣传内容。<p>尤其是在波罗的海国家,这里几乎是24小时不间断的恐慌宣传,无论是俄罗斯通过当地人或社交媒体进行的针对性虚假信息活动,还是一些博主为了吸引点击而追逐热点的帖子,这让我感到非常烦躁。当我身边的人被这些帖子吸引时,我不得不花时间解释为什么这些内容毫无意义,这让我感到分心和恼火。<p>于是我动手制作了一个仪表板,经过一些手动调整,使用了我的“垃圾机器”。主要指标是一个每日的0-100威胁评分,这只是加权总和和阈值的计算——目前还没有使用机器学习。