1作者: ProfessorPo2 个月前原帖
我一直遇到同样的问题:想找一些新的观看内容,打开多个流媒体应用,逐个在谷歌上搜索标题,因为这些应用并不会告诉你某个内容是否值得观看。 因此,我创建了“What to Watch”,它汇集了主要流媒体服务的内容,并通过IMDb和社区评分将发现过程简化为简单的“观看”或“跳过”决策。 自高中以来我就没有写过代码——这个项目是在大约400次迭代中使用Claude和Replit构建的。 目前还处于早期阶段,我主要在尝试了解人们是如何决定观看什么的,以及这个使用场景的广泛性。非常希望能得到HN社区的反馈。
1作者: weloverust2 个月前原帖
大家好, 我们一直在思考当前移动AI助手的一个核心局限性: 大多数系统(例如,Apple Intelligence、Google Assistant风格的集成)依赖于预定义的架构和协调的API。应用程序必须明确实现助手的规范。这限制了可扩展性,并使生态系统受到严格控制。 另一方面,基于图形用户界面的代理(例如,AppAgent、AutoDroid、droidrun)依赖于屏幕截图和无障碍功能,这虽然赋予了广泛的能力,但能力边界却较弱。 因此,我们构建了Mobile-MCP,这是一个基于Android的模型上下文协议(MCP)实现,使用了Intent框架。 关键思想: - 应用程序在其清单中声明MCP风格的能力(使用自然语言描述)。 - 基于大语言模型(LLM)的助手可以通过PackageManager自主发现设备上所有暴露的能力。 - LLM选择要调用的API,并根据自然语言描述生成参数。 - 调用通过标准的Android服务绑定/Intent进行。 与Apple/Android风格的协调集成不同: - 没有预定义的动作领域。 - 每个助手没有集中式架构。 - 不需要每个助手的自定义集成。 - 工具可以动态添加并独立演变。 助手不需要事先了解特定应用程序——它在运行时发现并推理能力。 我们已经构建了一个可工作的原型,并发布了规范和演示: GitHub: https://github.com/system-pclub/mobile-mcp 规范: https://github.com/system-pclub/mobile-mcp/blob/main/spec/mobile-mcp_spec_v1.md 演示: https://www.youtube.com/watch?v=Bc2LG3sR1NY&feature=youtu.be 论文: https://github.com/system-pclub/mobile-mcp/blob/main/paper/mobile_mcp.pdf 我们很想知道大家的看法: 操作系统原生能力广播 + LLM推理是否比固定助手架构或图形用户界面自动化更具可扩展性? 希望能得到从事移动代理、安全、MCP工具或Android系统设计的朋友们的反馈。
1作者: marzhannurbakyt2 个月前原帖
嗨,HN,我是ORBTX的创始人。 我创建这个工具是因为大多数天体动力学工具要么是过于简单的网页计算器,要么是看起来像90年代产物的笨重、昂贵的传统软件。我想要创建一个“中间地带”:专业级的轨道计算,快速、直观,并以API为优先。 技术栈: 前端:Next.js 和 React。 3D引擎:使用Three.js(React Three Fiber)进行实时轨迹渲染。 物理:自定义引擎处理经典的双体力学(霍曼转移和双椭圆转移)。 主要挑战: 其中一个主要难点是在浏览器环境中保持天文距离的浮点精度,同时确保3D可视化以60帧每秒流畅运行。目前,我正在优化传播器,以便在未来的更新中处理更复杂的扰动。 目标: 将轨道力学从“Excel工程”转变为现代化、开发者友好的基础设施。可以把它看作是朝着“轨道力学的Figma”迈出的一步。 无需注册,现已开放测试。我很想听听你们对物理实现、API结构或你们发现的任何边缘案例的看法!
1作者: northerndev2 个月前原帖
我制作了一个稍后阅读的应用,因为直接将内容剪辑到我的 Obsidian 库中会产生很多干扰。<p>工作流程很简单:捕获链接,在干净的阅读视图中阅读,做高亮,然后将高亮/笔记导出为干净的 Markdown 格式。未读项目在几天后会自动归档,以保持队列的简洁。<p>你是如何处理网页剪辑和保持库整洁的呢?
1作者: mitml2 个月前原帖
今天我看到的一切都与大型语言模型(LLMs)有关。我个人在日常活动中使用LLMs,它们表现得非常出色。但我不禁想问,传统的机器学习方法怎么突然就消失了!那些垃圾邮件分类器、情感分析模型、word2vec、递归神经网络(RNN)、卷积神经网络(CNN)、长短期记忆网络(LSTM)、前馈神经网络(FFNN)现在都在哪里?2010年代末的典型数据科学家或机器学习工程师现在在做什么?他们训练的决策树、设计的神经网络、进行的准确性评估、超参数调优,现在都去哪儿了?感觉突然间一切都与LLMs有关。那些为特定问题提供轻量且易于部署的传统机器学习模型现在都过时了吗?