3作者: amthewiz大约 1 个月前原帖
大家好, 安德烈·卡尔帕西(Andrej Karpathy)在2023年初发布了一条推文(链接:[https://x.com/karpathy/status/1617979122625712128](https://x.com/karpathy/status/1617979122625712128)): > “最热门的新编程语言是英语” 我多年来不懈努力,致力于实现这个愿景。我构建了一个自然语言编程栈,用于创建人工智能代理。我认为这是第一个真正的软件3.0栈。 核心理念:将大型语言模型(LLMs)作为CPU!你终于可以逐步调试你的提示,并获得可靠、可验证的执行。这个栈包括一种新语言、编译器以及开发工具,如VSCode扩展。 程序以Markdown格式编写。H1标签是代理,H2标签是自然语言剧本(即函数),Python剧本。所有代理中的剧本都在同一个调用栈上运行。自然语言和Python剧本可以相互调用。 快速介绍视频:[https://www.youtube.com/watch?v=ZX2L453km6s](https://www.youtube.com/watch?v=ZX2L453km6s) GitHub:[https://github.com/playbooks-ai/playbooks](https://github.com/playbooks-ai/playbooks)(MIT许可证) 文档:[https://playbooks-ai.github.io/playbooks-docs/getting-started/](https://playbooks-ai.github.io/playbooks-docs/getting-started/) 项目网站:runplaybooks.ai 示例剧本程序: ```plaintext # 国家事实代理 这个代理打印有关附近国家的有趣事实 ## 主程序 ### 触发器 - 在开始时 ### 步骤 - 询问用户他们来自哪个$country - 如果用户没有提供国家,进行对话并轻轻引导他们提供一个国家 - 列出5个靠近$country的$countries - 告诉用户附近的$countries - 通知用户你将告诉他们每个国家的一些有趣事实 - process_countries($countries) - 结束程序 ```python from typing import List @playbook async def process_countries(countries: List[str]): for country in countries: # 对每个国家调用自然语言剧本 'GetCountryFact' fact = await GetCountryFact(country) await Say("user", f"{country}: {fact}") ``` ## GetCountryFact($country) ### 步骤 - 返回关于$country的一个不寻常的历史事实 ``` 有许多非常有趣的功能。快速示例: - “排队调用提取每个候选文件的目录”——轻松调用MCP工具,多线程,工件管理,上下文管理 - “询问会计师税率是多少”是你与其他代理沟通的方式 - 你可以在同一个调用栈上无缝混合程序性自然语言剧本、ReAct剧本、原始提示剧本、Python剧本和外部剧本,如MCP工具 - “与厨师、市场专家和用户召开会议以设计新菜单”是你如何生成多代理工作流的方式,每个代理遵循自己的剧本进行会议 - 即将推出:观察代理(观察其他代理的代理——自动化内存存储,验证/认证执行,指导被观察的代理),程序性记忆的动态剧本生成等。 我希望这能改变我们未来构建人工智能代理的方式。期待讨论!我会在评论区与大家交流。
26作者: tompccs大约 1 个月前原帖
嗨,HN, 我们绝对不是第一个意识到当前招聘和求职方式存在严重问题的人。零成本的沟通和大型语言模型(LLMs)制造了如此多的噪音,以至于优秀的候选人无法被听到,而利用关键词和提示黑客来操控系统的诱惑也变得愈发强烈。 事实上,我们发现70%的早期阶段AI初创公司并不在LinkedIn上发布职位。相反,许多创始人仅在自己的网络中招聘,这在开始时有效,但无法扩展。 我们对此问题进行了深入思考,并尝试了几个想法,包括一个AI语音代理招聘员。我们甚至花了一些时间尝试成为传统的技术招聘人员,以更好地理解这个问题领域。 最终,我们构建了……一个招聘平台。 但我们认为有几个方面使我们的平台与众不同: - 我们决定不在用户与数据之间设置障碍。从您注册的那一刻起,您可以随意搜索、筛选或浏览。零上手门槛。 - 我们想专注于一个细分市场,因此我们专注于展示早期阶段AI公司的机会(超过30,000个职位,来自24,000家公司)。 - 您可以使用键盘快捷键进行导航! - 我们构建了一个语音代理Nell,她通过您的浏览器与您进行技术招聘电话,并立即找到匹配的职位,就像一个了解您并且人脉广泛的朋友一样。 - 当您告诉我们您对某个职位感兴趣时,我们会尽力直接将您与创始人联系,并附上您的个人资料,无需求职信,无需无意义的表格。 - 我们用投资者级别的智能丰富了职位数据——您可以查看风险投资公司用来决定一个初创公司是否值得加入的相同数据。 试试看,告诉我们您的想法: [https://teeming.ai](https://teeming.ai)
7作者: aaronSong大约 1 个月前原帖
Clink 让您可以使用已经支付的编码代理(Claude Code、Codex CLI、Gemini CLI、Z.ai GLM)在一个独立的容器中构建 → 实时预览 → 部署应用程序。<p>无需购买令牌,也没有额外的编码费用。只需链接您现有的 Claude/OpenAI/Gemini 账户,即可立即开始构建和部署。<p>我们为什么要开发这个:<p>Claude Code 是我们进行编码的首选工具,但它缺乏预览和部署功能。我们不想为了这个再次支付 Lovable 的费用。<p>不同的代理在不同的任务中表现出色——Claude Code 适合多样性,Codex 适合复杂工作,GLM 适合快速开发。我们需要一个平台来充分利用它们。<p>CLI 代理比传统的网页构建工具提供了更多自由。我们希望通过合适的开发工具释放它们的全部潜力。<p>它的功能:<p>• 提示 → 构建 → 实时 → 部署 - 从创意到上线网站的最快路径。免费部署。<p>• 自带订阅 - 高效利用您现有的计划(Claude Code $20 = 10倍 Lovable $25 的使用,GLM $3 = 3倍 Claude Code $20 的使用)<p>开发者模式(测试版):<p>• 多栈支持 - 使用 Node、Python、Go、Rust 构建,并立即将容器部署到公共 URL<p>• 仓库导入 - 升级并部署您现有的项目,支持任何技术栈<p>链接:<p>• Clink: <a href="https://clink.new" rel="nofollow">https://clink.new</a><p>• 开源来源(Claudable,约 2800 次): <a href="https://github.com/opactorai/Claudable" rel="nofollow">https://github.com/opactorai/Claudable</a><p>我们非常欢迎任何反馈、错误报告或技术栈请求——我们快速迭代并阅读每一条评论。
2作者: asenzz大约 1 个月前原帖
Tempus是一个旨在高精度建模时间序列数据或回归问题的项目。它基于Vapnik、Chervonenkis和Lerner教授的支持向量机理论,实施了一种改进的核回归算法,并进行了多项改进,例如嵌套核、多层权重、大规模并行化和系统参数调优。 Tempus提供了多种信号分解方法和自动特征工程。这种新的支持向量机实现允许使用任何统计模型,甚至是自身,作为核函数。这是通过计算理想的核矩阵来完成的,该矩阵用作测量核函数适应性的参考。截至目前,已经实现了LightGBM、Torch、Path、RBF和全局对齐核。 Tempus在处理最复杂的数据时,能够显著提高准确性,超越其他竞争模型。
3作者: kapkapkap大约 1 个月前原帖
14年前,我通过Show HN发布了TicketData的原始版本。尽管公共网站没有获得关注,但这些数据对票务行业的人士来说非常有价值,因此它成为了一个B2B数据产品,自那时以来一直让我忙碌不已。现在,我重新推出了前端网站,作为一个完全免费的公共工具,帮助任何人在购买现场活动门票时做出更明智的决策。 重新推出的网站展示了实时转售价格图表(使用来自StubHub、Vivid Seats、SeatGeek等网站的数据),这些图表每几分钟就会更新一次。您可以查看最便宜门票的价格历史(“入场价格”),或者查看预定义区域(如地面座位)的价格,您也可以在任何区域或行中设置自己的自定义区域(例如“地面中心,1-10排”)。此外,您还可以设置价格超过或低于您设定的阈值时的提醒。 许多大型活动还包括价格走势的预测。这些预测基于多年的历史数据,结合实时数据和其他输入(如销售数据以及其他许多变量……对手、星期几、场馆容量等),通过XGBoost构建的模型进行处理。我正在逐步将预测功能推广到更多活动,随着模型的不断完善,我对不同类型/流派活动的准确性充满信心。 除了即将举行的活动数据外,网站上目前还提供大约2.5年的历史数据。如果持续有兴趣,我将努力将数据扩展到2011年。 以下是一些示例: [即将举行的活动] 保罗·麦卡特尼下周的演出: <a href="https://www.ticketdata.com/events/12435572" rel="nofollow">https://www.ticketdata.com/events/12435572</a> [过去的活动] 堪萨斯城酋长队对拉斯维加斯突袭者队(周一夜) <a href="https://www.ticketdata.com/events/1174976" rel="nofollow">https://www.ticketdata.com/events/1174976</a> 今年夏天Oasis的所有8场北美演唱会: <a href="https://www.ticketdata.com/events/compare?ids=1006457%2C1006458%2C1006459%2C1006460%2C1010964%2C1010967%2C1010968&mode=days" rel="nofollow">https://www.ticketdata.com/events/compare?ids=1006457%2C1006458%2C1006459%2C1006460%2C1010964%2C1010967%2C1010968&mode=days</a> 或者要查看您本周末在本地举行的最便宜的演出,请点击主页上的“本地” + “本周末”筛选器:<a href="https://www.ticketdata.com/" rel="nofollow">https://www.ticketdata.com/</a> 感谢您的反馈!
6作者: ColinWright大约 1 个月前原帖
由于目前互联网搜索能力的下降,我在寻找这个内容时遇到了困难。或者也许只是我搜索的技巧不够好。 我记得有一个网站,上面描述了所有的HTTP错误代码,并用《柯南·道尔探案集》的剧照进行了说明。有人能帮我找到这个网站吗? 另外,你能告诉我怎么找到它吗?我以前在网络搜索方面很厉害,但现在似乎什么都找不到。 提前谢谢你。
1作者: sutharjay1大约 1 个月前原帖
嘿,HN, 我们开发了MailAI——个人AI代理,全天候在安全沙箱中运行,以自动化电子邮件工作流程。MailAI已获得CASA认证,确保企业安全。 问题: 每个“AI电子邮件工具”只是提供建议。我们希望有能够真正执行工作的代理。 技术创新: - 代理在隔离的安全沙箱中运行 - MailAI已获得CASA认证,确保企业安全 - 完全隔离(您的数据不会泄露) - 全天候执行(不仅仅是建议) 它的功能: - 使用您的知识库自动回复客户 - 跟踪发票并发送付款提醒 - 协调会议(检查您的日历) - 用简单的英语处理自定义工作流程 真实示例: “每天早上9点,总结所有标记为重要的未读邮件” “跟踪所有发票,并在到期日前3天提醒客户” “使用我们的常见问题文档自动回复客户支持邮件” 沙箱的重要性: 与其他在共享基础设施上运行的工具不同,我们的沙箱提供完全隔离。您的代理只能访问您明确授权的内容——没有更多。这可以防止数据泄露、未经授权的访问以及用户之间的交叉污染。 试用: 7天免费试用: [https://mailai.live](https://mailai.live) 我们希望获得反馈: 1. 安全问题(我们对此非常关注) 2. 我们遗漏的使用案例 3. 技术实施问题 由两位创始人和一位创始成员共同开发,他们曾在电子邮件中苦苦挣扎。欢迎随时提问!
1作者: marjipan200大约 1 个月前原帖
让时间变得有意义。通过简单的文本创建并分享美观的互动时间线。该功能也可以作为 Obsidian 插件使用。<p>开发者可以使用 NPM 上的 chronos-timeline-md 库在他们的应用中渲染 Chronos 时间线。
7作者: ericcurtin大约 1 个月前原帖
嘿,Hacker News, 我们是docker/model-runner的维护者,想与大家分享一些我们非常兴奋的重大更新。 链接: [https://github.com/docker/model-runner](https://github.com/docker/model-runner) 我们正在振兴社区: [https://www.docker.com/blog/revitalizing-model-runner-community/](https://www.docker.com/blog/revitalizing-model-runner-community/) 从本质上讲,model-runner是一个简单的、与后端无关的工具,用于下载和运行本地的大型语言模型。可以将其视为与不同模型后端交互的一致接口。我们的主要后端之一是llama.cpp,我们会确保将我们所做的任何改进反馈给他们的项目。它还允许人们通过OCI注册表(如Docker Hub)传输模型。Docker Hub托管我们精心挑选的本地AI模型集合,打包为OCI工件并准备运行。您可以轻松地在Docker Hub上下载、分享和上传模型,使其成为容器化应用程序和下一波生成性AI的中心枢纽。 最近我们在几个方面努力工作: - Vulkan和AMD支持:我们刚刚合并了对Vulkan的支持,这使得本地推理可以支持更广泛的GPU,特别是来自AMD的GPU。 - 贡献者体验:我们将项目重构为单一代码库。主要目标是使架构更清晰,并显著降低新贡献者参与和理解代码库的门槛。 - 完全开源:我们知道Docker的项目可能会引发关于其开放性的问题。明确来说,这是一个100%开源的项目,采用Apache 2.0许可证。我们希望围绕它建立一个社区,欢迎所有贡献,从文档修复到新的模型后端。 - DGX Spark的零日支持,我们已经实现了! 我们的目标是发展社区。我们会在这里全天候回答您的任何问题。如果您喜欢,请查看一下,给我们一个星标,并告诉我们您的想法。 谢谢!