返回首页

一周热榜

1作者: nicholast4 天前原帖
一个针对大型语言模型(LLM)聊天服务的模板默认提示注入。其前提是,由于消费级人工智能门户在不同声音的代理设置方面大多缺乏,我们可以将一些默认声音硬编码到本地提示注入中,以便在聊天会话中通过关键词进行访问。这可能有助于在快速变化的环境中快速访问,以支持不同类型的互动议程。
1作者: nedhuang4 天前原帖
我是内德,生日邀请AI的创始人。 作为一名家长,我深知策划生日派对的乐趣(和压力!)。找到一张与孩子兴趣相符的完美邀请函,管理来自几十位同学的回复,以及确保每个人都知道派对的细节——在其他事情之外,这真是一项巨大的挑战。 这就是我创建生日邀请AI的原因。 我们的AI了解您的需求——无论是为您三岁的孩子准备的“小猪佩奇”派对,还是为您母亲的60岁生日举办的优雅晚宴,它都能在一分钟内为您制作出美丽、个性化的邀请函。无需设计技能。只需用任何语言描述您想要的,我们的AI就能将您的构想变为现实。 每张邀请函都包含一个二维码,使得回复变得轻而易举。客人扫描二维码确认,您可以实时查看所有回复。不再需要追问或担心谁会来。 通过这个终身优惠,您不仅仅是获得了一款工具——您还为家庭未来每一个生日庆祝活动带来了安心。 感谢您成为我们旅程的一部分! 内德·黄 生日邀请AI创始人
1作者: oliveskin3 天前原帖
嘿,HN, 我开发了Tinman,因为在生产环境中发现大型语言模型(LLM)的失败实在太麻烦了。传统的测试只检查你已经想到的内容,而Tinman则试图发现你未曾想到的问题。 它是一个自主研究代理,能够: - 生成关于潜在失败模式的假设 - 设计并运行实验来测试这些假设 - 对失败进行分类(推理错误、工具使用、上下文问题等) - 提出干预措施并通过模拟进行验证 核心循环持续运行,每个周期都会为下一个周期提供信息。 为什么是现在:随着像OpenClaw/ClawdBot这样的工具为代理提供真实系统访问,失败的表面远比“糟糕的聊天机器人响应”要大得多。Tinman拥有一个网关适配器,可以连接到OpenClaw的WebSocket流,以便在请求流动时进行实时分析。 三种模式: - LAB:对开发环境进行无限制研究 - SHADOW:观察生产环境,标记问题 - PRODUCTION:需要人工批准 技术: - Python,全面支持异步 - 可扩展的GatewayAdapter ABC,适用于任何代理/网关 - 内存图,用于跟踪何时知道了什么 - 兼容OpenAI、Anthropic、Ollama、Groq、OpenRouter、Together ``` pip install AgentTinman tinman init && tinman tui ``` GitHub: [https://github.com/oliveskin/Agent-Tinman](https://github.com/oliveskin/Agent-Tinman) 文档: [https://oliveskin.github.io/Agent-Tinman/](https://oliveskin.github.io/Agent-Tinman/) OpenClaw适配器: [https://github.com/oliveskin/tinman-openclaw-eval](https://github.com/oliveskin/tinman-openclaw-eval) Apache 2.0。没有遥测,没有付费层。欢迎反馈和贡献。