返回首页
最新
向您介绍我最新的项目:亚历山大的博客!<p>这是一个拥有无数博客文章的博客,因为如果您访问的路径不存在,它会利用人工智能来构建这个路径,然后它就存在了。<p><a href="https://the-blog-of-alexandria.ricciuti.app/blog/svelte-is-the-coolest" rel="nofollow">https://the-blog-of-alexandria.ricciuti.app/blog/svelte-is-t...</a><p>如果您愿意,可以尝试新的文章……这个博客是使用 SvelteKit、Drizzle + SQLite、部分使用 Tailwind 构建的,托管在 Coolify 上,并使用 GPT-OSS 20b 生成文章。
大家好!几周前,我们意识到AI模型现在已经如此优秀,以至于你不再需要时刻盯着它们。你可以在午餐时启动一个编码任务,而Claude Code就能顺利运行。但接下来你却被困在桌子前,得指挥它。
我们开玩笑说——如果能在喝咖啡时用手机继续和Claude聊天,那该多好啊?没过多久,我们四个人就在周末一起动手实现这个想法。
尝试起来非常简单:只需运行“npm install -g happy-coder”,然后用“happy”代替“claude”即可。就是这么简单。
我们有三个目标:
* 不打断任何人的工作流程——在桌子上正常使用Claude Code,离开时拿起手机。没有任何变化,也不会出问题。
* 实际上是私密的——完全的端到端加密,没有常规账户。你的加密密钥在手机上生成,并与终端安全配对。我们保护我们的基础设施,而不是你的数据(因为我们根本无法看到它)。
* 免提是未来——这是个有趣的部分。我们连接了11Labs的新实时SDK,这样你可以在走动时通过GPT-4.1与Claude Code对话。选择11Labs是因为我们可以配置它不存储音频或转录文本。
移动体验非常不错——聊天快速,适用于所有设备(iPads、可折叠设备等等),还有网页版。
这是免费的!应用和聊天完全免费。未来我们可能会对语音推理收费,或者让你使用自己的API密钥在客户端运行。
应用链接:
iOS: [https://apps.apple.com/us/app/happy-claude-code-client/id6748571505](https://apps.apple.com/us/app/happy-claude-code-client/id6748571505)
Android(刚发布): [https://play.google.com/store/apps/details?id=com.ex3ndr.happy](https://play.google.com/store/apps/details?id=com.ex3ndr.happy)
网页: [https://app.happy.engineering](https://app.happy.engineering)
期待听到你的想法!
你们在使用什么文本/通话API?有没有其他的替代方案?
这个网站是为机器学习新手准备的,我发现图形化的展示确实有助于揭示模型的具体工作原理。我正在考虑将其应用于帮助高中机器人团队将机器学习融入他们的编程中。
这个网址提供监督学习的功能,但也有一个页面专门用于无监督学习:
<a href="https://cdeeply.com/tabular_encoding.html" rel="nofollow">https://cdeeply.com/tabular_encoding.html</a>
任何反馈都非常欢迎!(网址 -> 生成随机数据 -> 提交以尝试)。
这是由DeepMind主办的Gemma 3n影响挑战赛的原型。我们之前没有本地大型语言模型(LLM)的经验,所以这是一次非常有趣的学习经历。希望未来能看到更多轻量级的LLM模型!
SBOM Workbench v1.19 发布了。
新功能:
• 直接导入原始结果
• 导入带源代码的项目
• CycloneDX 输出与 Dependency Track 更加兼容
获取链接: https://github.com/scanoss/sbom-workbench/releases/tag/v1.19.0
嘿,HN!我希望能找一些人来试试我为学习DSPy而制作的小项目!我一直是小说和网络小说的忠实读者,对两个问题充满好奇:大型语言模型(LLMs)如何能够根据读者反馈逐步学习写得更好,以及哪些LLMs在创意写作方面实际上表现最佳(研究基准很酷,但不一定能转化为现实世界的使用)。
这正是我创建 narrator.sh 的原因!这个平台接受用户输入的小说创意,然后通过使用 DSPy 根据真实的读者反馈逐章生成连载小说。我使用了链式思维(CoT)和并行模块来分解写作任务,精炼模块和将LLM作为评判者的奖励函数,以及SIMBA优化器来重新编译之前章节的用户评分,以改善后续章节。
与其使用合成基准,我追踪真实的读者指标:阅读时间、评分、书签、评论和回访。这创建了一个排行榜,显示哪些模型实际上写出人们想要完成的引人入胜的小说。
目前,关于创意写作LLMs的评估主要来自作者的视角(例如OpenRouter对Novelcrafter等工具的使用数据)。但最终决定好坏的还是读者,而不是作者。
你可以在这里试试:<a href="https://narrator.sh" rel="nofollow">https://narrator.sh</a>。这是当前的排行榜:<a href="https://narrator.sh/llm-leaderboard" rel="nofollow">https://narrator.sh/llm-leaderboard</a>(现在有点空荡荡的,因为用户不多,哈哈)。
(友情提示:由于我在Reddit上发布了寻找测试者的帖子,导致一些人对提示进行了创意发挥,因此有一些成人内容。我正在努力丰富内容!)