返回首页
一周热榜
我尝试过 aider、aider-ce 和 opencode。我在 Windows 11 上使用 MSYS2 的类 bash 终端进行编码,同时在 WSL2 下的 Ubuntu 中也使用 bash。
根据我的经验,aider 是这三者中最好的。虽然它的功能最少,但它“就是好用”。我告诉工具我想要完成的任务,经过一点学习后,它大约 90% 的时间能够准确地完成。
使用 aider-ce 和 opencode 时,我遇到了太多的错误。例如,目前在 Windows 上,复制粘贴似乎根本无法使用,这在无法将重要代码片段复制到模型时造成了巨大的功能损失。
Opencode 作为一个带有主题的 TUI 看起来非常酷,但我真的不喜欢这些代理的随机性。我不知道 Claude Code 和 Codex 是否也这样,但我给出的任何简单任务可能会立刻解决,也可能因为调用随机工具而导致耗时是 aider 的 5 倍,试图进行网络搜索以找到技术上正确但不符合需求的文档,遇到 403 错误可能是因为被检测为机器人,然后在提交一个比 aider 生成的补丁更差的结果之前又尝试了 3 次。
我本来只想坚持使用 aider,但 aider-ce(社区扩展)存在是因为开发者在它获得与 opencode 相同数量的星标后就停止了更新。我在想是否还有更好的替代方案,或者其他人是否也对 aider 的现状有相同的感受。这很可惜,因为 aider 确实在应用 AI 方面做得很好,足以让我不必担心其随机性,它正好完成我所要求的任务,没有多也没有少。我觉得使用 aider 时,我对运行在我代码上的 AI 有最大的控制权。
构建的底层:
<a href="https://github.com/bkrauth7/Planetary-substrate" rel="nofollow">https://github.com/bkrauth7/Planetary-substrate</a><p>基于GPT-4o的原型。稳定且在线。神经系统接口。<p>提议将维基百科提升10倍、100倍的质量。<p>本
bkrauth7@gmail.com
我对一个马尔可夫链生成器进行了优化,并在Uri Alon等人的一篇文章上进行了训练[0]。<p>它生成的文本在我看来至少与NanoGPT等小型语言模型不相上下。以下是一个示例:<p>jplr@mypass:~/Documenti/2025/SimpleModels/v3_very_good$ ./SLM10b_train UriAlon.txt 3<p>正在训练顺序为3的模型...<p>跳字检测:禁用(顺序< 5)<p>修剪已禁用<p>正在计算JSON导出的模型大小...<p>将导出29832个模型条目<p>正在导出词汇表(1727个条目)...<p>词汇表导出完成。<p>正在导出模型条目...<p><pre><code> 处理了12000个上下文,写入28765个条目(96.4%)...
</code></pre>
JSON导出完成:29832个条目已写入model.json<p>模型已训练并保存到model.json<p>词汇表大小:1727<p>jplr@mypass:~/Documenti/2025/SimpleModels/v3_very_good$ ./SLM9_gen model.json<p>老化细胞模型需要全面的发生率数据。为了获得如此庞大的关节医疗数据库,必须考虑风险因素。因此,该理论可能会扩展以描述动脉粥样硬化和代谢综合症的演变。例如,晚期2型糖尿病与β细胞功能的崩溃相关。这种崩溃有两个参数:预测衰老细胞的比例会影响疾病阈值。对于每个个体,使用SR模型模拟衰老细胞的丰度,其发生率曲线大致呈指数型,在老年时下降。在这一部分,我们模拟了一系列与年龄相关的发生率曲线。接下来的部分提供了疾病类别的示例,显示出在衰老细胞清除治疗后改善的趋势,这在定性上支持了这样的预测。模型不同的疾病阈值作为疾病发生的值,当生理参数ϕ因疾病而增加时,疾病就会发生。增加的易感性参数s,在BMI低于25(男性)和54(女性)之间变化约3倍,至少是轻微与年龄相关的,而25(男性)和28(女性)则是强烈与年龄相关的,正如上面所定义的。在这些中,我们发现有66个被模型很好地描述,作为提供稳态的广泛反馈机制,其半衰期在年轻小鼠中为几天,但在老年小鼠中其去除率减缓。某种类型的癌症具有强烈的风险因素,应增加最常见生物老化过程的关节去除率,这一过程主导了至少104人的病理发生记录,共计877个疾病类别代码(见补充信息第9节),每年增加6-8%的范围。双参数模型很好地描述了强烈与年龄相关的ICD9代码:90%的代码显示R² > 0.9(图4c)。这种一致性与之前提出的IMII模型在癌症、主要纤维化疾病和数百种其他与年龄相关的疾病状态的情况相似,后者的癌症发生率从10^-4降低。允许超出其阈值机制的模型对疾病类别提供了假定的病因学,适用于起源不明的疾病,如骨髓和皮肤。因此,肺泡在免疫去除能力的外部部分的突然崩溃。例如,NK细胞去除衰老细胞也对其他形式的与年龄相关的损伤和衰退有所贡献(De Bourcy等,2017)。这可以被描述为一个首次通过时间问题,询问何时突变,损害气管的颗粒去除并增加对肺泡细胞的损伤(Yang等,2019;Xu等,2018),以及导致T细胞靶向衰老细胞的免疫治疗(Amor等,2020)。由于这些治疗被预测在非常老的年龄会有一个减缓的指数发生率曲线。有趣的是,主要效应与癌症生长率与去除率的情况相反。接下来我们考虑上述前线组织的情况。<p>[0] <a href="https://pmc.ncbi.nlm.nih.gov/articles/PMC7963340/" rel="nofollow">https://pmc.ncbi.nlm.nih.gov/articles/PMC7963340/</a>
我在一家中型初创公司工作,负责处理客户交互流程中的延迟问题,这些流程使用了大型语言模型(LLMs)。在许多情况下,当我们需要速度、智能和成本控制时,使用OSS-120B似乎比5-mini或Anthropic模型更为理想。除了需要获得更高的使用限制之外,这里还有其他需要注意的地方吗?
受到“rustlings”这个概念和名称的启发,这是一个小项目,旨在学习或完善 Docker 和 Compose 命令的基础知识。我计划在后续添加更多高级主题。希望能与大家讨论如何使这个项目对其他人更有用。
在我们围坐在屏幕前之前,我们曾围坐在篝火旁讲述故事。我们天生就是讲故事的人,这正是我们与他人建立联系和理解世界的基本方式。
我一直在思考一个小团队如何保持简单高效,同时又能保持生产力和一致性。以下是我的看法:
1) 故事展开。定期召开会议,团队讨论在下次会议之前需要完成的下一步工作。
2) 情节。一个在代码库中的纯文本文档,显示已完成的工作、待完成的任务以及相关的备注或评论。
以下是项目的纯文本故事/叙述示例:
```
# 项目:云成本仪表板
为团队提供便捷的云成本数据访问。
## 集成
DONE 云成本API已与计费系统集成 @bob
## 仪表板
仪表板必须从AWS、Azure和GCP拉取数据以进行比较。
TODO 设置云成本报告仪表板 @alice
TODO 培训团队如何使用仪表板 @alice
```
以下规则适用:
- 任务状态为TODO或DONE,并且每个任务恰好占一行。
- 添加@姓名以分配任务。
- 新的TODO任务添加在底部(因此请查看底部以选择任务)。
- 可以随意在文件中添加任何自由文本/备注等,以提供上下文和见解。
随着项目的推进,故事逐渐展开并自我记录。
额外提示:使用任务行作为提交信息。
一些问题:
- 这种方法是否足以让小团队保持生产力和专注?
- 在小团队的背景下,有哪些必要的元素缺失?
期待听到你的想法!
我在过去几天里一直在尝试(但未能成功)寻找一些真正的案例,看看人工智能代理在生产环境中如何实现规模化。除了编码代理和开发生产力工具之外,我很难找到任何看起来像真正可扩展的代理系统的东西。
目前人们所称的“代理”基本上只是将一两个大型语言模型(LLM)调用拼接在一起的确定性工作流程。这并不算是一个代理,充其量也只是一个API管道。
所以我真的很好奇:有没有真正的例子展示代理在大规模处理复杂、多步骤工作流程方面的能力?不是演示,不是玩具项目,也不是风险投资的幻灯片。
我一直在相对封闭的Windows环境中工作,虽然可以运行Python,但无法安装或启动新的`.exe`文件。此外,内置的Windows语音输入功能被屏蔽(反正唯一好用的也不是本地的)。同时,我非常希望能够实现准确、快速的语音输入,而不需要将音频发送到云服务,也不需要GPU。我尝试过的大多数语音转文本设置要么需要特殊的启动器,要么需要GPU访问,或者在日常使用中操作不便。
为了满足这个需求,我开发了Chirp,这是一款完全本地运行的Windows语音输入应用,使用NVIDIA的ParakeetV3模型,并通过`uv`进行端到端管理。如果你的机器上可以运行Python,就应该能够运行Chirp——无需额外的可执行文件。
在底层,Chirp使用的是Parakeet TDT 0.6B v3 ONNX包。ParakeetV3的准确性与Whisper-large-v3相当(多语言的字错误率约为4.9,相比之下Whisper-large-v3约为5.0),但速度更快,并且在CPU上表现良好。
使用流程如下:
- 一次性设置,下载并准备ONNX模型:
- `uv run python -m chirp.setup`
- 一个长时间运行的命令行进程:
- `uv run python -m chirp.main`
- 一个全局热键,用于开始/停止录音,并将文本注入到活动窗口中。
一些可能在技术上有趣的细节:
- <i>仅限本地的语音转文本:</i>所有操作都在你的机器上使用ONNX Runtime;默认使用CPU提供者,如果环境允许,也可以选择GPU提供者。
- <i>配置驱动的行为:</i>一个`config.toml`文件控制全局热键、模型选择、量化(`int8`选项)、语言、ONNX提供者和线程管理。还有一个简单的`[word_overrides]`映射,可以修正模型经常误听的词汇。
- <i>后处理管道:</i>识别后,有一个可选的“风格指南”步骤,你可以指定提示,如“句子首字母大写”或“前置:>>”用于最终文本。
- <i>Windows上无需剪贴板操作:</i>该应用直接在聚焦窗口中输入;对于更合适的平台,提供了基于剪贴板的粘贴和清理行为选项。
- <i>音频反馈:</i>开始/停止声音(可配置)让你知道麦克风何时实际在录音。
到目前为止,我主要在自己的Windows机器上进行了英语语音输入和仅CPU的设置测试。可能还有很多粗糙的地方(不同的键盘布局、语言设置、企业IT政策等),我希望能得到以下人群的反馈:
- 在受限的企业环境中工作并需要本地语音输入的人。
- 有Parakeet/Whisper或ONNX Runtime经验,并能看到明显的性能或稳定性改进方法的人。
- 想要特定功能(例如,更好的多语言支持、更先进的后处理,或与他们的编辑器/IDE集成)的人。
代码库在这里:
`<a href="https://github.com/Whamp/chirp" rel="nofollow">https://github.com/Whamp/chirp</a>`
如果你尝试使用,我非常感兴趣:
- 你硬件上的CPU使用率和延迟,
- 它在你的键盘布局和应用程序中的表现,
- 你遇到的任何奇怪的故障情况或使用上的烦恼。
欢迎在评论中提问或深入讨论技术细节。