返回首页
一周热榜
我在修改我的提案答辩时,总感觉自己在重复同一个术语。在一个通常由多个 .tex 文件组成的 LaTeX 项目中,想要快速、干净地查看词频而不需要将所有文件合并在一起,或者将 LaTeX 命令/数学公式算作“单词”,是相当麻烦的。
因此,我构建了 latex-wc,这是一个小型的 Python 命令行工具,具有以下功能:
- 从 LaTeX 中提取词元,同时忽略常见的 LaTeX “噪音”(命令、注释、数学公式、引用/文献等)
- 可以处理单个 .tex 文件或一个目录,并递归扫描所有 *.tex 文件
- 一次性打印综合报告(总词数、独特词数、前 N 名频率)
尝试它的最快方法是 `uvx latex-wc [路径]`(文件或目录)。欢迎反馈,特别是关于你认为启发式过滤器过于激进或不够激进的边缘案例。
嘿,HN!我上周参加了一个ATProto的聚会,作为一个对学术出版感到厌倦的半学术人士,我觉得有一个很酷的机会可以在Octopus(<a href="https://www.octopus.ac/" rel="nofollow">https://www.octopus.ac/</a>)的基础上进行开发,所以我在周末有点兴奋,构建了Octosphere。<p>希望你们中的一些人会觉得它有趣!博客文章在这里:<a href="https://andreasthinks.me/posts/octosphere/octosphere.html" rel="nofollow">https://andreasthinks.me/posts/octosphere/octosphere.html</a>
我编写了一种轻量级的脚本语言,可以与C语言一起运行。具体来说,它是一个C库,通过C函数调用来运行,并且可以回调你自己的C函数。编译后大小约为250KB。除了C标准库之外没有其他依赖。
主要语言特性:
* 使用别名而不是指针,因此内存安全
* 数组支持N维并且可调整大小
* 可以运行脚本或其自己的“shell”
* 错误捕获
* 方法、继承等
* 可定制的语法
我在过去几周一直在使用Clawdbot,确实觉得它很有用,但运行它让我感到非常紧张。<p>OpenClaw有52个以上的模块,并在一个Node进程中运行具有近乎无限权限的代理。NanoClaw的核心代码大约有500行,代理在实际的Apple容器中运行,并实现文件系统隔离。每个聊天都有自己的沙盒上下文。<p>这不是一把瑞士军刀。它是根据我的具体需求而构建的。你可以分叉它,做成你自己的版本。
嗨,HN,
我们刚刚在Flexprice中发布了Nomod集成。
为了提供一些背景,Flexprice是一个开源的账单系统,处理发票、使用情况和信用钱包。我们希望弥补的一个空白是支持特定地区的支付提供商,而不破坏账单状态。
通过这个集成:
- 在Flexprice中完成的发票可以同步到Nomod
- 为发票生成一个托管的Nomod支付链接
- 支付状态更新会反馈回Flexprice
- 发票和支付记录保持同步
- 只有在支付成功后,信用(如适用)才会被应用
这使得账单逻辑保持简单,避免了后期的对账问题。目前还没有演示,但文档已在这里上线: [https://docs.flexprice.io/integrations/nomod/](https://docs.flexprice.io/integrations/nomod/)
欢迎提问或分享反馈,特别是对于那些之前构建过账单或支付集成的人。如果您对此感兴趣,也欢迎加入我们的开源社区: [http://bit.ly/4huvkDm](http://bit.ly/4huvkDm)
在过去几周,世界模型首次开始显得真实。你可以看到连贯的环境、长时间的展开,以及越来越令人信服的视觉效果。同时,这些系统大多数难以运行,难以集成,并且在规模与交互性之间进行了权衡。
我们创立Overworld是因为我们更关注构建可以实际栖息的世界,而不是制作令人印象深刻的视频。这意味着低延迟、持续控制,以及每次你采取行动时系统都会做出响应,而不是每次只在提示时响应。
上周,我们发布了Waypoint 1,这是一个实时扩散世界模型的研究预览,能够在本地运行。下周,我们将发布Waypoint 1.1 Small,旨在能够在现代消费级GPU上运行,并且易于构建和修改。
Waypoint是从零开始构建的,而不是从大型视频模型微调而来。我们在控制频率、稀疏注意力和快速推理方面进行了大量优化,以便系统能够维持持久的世界状态,并以游戏级帧率响应输入。我们的目标是创造一些开发者今天就能集成的东西,而不仅仅是作为演示观看。
我们认为,一旦世界模型遵循类似于大型语言模型(LLMs)的路径:本地执行、开放工具和快速的社区驱动迭代,这个领域将会快速发展。Genie和类似系统展示了在大规模下的可能性。我们的重点是让这个未来变得本地化和可接触。
我们在最近的博客文章中详细讨论了“沉浸差距”,为什么交互性比单纯的视觉效果更重要,以及我们如何优化模型。
代码、演示和发布详情请访问:https://over.world/blog/the-immersion-gap
嗨,HN——我正在探索一个想法,希望能得到你们的反馈。
我是一名 Obsidian 的构建者和用户,正在验证一个名为“关注点”的概念。目前这只是一个登陆页面和简短的调查(还没有产品),目的是测试这个痛点是否真实存在。
核心想法(2-3 个要点):
- 我们中的许多人捕捉了大量有用的信息(笔记/链接/文档),但这些信息很少转化为实际的工作成果。
- 我并不是在寻找更好的“组织方式”(标签/文件夹),而是在探索一个“行动引擎”,它能够:
1. 检测你正在积极关注/工作的内容(“活跃项目”)
2. 在合适的时刻呈现相关的已保存材料
3. 提出具体的下一步行动(理想情况下推送到你现有的任务工具中)
我自己的“第二大脑”变成了良好意图的墓地:组织的成本高于我获得的价值。我正在尝试验证真正的瓶颈是执行,而不是信息捕捉。
在编写代码之前,我想明确两件事情:
- 项目上下文信号(代码库/拉取请求?问题?任务?日历?“项目文档”?)
- 如何闭环:获取知识 → 针对活跃项目进行排名 → 将一小组下一步行动输出到现有的待办工具中 → 从结果中学习(完成/被忽略/编辑),并可选择写回最小状态。开放性问题是:在不产生噪音或隐私风险的情况下,最干净的反馈信号是什么?(显式评分 vs 完成事件 vs 基于文档的写回)
我想向你们询问:
1. 你的“第二大脑”在哪个环节最容易崩溃?
捕捉 / 组织 / 检索 / 执行
(如果可以,请分享一个具体的近期例子。)
2. 今天对你来说,什么最能代表“活跃项目上下文”?
- 任务项目(Todoist/Things/Reminders)
- 问题/看板(GitHub/Linear/Jira)
- 文档/维基页面(Notion/Docs)
- 日历
- “在我脑海中”
你会允许哪个工具读取?
3. 对于一个从你的笔记/链接中建议行动的 AI,你最坚决的“拒绝”是什么?(选择 1-2 个)
- 隐私/数据保留
- 噪音建议/打扰
- 幻觉/错误建议
- 工作流程变更/迁移成本
- 定价
- 其他
用于安全运行LLM生成代码的WASM沙箱。<p>代理拥有类似bash的命令行界面,只能调用您提供的工具,并遵循您定义的限制。没有Docker,没有子进程,没有SaaS——只需通过pip安装amla-sandbox。
嗨,HN,
我一直在开发一种名为 G 的编程语言。它旨在实现内存安全和极快的执行速度,并且注重小巧的占用空间。
整个解释器是用 D 语言编写的,大小仅为 2.4MB。我之所以构建它,是因为我想要一种现代的脚本语言,既轻量又具备高级语言的安全性。
主要特点:
```
小巧:二进制文件约 2.4MB。
快速:针对 x86_64 进行了优化。
安全:内存安全执行。
标准库:包含 std.echo、std.newline 等。
```
GitHub: https://github.com/pouyathe/glang
我非常希望能从社区获得一些关于语法或架构的反馈!