返回首页
最新
我相信学习一门语言的最佳方式是通过深入的项目实践。这是我第一个旨在学习发布 Zig 包的 Zig 项目。结果证明,它相当稳健且性能良好,可能有些过度设计。
这个小库包含以下功能:
- 从依赖数据构建依赖图。
- 对依赖图进行拓扑排序。
- 生成无依赖子集以便进行并行处理。
- 循环检测和循环报告。
我很好奇为什么选择了这个颜色。<p>它们看起来像是被标记的评论。我知道随着年龄的增长我的视力在下降,但我不可能是唯一一个需要自定义CSS才能舒适阅读帖子的人。
嘿,HN!我已经在这个概念上断断续续工作了一年,挑战自己在愚人节之前发布它,因为我总是倾向于囤积项目。
这是一个无限猴子定理的模拟器!你可以浏览我们的猴子网格,它们正在随机地在键盘上忙碌地打字,看看它们写了哪些单词——其中有多少出现在莎士比亚的作品中。
如果你愿意,可以免费加入并获得一只属于自己的猴子。猴子在打出特殊单词时会获得特别奖励——这些奖励可以用来定制它们的外观。我今天早上刚刚重置了模拟器,所以我们是从零开始的!
在某些地方可能还有些粗糙,如果有内容加载不正确,请刷新一下。我希望你能喜欢这个项目——对我来说,这绝对是一个充满爱的劳动成果!
我在经历了太多糟糕的纽约公寓经历后建立了这个工具:漏水、老鼠、没有暖气。这些问题当然在房源列表中是看不到的。<p>Realest 是一个浏览器扩展,它将 311 房屋投诉数据叠加在 StreetEasy 的房源列表上,直接显示在搜索结果中。<p>它从纽约市的开放数据中提取信息,旨在帮助租户避免隐藏的问题。<p>非常希望能得到反馈!
上周对于开源大型语言模型(LLMs)来说是个重要的时刻。我们得到了以下模型:
- Qwen 2.5 VL(72亿和32亿参数)
- Gemma-3(27亿参数)
- DeepSeek-v3-0324
几周前,我们还获得了新的mistral-ocr模型。我们更新了我们的OCR基准测试,以包含这些新模型。
我们评估了1000份文档的JSON提取准确性。主要发现如下:
- Qwen 2.5 VL(72亿和32亿参数)表现最为出色。两者的准确率都在75%左右(相当于GPT-4o的表现)。Qwen 72亿参数的准确率仅比32亿参数高出0.4%,在误差范围内。
- 两个Qwen模型的表现均超过了mistral-ocr(72.2%),后者是专门为OCR训练的。
- Gemma-3(27亿参数)的得分仅为42.9%。这一结果尤其令人惊讶,因为它的架构基于仍然在准确率排行榜上名列前茅的Gemini 2.0。
数据集和基准测试工具完全开源。您可以在以下链接查看代码和复现步骤:
- [基准测试开源模型的博客](https://getomni.ai/blog/benchmarking-open-source-models-for-ocr)
- [GitHub上的基准测试代码](https://github.com/getomni-ai/benchmark)
- [Hugging Face上的OCR基准数据集](https://huggingface.co/datasets/getomni-ai/ocr-benchmark)
你们觉得一个集成了大型语言模型(LLM)的虚拟白板怎么样?它可以作为思维助手,根据你的写作提供见解和建议,帮助你进行头脑风暴。它还能够修改你的文字,增加更多的想法。同时,它也能检索信息,并结合你在白板上已经写的内容提供见解。