2作者: Areibman6 个月前原帖
Bottleneck 是一款用于代码审查 AI 编写的拉取请求的桌面应用程序。<p>其目标是能够跟踪由智能体(如 Codex、Devin、Cursor、Claude Code)创建的 GitHub 拉取请求,并比较不同的分支。因此,如果你同时使用多个编码智能体处理一个任务,这将是一个更简单的方法,让智能体之间进行“比拼”,从中选择最佳方案。(无需打开 GitHub 网站并在加载缓慢的标签页之间切换)。<p>我非常希望能收到任何深度使用 AI 编码智能体的高级用户的反馈。
1作者: aretecodes6 个月前原帖
大家好, 我一直在开发Astrae,这是一个为Next.js、Tailwind CSS和Framer Motion构建的美观动画组件和模板库。 作为一名设计师和创意开发者,我注意到虽然市面上有很多UI工具包,但很少有能够轻松添加动画和个性化的选项,而不需要从头开始。Astrae旨在解决这个问题——你可以直接使用看起来非常精致的动画。 一些亮点包括: - 可直接使用的着陆页和作品集模板 - 由Framer Motion驱动的动画UI组件 - 100%为Next.js和Tailwind CSS构建 - 专注于设计质量和性能 目前,我正在逐步推出新组件,并在社交媒体上展示它们。
1作者: HardikVala6 个月前原帖
一个基于karpathy的llama2.c的灵感,使用纯C语言实现的现代BERT的简化版本。核心部分(分词器 + 推理代码)大约有1000行代码,没有任何依赖(除了OpenBLAS用于快速矩阵乘法,和PCRE用于正则表达式)。 如果你不知道,现代BERT是来自answer.ai的一种新的仅编码器模型。与像Llama这样的仅解码器模型不同,编码器模型在单次传递中处理所有输入标记(没有自回归),这使得它们非常适合诸如标记分类等任务。 该实现支持从Hugging Face加载任何现代BERT检查点。我已经用基础模型和一个用于匿名化个人身份信息(PII)的标记分类模型进行了测试。在单线程下,你可以获得超过1200个标记/秒的吞吐量(略好于PyTorch实现),尽管这与解码器模型不完全可比,因为没有逐标记生成。 我硬编码了架构,以保持简单和易读。分词器是从头开始实现的BPE,能够处理大多数情况(尽管缺少一些边缘案例)。主要目标是支持该模型的轻量级部署,而不需要PyTorch生态系统的沉重负担。 希望你喜欢。
1作者: tumidpandora6 个月前原帖
排灯节通常被视为家庭庆祝活动,但它也可以成为在工作中联系和表达感激的有意义时刻。本文分享了一些适合职场环境的排灯节祝福,从团队表扬到给领导的祝福便条。祝您排灯节快乐!<p>点击这里阅读: https://www.bravoboard.xyz/blog/thoughtful-diwali-wishes-to-share-at-work