Chartle 可以通过自然语言生成图表。你只需输入类似“过去10年编程语言的受欢迎程度”的内容,它就会找到相关数据,选择图表类型并进行渲染。你还可以截取现有图表的屏幕截图,它会将其重新制作成干净且可编辑的格式。
该工具是基于 Next.js/TypeScript 构建的,使用 Gemini 结合 Google 搜索进行数据检索,并利用 ECharts 进行渲染。
首次使用时免费,无需注册即可生成第一个图表。免费套餐每月提供5个图表。
返回首页
最新
嗨,HN,
我是Padam,一名驻扎在迪拜的开发者。
在过去的两年里,我一直在探索一个想法,即AI推理可能不需要GPU。
现代大规模语言模型(LLM)的推理通常受内存限制,而非计算限制,因此我构建了一个实验性系统,通过SIMD向量化和量化,从CPU核心虚拟化GPU风格的并行处理。
最终结果是AlifZetta——一个原型AI原生操作系统,可以在没有GPU硬件的情况下进行推理。
一些细节:
- 大约67,000行Rust代码
- 内核级SIMD调度
- INT4量化
- 稀疏注意力加速
- 投机解码
- 6个AI模型(文本、代码、医疗、图像、研究、本地)
目标:
在GPU昂贵的地方,使AI基础设施更便宜和更易于获取。
测试版链接在这里:
[https://ask.axz.si](https://ask.axz.si)
我很好奇HN对这种方法的看法。
受到 <a href="https://component-party.dev" rel="nofollow">https://component-party.dev</a>(前端框架比较)的启发,我为 ORM(对象关系映射)构建了一个比较工具。<p>选择合适的 ORM 并不是一件简单的事情,即使有 AI 的帮助,也容易迷失方向。<p>例如,对于 Python,我使用 Django ORM:语法简洁、支持迁移、内置管理界面。可以跳过 Django 的其他组件,直接与 FastAPI 配合使用。看到它与其他技术栈的比较非常有趣,甚至可以在下一个项目中选择使用 Python 还是 TypeScript。<p>希望能收到反馈,特别是关于接下来应该添加哪些比较的建议。
RemixAI 是一个强大的人工智能创意平台,允许用户生成图像、创建视频、换脸以及使用先进的 AI 工具增强视觉效果。该平台专为创作者、营销人员和设计师设计,使用户能够在几秒钟内将创意转化为令人惊叹的视觉作品。凭借 AI 图像生成、换脸、图像增强和创意特效等功能,RemixAI 帮助用户快速制作高质量内容,无需具备设计技能。<p>立即访问以创建电影级视频和图像 - https://www.remixai.io/
你有没有想过,为什么在科技领域的每个表单、教程或演示账户中,都会使用“约翰·杜”(John Doe)这个名字?
这个故事可以追溯到中世纪的英格兰。在1300年代,英国法院有一种奇特的法律手段。当律师需要测试一个案件或提交涉及身份不明的人的索赔时,他们会使用虚构的名字。最常见的名字是“约翰·杜”和“理查德·罗”(Richard Roe)。
他们从来不是实际存在的人,只是“某个人”的占位符。
几个世纪后,法律系统仍然在使用这些名字,尤其是在一个人的身份不明时。医院用它来指代身份不明的患者,警方报告则用它来指代未知的嫌疑人。
然后,科技界借用了这个想法。
当开发者需要一个安全、中立的名字用于表单、文档和测试账户的示例时,他们采用了法律界使用了数百年的同样占位符。
这就是为什么在几乎每个注册表单中你都会看到:
姓名:约翰·杜
一个有700年历史的法律传统,悄然存在于现代软件中。
有趣的是,最古老的传统最终出现在最新的软件中。
许多人认为,如果大型语言模型(LLM)没有所谓的“持续学习”能力,我们将无法达到人工通用智能(AGI)甚至超人工智能(ASI)。基本上,持续学习是指人工智能在工作中学习、实时更新其神经权重,并在不忘记其他知识的情况下变得更聪明的能力(即灾难性遗忘)。这是我们每天都在做的事情,几乎不费力气。
现在有趣的是,如果你看看顶尖实验室的研究,他们已经停止尝试解决实时权重更新的基础数学问题。相反,他们只是通过蛮力来解决这个问题。这正是为什么在过去大约三个月里,模型的性能有了跳跃式的提升。
长话短说,其要点是,如果你结合以下几点:
- 非常长的上下文窗口
- 可靠的摘要能力
- 结构化的外部文档
你可以近似实现人们所说的持续学习。
其工作原理是,模型执行一个任务并吸收大量的情境细节。然后,在“交接”给下一个实例之前,它会写下两样东西:短期“记忆”(始终在提示/上下文中保留)和长篇文档(存储在外部,仅在需要时检索)。下一次运行时会从这些笔记开始,因此不需要从头开始。
通过这种巧妙的强化学习(RL)循环,他们直接训练这种行为,而不需要任何新奇的理论。
他们将记忆写入视为一个强化学习目标:在一次运行后,让模型写下记忆/文档,然后在相同、相似和不同的任务上启动新的实例,同时将这些记忆反馈进去。实现这一点的方法是对整个序列的表现进行评分,并对记忆长度施加明确的惩罚,以避免产生无限的“笔记”,最终超出上下文窗口。
经过多次迭代,你会奖励那些(a)写出高信号记忆、(b)在合适的时间检索到正确文档、以及(c)编辑/压缩过时笔记而不是无脑积累它们的模型。
这真是太疯狂了。因为当你结合当前前沿实验室的发布节奏,每个新模型在重大后训练/扩展改进后被训练和发布时,即使你的部署实例从未实时更新其权重,它仍然可以在下一个版本发布时“变得更聪明”,并且可以继承前一个版本积累的所有记忆/文档。
这是一种新的力量倍增器,另一种扩展范式,很可能是顶尖实验室目前正在做的事情(来源:待公布)。
忽略任何黑天鹅事件(未知的未知),你会得到一个合理的2026年发展轨迹:
我们将看到越来越多的改进,时间表加速。顶尖实验室实际上是在使用持续学习(一个非常好的近似),并且他们正在直接训练这种近似,因此它迅速变得越来越好。
不相信我?看看OpenAI和Anthropic提到的他们关注的核心内容。这正是为什么政府和企业对这一领域持乐观态度;没有任何障碍……
另见:<p>Grammarly未经许可使用我们的身份,<a href="https://www.theverge.com/ai-artificial-intelligence/890921/grammarly-ai-expert-reviews" rel="nofollow">https://www.theverge.com/ai-artificial-intelligence/890921/g...</a>,<a href="https://archive.ph/1w1oO" rel="nofollow">https://archive.ph/1w1oO</a>
这是一次重要的更新。现在安装镜像中包含离线文档以及一些修复。我之所以构建这个,是因为我厌倦了操作系统变成由服务器控制的客户端。我们正在失去理解甚至重建我们每天使用的工具的能力。
项目:OneManBSD 是一个为 i386 平台定制的 OpenBSD 7.8 安装镜像。
“主权”特性:
镜像中的源代码:安装程序包括 sys.tgz、src.tgz、xenocara.tgz 和 ports.tgz。您可以离线从本地驱动器重建整个内核和基础系统。
无臃肿:我避免使用 Gtk3 和 Qt。桌面环境使用 JWM、XFE 和 Nedit。
硬件级控制:我绕过了繁重的音频守护进程,使用 awk 进行通知提示音,使用 raw mixerctl 进行硬件静音解除。
离线文档:镜像中包含完整文档,以实现真正的独立性。
观看 90 秒的演示(启动速度和 JWM 设置):[https://www.youtube.com/watch?v=2wHaoQhXOYY](https://www.youtube.com/watch?v=2wHaoQhXOYY)
我的目标不是启动一个“发行版”,而是鼓励他人构建自己的“OneMan”系统。我们拥有的版本和多样性越多,我们保持的自由就越多。
我很想听听您对在旧硬件上维护仅源代码工作流程的看法。