26作者: xlayn17 天前原帖
我在消费级AMD GPU(RX 7900 XT + RX 6950 XT)上复现了David Ng的RYS方法([链接](https://dnhkng.github.io/posts/rys/)),并发现了一些意想不到的结果。 变压器似乎具有离散的“推理电路”——由3到4层连续组成的块,作为不可分割的认知单元。复制正确的块后,模型的推理流程会运行两次。权重没有变化,没有训练,模型只是思考得更久。 在标准基准测试(lm-evaluation-harness,n=50)上的结果如下: Devstral-24B,层12-14复制一次: - BBH逻辑推理:0.22 → 0.76 - GSM8K(严格):0.48 → 0.64 - MBPP(代码生成):0.72 → 0.78 - 没有任何下降 Qwen2.5-Coder-32B,层7-9复制一次: - 推理探测:76% → 94% 奇怪的是,不同的复制模式会从相同的权重中产生不同的认知“模式”。双重通过提升了数学能力,三重通过提升了情感推理。交错复制(13,13,14,14,15,15,16)则创造了一个纯数学专家。相同的模型,相同的显存,不同的路由。 电路边界非常清晰——移动一层,效果就会消失或反转。较小的模型(24B)比较大的模型(Ng在72B中发现7层)具有更紧凑的电路(3层)。 在这个代码库中,有工具可以在任何GGUF模型中找到电路并应用任意层路由。整个过程——扫描、发现、验证——只花了一个晚上。 欢迎提问。
1作者: shray8817 天前原帖
我是一名来自俄罗斯的20岁兽医学学生,正在开发反审查工具。2026年3月17日,GitHub因违反服务条款与GitHub Actions相关的规定,永久暂停了我的账户。 **项目介绍** Raccoon Squad VPN — 一款基于Xray-core的Android VPN客户端,支持俄罗斯用户的DPI绕过。支持VLESS、VMess、Trojan、Shadowsocks、Hysteria2和TUIC。该项目完全在几个月内通过人工智能辅助构建。 **来源**: [https://gitlab.com/shray77/rsquad](https://gitlab.com/shray77/rsquad) **我的操作** 我有一些仓库,聚合并验证来自公共来源的免费VPN节点: - hpp: Python爬虫 — 获取节点列表,按SNI过滤VLESS XTLS,验证格式,进行TCP ping。每6小时运行一次,约30分钟。 - node-filter: Go L7检查器 — 通过Xray连接,验证握手,下载2MB测试文件,测量速度。每1小时运行一次,约30分钟。 - loshad-scoc: 新源侦查 — 50多个GitHub dork查询,15个PAT令牌轮换,HuggingFace API验证。 - zhopa-bobra: SNI流行度分析器。 关键事实:没有挖矿,没有密码破解,没有重计算。节点来自公共的raw.githubusercontent.com列表。网络软件的标准CI/CD验证。每天总共约1小时的Actions运行时间。 **时间线** 2月26日:因“怀疑被攻破”而暂停 — 恢复。 2月27日:因“垃圾邮件标记”而暂停 — 恢复。 2月27日:因仓库rsquad而暂停 — 被要求设为私有。 2月27日:因raccoon-release而暂停 — 无法遵守:被锁定。 3月2日:GitHub要求我删除仓库。我仍无法登录。 3月17日:提交正式法律申诉(7页),抄送legal@github.com。 3月17日:约70分钟后 — 永久封禁。 **困境** GitHub要求我删除仓库以解决暂停问题。但账户已被暂停,无法登录。我多次通知支持团队,但没有解决方案。 **他们在扣押我的代码** 我无法访问我的仓库。没有导出,没有备份。GitHub实际上在扣押我的知识产权。根据GDPR第20条,我有无条件的数据可携带权。GitHub拒绝遵守。 这实际上是知识产权的盗窃。我所写的代码被锁在他们的墙后,没有合法的保留依据。 **GDPR违规** 第20条赋予数据可携带权。我被锁定,无法导出。数据保护官请求未得到回应,仅收到自动工单。 **当前状态** - 提交了FTC投诉 - 联系了数据保护官 — 仅获得自动工单号 - 项目迁移至GitLab: [https://gitlab.com/shray77/rsquad](https://gitlab.com/shray77/rsquad) 我分享这些是因为执法过程任意,缺乏透明度,开发者在平台做出自动决策时没有任何救济途径。
2作者: ZDisket17 天前原帖
大家好,我基于我高度升级的 VITS 模型,制作了一个 TTS 模型,该模型以外部说话者嵌入(Resemble AI 的 Resemblyzer)为条件。<p>这个模型大约有 3100 万个参数(ONNX 格式),经过调优以实现低延迟和本地推理,并且已经导出。我试图突破小型快速模型的极限。它在服务器 CPU 上的运行速度是实时的 5.6 倍。<p>该模型支持声音克隆和声音混合(将两个或多个说话者的声音混合以生成新声音),许可证为 Apache 2.0,并使用 DeepPhonemizer(MIT 许可证)进行音素化,因此没有许可证问题。<p>代码库包含检查点、运行方法以及 Colab 和 HuggingFace 演示的链接。<p>不过,由于模型体积小,音频质量并不是最佳,并且由于它是基于 LibriTTS-R 和 VCTK(这两个都是完全开放的数据集)进行训练的,因此说话者的相似性也不是很好。<p>尽管如此,我希望它能对你们有所帮助。
4作者: Stwerner17 天前原帖
作为一个实验,我开始让Claude用虚构故事来向我解释事物,结果效果非常好。因此,我开始探索这个方法的极限,以及需要什么才能将其打磨到足以公开分享的程度。<p>在过去的几个月里,我为这个项目构建了世界观手册、撰写了视觉风格指南以及其他相关文档……可以把它们想象成我们现在用于代理开发的所有Markdown文件的虚构等价物。在此之后,我又花了大约两周的时间进行额外的打磨工作,以去除许多冗余内容和LLM特有的表达方式。如果有人对此过程感兴趣,我也很乐意回答任何问题。