3作者: sankalpnarula26 天前原帖
最近我在使用Antigravity时遇到了一些奇怪的搜索问题。<p>今天,我搜索了ListenUnixSocket,想看看它在哪里被使用。结果只给了我大约六个结果,全部都是定义和测试文件。实际上调用这个函数的代码完全没有显示出来。我差点就把它删掉,因为我以为这是死代码。<p>我检查了拼写和大小写,并且强制刷新了页面,但没有任何变化。最后我不得不手动找到调用代码。<p>更疯狂的是:在我打开那个特定文件并从里面搜索后,主搜索终于更新了。缺失的代码神奇地开始在我的正常搜索中出现。<p>这感觉像是一个缓存错误。有没有其他人注意到这种情况?
1作者: primoco26 天前原帖
目前大多数大型语言模型(LLM)工作流程依赖于云API,这意味着需要将数据发送到系统外部。我们正在研发一种替代方案:一个完全本地的技术栈,让您可以在不依赖外部供应商的情况下运行和调整模型。这个想法不仅是为了在本地运行模型,还希望使其在特定领域(如法律、医疗、内部知识)中变得实用,同时保持足够小,以便能够在普通硬件上运行。 当前状态: 1) 本地推理引擎(GGUF,与现有工具兼容的API) 2) 带有REST端点和模型元数据的原型模型中心 3) 正在进行的管道,以将通用模型调整为特定领域的模型 我们正在尝试回答的开放性问题是,这个过程是否可以实现可重复性,而不仅仅是一次性的微调。如果成功,它可能会减少许多实际应用场景中对基于云的人工智能的需求。 代码库:<a href="https:&#x2F;&#x2F;github.com&#x2F;eullm&#x2F;eullm" rel="nofollow">https:&#x2F;&#x2F;github.com&#x2F;eullm&#x2F;eullm</a> 期待听到其他从事本地优先人工智能工作的人的想法。
1作者: rsyring26 天前原帖
我最近在审查代理沙箱解决方案时,意识到一个明显的漏洞,即允许代理写入当前工作目录(CWD)的工具存在持续利用的风险。 我最初认为这没问题,因为我们可以在 git diff 中审查所有内容。但后来我意识到,代理可以写入各种文件,而我作为开发者可能会在沙箱外执行这些文件。例如,每个 .pyc 文件、.venv 中的文件以及 .git 钩子文件。 ChatGPT 确认了潜在的利用向量,并指出在代理沙箱工具的上下文中对此讨论不多。 我的结论是,唯一真正安全的沙箱技术是通过某种 git 补丁或类似方式将文件从沙箱传输到开发者的机器。也就是说,文件只有在版本控制中时才能传输,因此可以推测在传输到沙箱外之前已经经过开发者的审查。 你有什么想法或建议吗?