1作者: Saki2007大约 1 个月前原帖
嗨,HN, 这最初是一个简单的脚本,用于优化我的工作流程,通过缓存来降低Gemini API的成本(通常可以节省50-95%的费用)。随着时间的推移,我逐渐添加了一些我认为有用的功能,包括对Veo 3.1版本的封装和我称之为Flow Engine的自然语言视频编辑器。 *温馨提示:当前的用户界面和详细文档主要是繁体中文,因为它最初是出于个人使用而开发的。* 然而,底层的概念(特别是关于缓存策略和Flow Engine视频编辑方法)可能对HN社区会有趣。 希望有些人能找到这些想法或代码的用处。如有问题,欢迎提问!
1作者: 5F7bGnd6fWJ66xN大约 1 个月前原帖
我正在探索一个软件层——类似于公钥/私钥加密——使用户能够与大型语言模型(LLM)进行对话,同时保证提示和响应对所有中介(包括模型托管方)都是不可读的。(我指的是加密学意义上的“密码”。) 两个案例: 1. 开放权重模型:确保操作员仍然无法读取提示/响应。 2. 闭合托管模型:真正的端到端加密(E2EE),以至于提供者也无法检查内容。 我们可以讨论的话题: - 最佳的短期路径:带有证明的可信执行环境(TEE)、同态加密(FHE/HE)、多方计算(MPC)/分离推理、用于检索的私密信息检索(PIR)、差分隐私或混合方案? - 如何处理前向保密的密钥交换/轮换? - 实际性能/准确性限制(例如,非线性、键值缓存、流式处理)? - 最小可行架构和现实威胁模型? - 你能推荐的任何先前的研究或团队? 如果你有兴趣与我合作,请私信我。