2作者: eniz12 个月前原帖
我对使用托管的大型语言模型(LLM)时的用户隐私越来越感兴趣。许多流行的LLM应用和API需要将您的提示、消息以及潜在的敏感信息发送到远程服务器进行处理——有时还会经过多个第三方提供商。 - 您对主要的LLM提供商(如OpenAI、Anthropic、Google等)在数据处理方面的信任度有多高? - 对于那些正在开发或部署LLM应用的人,您采取了哪些措施来最大化用户隐私? - 您认为最终用户一般是否意识到他们的数据去向以及如何被使用,还是这个问题仍然被忽视? 我很想听听您在部署基于LLM的用例时关于隐私的看法、经验或推荐的最佳实践。
1作者: elofgerde12 个月前原帖
这个项目已经进行了一年多,从ChatGPT发布以来我就一直在考虑它 :)<p>标记你的兴趣 --> 获取量身定制的短文章推送<p>自由文本搜索:例如搜索“探险家” --> 应用程序会爬取维基百科,汇总出一系列简短的推送(例如哥伦布、瓦斯科·达·伽马等)<p>我使用GPT-4o重写维基百科的文章,并将其存储在数据库中。当用户搜索数据库中没有的内容时,我会使用各种模型来分类用户的需求(主题的广度),并根据用户输入汇总出一系列优质的文章和图片。找到生成速度与文章质量之间的平衡是最具挑战性的部分。<p>非常希望能得到一些反馈,特别是如果你经常浏览维基百科的话,还有如果Simo Häyhä这个名字让你想起什么(目前有很多关于第一次和第二次世界大战的文章)。
2作者: a_void_sky12 个月前原帖
嗨,HN! 我创建了Novella,一个平台,让你可以阅读由不同模型生成的各种类型的AI小说。 <p>什么是Novella? Novella是一个展示AI生成小说的网络应用程序。 <p>我为什么要建立这个? 我想探索不同的AI模型(大型语言模型)如何用于创作小说。 <p>在我公开发布之前,我很希望能收到关于设计、用户体验和任何功能建议的反馈。欢迎提问!