嘿,HN,
我是LocaFlow的开发者。以下是我的故事:
在过去的几年里,我开发了几款iOS应用。每一款都只支持英语,因为我对本地化过程感到畏惧。典型的工作流程是:
1. 打开Localizable.strings作为源代码
2. 手动将字符串片段复制粘贴到ChatGPT或Claude
3. 将翻译结果复制粘贴回来
4. 测试所有内容
5. 对每种语言和每次应用更新重复以上步骤
这让我每款应用花费超过8小时。我一直在拖延。
上个季度,我终于决定对我的一款应用进行本地化。在我花在这项工作上的周六的中途,我想:“我是一名开发者……为什么要手动做这些?”
于是我开发了LocaFlow。
它的功能:
- 选择你电脑上的应用项目
- AI翻译成50多种语言
- 只需几分钟,而不是几个小时或几天
与众不同之处:
- 没有“自带API密钥”的麻烦(我负责翻译API的费用)
- 保留格式(变量、复数形式、特殊字符)
- 简单的定价:每月19美元(或慷慨的免费计划)
- 由一位为自己应用使用它的开发者构建
技术细节:
- 使用AI进行翻译(比谷歌翻译更好地理解上下文)
- 在翻译前后验证字符串格式
- 处理iOS复数形式、Android字符串数组等
- 可以处理批量翻译(一次性翻译整个应用)
欢迎随时询问关于实施、定价、路线图或其他任何问题。
试试看: [https://locaflow.dev](https://locaflow.dev)(提供免费套餐,无需信用卡)
返回首页
一周热榜
嗨,HN,
自从2023年AutoGPT推出以来,我对完全无监督的AI代理感到不安。我看到了生产力的提升,但“启动后就离开”让我觉得风险很大。
最近,“拉尔夫·维根循环”模式在网上走红。这个想法很简单:一个自主编码的代理会不断运行,直到所有的PRD项目完成,每次循环都有新的上下文,状态存储在模型外部,如git、JSON等。
让我感到困扰的是这一点:在我不在时,系统有什么保护措施?
目前传统的AI辅助开发流程是这样的:
AI编写代码 → 人类审核 → CI扫描 → 人类修复
而我想要的是:
AI编写代码 → 立即进行安全扫描 → AI修复问题 → 重复直到安全 → 如果卡住则升级给人类处理
因此,我构建了一个原型,将安全扫描直接嵌入代理循环中。代理在自己的会话中运行像Semgrep、Grype、Checkov等工具,查看发现的问题,并在任何内容提交之前进行迭代修复。
这个循环看起来是这样的:
PRD → 代理 → 扫描 → 通过? → 提交
失败 → 修复 → 重试(3次) → 升级给人类
几个重要的设计原则:
* 基线差异:预先存在的问题单独跟踪。只有新的发现会阻止提交。
* 沙箱约束:无网络访问,无sudo,无破坏性命令。
* 人类覆盖:没有任何东西是完全自主的。你可以在任何时候重新介入。
这是否万无一失?绝对不是。
它是否准备好投入生产?不。
但这是将DevSecOps思维应用于自主代理的起点,而不是单纯依赖“AI魔法”。
仓库链接: [https://github.com/agairola/securing-ralph-loop](https://github.com/agairola/securing-ralph-loop)
欢迎那些在代理循环、安全自动化或AI辅助开发中遇到问题的人提供反馈。
期待交流。
一个月前,OpenAI 在没有任何警告的情况下停用了我的 ChatGPT 账户。三年多的对话——全都消失了。
我尝试了各种方法,给我能找到的每个 OpenAI 邮箱发了邮件。他们的回复是:“使用我们的数据导出工具。”问题是?你需要一个有效的账户才能导出数据。
真是经典。
于是我开发了一个浏览器扩展,可以让我一键保存来自 ChatGPT、Claude 或 Gemini 的任何对话。以 Markdown 格式存储,集中在一个地方。
结果发现它还解决了我意想不到的另一个问题:我经常会向这三个人工智能提问,然后忘记哪个给了我最好的答案。现在它们都集中在一个地方了。
目前这只是我个人的工具,没什么花哨的——只是满足我自己的需求。如果有兴趣,我会考虑发布它。也可以很容易地扩展到其他人工智能助手。
现在还有其他人对自己的 AI 聊天记录感到 paranoid 吗?