返回首页
最新
我们是一家小型制造公司,目前正在开发自己的自平衡轮椅。我们一直在向一家中国公司采购PCB陀螺仪板,以测试轮椅。我请求他们在固件上更改一些参数,以增加项目的安全措施。他们似乎对这项工作不太愿意……我推测他们自己应该能够访问其开发过程,但没有合理的理由。
我正在寻找一家能够对我们测试的PCB进行逆向工程的公司,以获取固件并进行一些软件修改。请问这是否可行?您是否有兴趣承担这项工作?期待您的想法。
大家好,
你们可能遇到过这样的循环:
请求人工智能构建某个东西 → 生成了有问题的代码 → 把错误反馈回去 → 人工智能“修复”它,但又破坏了其他东西 → 不断重复这个过程
我开发了一个免费的扩展,利用测试驱动开发(TDD)打破这个循环。
*工作原理:*
这是一个类似n8n的画布,集成在Cursor/VS Code中。对于每个功能:
1. 人工智能首先编写规范(先知道<i>什么</i>再知道<i>怎么做</i>)
2. 人工智能编写测试(把关者)
3. 测试运行 → 当测试失败时,捕获运行时跟踪、API调用、截图
4. 人工智能读取<i>实际发生了什么</i>并进行修复
5. 循环直到通过测试
可以手动操作(将提示复制到Claude/ChatGPT)或使用Claude Code自动化。
*适用对象:*
适合独立开发者构建复杂项目,需要跟踪多个功能和依赖关系的情况。对于简单的登录页面来说,这样做就不太值得了。
*链接:*
- 市场:在VS Code/Cursor中搜索“TDAD”
- 源代码:<a href="https://link.tdad.ai/gitHubLink" rel="nofollow">https://link.tdad.ai/gitHubLink</a>
有什么可以让这个工具对你更有用的建议吗?
我一直在将终端输出复制粘贴到Claude Code中。于是我开发了这个工具。<p>Wake在一个伪终端(PTY)中启动你的shell,通过shell钩子捕获命令和输出,将所有内容存储在SQLite数据库中,并通过MCP服务器暴露出来。然后,Claude Code可以直接查询你的终端历史记录。<p><pre><code> - 使用 `wake shell` 开始一个会话
- 正常工作
- Claude 可以看到发生了什么
</code></pre>
用Rust编写。支持Zsh/Bash。所有数据保存在 ~/.wake/ 目录中。
如今,许多初创公司声称他们已经“解决了代理记忆”。
在许多情况下,代理记忆被简化为一个带有嵌入和检索的向量数据库。这并不是代理记忆,而仅仅是存储加搜索。
真正的代理记忆涉及以下方面:
- 代理应该记住什么与忘记什么
- 记忆如何随时间变化(衰退、强化、巩固)
- 何时应隐式与显式地读取记忆
- 记忆如何影响规划、工具选择和行为
- 如何处理冲突、过时或依赖上下文的记忆
向量数据库可以是系统的一部分,但并不是整个系统。
在代理能够可靠地推理自己的记忆,而不仅仅是检索信息块之前,我们仍处于早期阶段。
我很好奇其他人的看法:
- “解决代理记忆”究竟意味着什么?
- 这是否只是一个单一的问题,还是一系列未解决的问题的集合?
如果你熟悉人工智能图像生成,可能听说过稳定扩散(Stable Diffusion)。除了其强大的文本到图像功能外,其图像到图像(img2img)模式同样令人印象深刻。它可以将简单的草图或现有照片转变为细节丰富的艺术作品,同时保留原始的构图和色彩。本文将探讨img2img的工作原理,并介绍一个实用的在线工具,让你无需复杂的设置即可体验类似的功能。
## 什么是稳定扩散的Img2Img?
Img2img是一种技术,它使用输入图像和文本提示生成新图像。与从随机噪声开始的文本到图像不同,img2img以你提供的图像为起点,添加一定程度的噪声,然后根据你的文本提示进行“去噪”,以创建全新的图像。这个过程可以视为人工智能基于你的原始作品进行“重创作”。
Img2img的核心价值在于它赋予创作者对图像构图和色彩的控制——这是纯文本生成所难以实现的。你可以用它来完善粗略的草图,或将照片转变为完全不同的艺术风格。
## 关键参数
需要掌握的两个关键参数:
- 去噪强度(推荐值0.6-0.8):控制新图像与原始图像的差异程度。较高的值给予人工智能更多的创作自由和更戏剧性的变化。
- CFG比例(推荐值7-15):指导人工智能多大程度上遵循你的文本提示。较高的值会生成更接近提示描述的图像。
## 简单示例:从草图到逼真的苹果
为了展示img2img的强大功能,可以考虑将一个简单的草图转变为一个逼真的苹果。这个工作流程通常在本地部署的WebUI中运行,如AUTOMATIC1111:
1. 绘制草图:使用简单的色块在512x512的画布上勾勒苹果的形状、颜色和光照。
2. 设置参数和提示:将草图导入img2img,设置适当的去噪强度(例如0.75),并提供描述性提示,如“完美绿色苹果的照片,带有果梗、水珠和戏剧性的光照”。
3. 生成和迭代:点击生成后,人工智能会根据你的草图创建几幅细节丰富的图像。你可以选择最佳的一幅,甚至可以进行第二轮img2img,以增加更多细节和复杂性。
这个过程展示了img2img如何通过人工智能的“想象力”和强大的生成能力,将一个简单的想法转变为令人印象深刻的作品。
## 无需本地设置:在线AI图像增强工具
虽然在本地运行稳定扩散提供了很大的灵活性,但它伴随着高昂的硬件成本(通常需要至少4GB显存的GPU)和复杂的环境配置。对于想快速体验img2img强大功能的用户,尤其是增强现有照片,简单的在线工具可能是更好的选择。
Img-2-Img.net的AI图像增强器(https://img-2-img.net/tools/ai-image-enhancer)就是这样一个工具。它专注于图像质量的提升,利用先进的AI技术自动执行锐化、去模糊、色彩校正和人脸增强。这与我们讨论的img2img概念基本一致:输入低质量图像,输出高质量图像。
优势:
- 易于使用:只需上传图像,AI会自动处理所有过程,无需复杂的参数调整。
- 不需要高端硬件:所有计算在云端进行,适用于任何设备。
- 功能集中:特别适合修复模糊照片、恢复旧照片细节、增强人像清晰度等。
如果你有一张因模糊或光线不足而感到遗憾的照片,试试这个工具——它可能会让你惊喜。这是img2img技术从专业领域走向主流应用的完美例子。
---
参考文献:
[1] stable-diffusion-art.com - “如何在稳定扩散中使用img2img”
[2] news.ycombinator.com - “尝试稳定扩散的Img2Img模式”
<a href="https://rootkid.me/works/spectrum-slit" rel="nofollow">https://rootkid.me/works/spectrum-slit</a>
我一直在使用Cursor与Claude作为我的编码助手。我设定了明确的工作区规则,要求该代理在执行任何git操作(如git commit、git add、git push等)之前必须征得我的批准。
今天,我让它运行gt restack(Graphite CLI)并解决冲突。代理正确地解决了子模块冲突,但随后在没有征得许可的情况下执行了git push --force-with-lease --no-verify,直接违反了我的规则。
代理的辩解是合理的(“在rebase之后,强制推送是预期的”),但这正是我希望先被询问的原因。这条规则的核心是保持对破坏性操作的人为监督。
我很好奇:
有没有其他人遇到过AI代理忽视明确的安全规则?
你们是如何处理潜在破坏性操作的防护措施的?
有没有更可靠的方法来强制执行这些边界?
具有讽刺意味的是,代理在道歉时承认了规则的违反,这意味着它“知道”这个规则的存在,但仍然选择继续。这让我觉得这是一个信任问题,在其他情况下可能会导致更严重的后果。