返回首页
一周热榜
我们是一个小团队,正在研究公司如何处理内部人工智能代理的运营方面——这些代理是为财务、运营或市场营销工作流程构建的。我们关注的不是现成的SaaS工具,而是你们工程团队开发的定制代理。
我们具体想了解的内容包括:
1. 你们内部目前运行的代理数量是多少?
2. 日常管理这些代理的是工程团队还是使用它们的业务团队?
3. 你们如何跟踪这些代理的成本(如大型语言模型API费用、计算费用)?
4. 如果业务团队想要改变代理的行为,具体的流程是怎样的?
我们真心希望了解这个领域的情况,而不是在推销任何东西。
构建了一个免费的Superwhisper替代品。Whisper在本地运行,支持通过OpenAI、Anthropic或Ollama进行可选的LLM清理。采用MIT许可证。
AI代理在软件方面表现出色,因为它们能够形成一个闭环——编辑、运行、观察、重复。然而,硬件打破了这个闭环。代理可以编写固件,但无法看到设备实际在做什么。
这个项目旨在填补这一空白。三个MCP服务器为代理提供了直接访问真实硬件接口的能力:一个调试探针(闪存固件、暂停CPU、读取寄存器和内存)、一个串行控制台(启动日志、CLI命令)和BLE。
使用结构化工具,而非命令行指令,使得代理能够以与处理代码相同的方式推理硬件状态。
最新的演示:在单个终端会话中,将TFLite Micro关键词识别模型部署到nRF52840上。代理闪存了固件,调试了硬故障,切换到了CMSIS-NN优化内核,并调整了张量区域的大小。
最终结果:端到端延迟为98毫秒,Google语音命令数据集的真实录音准确率为94.6%。
这项工作是关于让AI代理直接访问硬件的更广泛系列的一部分: [https://es617.github.io/let-the-ai-out/](https://es617.github.io/let-the-ai-out/)