返回首页

一周热榜

1作者: Patternician5 天前原帖
随着大型语言模型(LLMs)的不断增强,我们正面临一种新情况:<p>一个人发现了某个数学方法或结果,但正式的证明却是由多个LLMs生成的(甚至经过交叉验证),即使原作者自己也无法完全重现该证明。<p>这样的人工智能生成的证明是否应被视为有效且可发表的?<p>当创意是人类创造的,但证明是由人工智能推导出来的,应该适用什么标准?<p>希望听到数学家、工程师、研究人员和期刊编辑的意见。这似乎是我们对证明和作者身份的思考方式的重要转变。
1作者: sinharishabh5 天前原帖
我多年来一直在构建嵌入式项目,始终觉得工具的进步落后于软件开发。像快速原型制作、调试复杂的硬件特定问题,或者弄清楚为什么外设没有响应等事情,仍然需要花费太多时间。 因此,我开发了Embedr,一个专注于嵌入式工程的AI助手。它不是一个通用的代码助手,而是围绕真实硬件工作流程进行调优的,具体包括: • 读取项目结构并理解电路板设置 • 帮助处理ESP32、STM32、RP2040等MCU项目 • 解释寄存器、外设配置、链接器问题、构建错误 • 提出硬件故障和集成问题的解决方案 • 让你选择工具链或生成构建系统 • 带你完成启动步骤和驱动级调试 我的目标是让这个工具更接近一个能够与你在接线、烧录或调试电路板时协作的集成开发环境(IDE)。 目前仍处于早期阶段,我正在积极改进模型行为、提示流程和工具集成。我非常希望能得到那些每天与微控制器打交道的人的反馈。哪些功能有用,哪些感觉不对,接下来应该学习什么。 你可以在这里试用:<a href="https://embedr.app" rel="nofollow">https://embedr.app</a> 欢迎随时提问。