5作者: latand615 天前原帖
我是一名结构工程的博士生。我的论文主题是关于在乌克兰常用软件中使用大型语言模型(LLM)代理来自动化有限元分析(FEA)计算。我现在正在撰写文献综述,并且我已经开发了一个个人本地仪表板,帮助我管理文献综述的过程。 我使用LLM代理来填写LaTeX模板(以自动化格式化,同时可以使用IDE查看差异)在GitHub仓库中。然后,我运行ChatGPT Pro来收集与我的主题相关的所有论文(以及相关信息)。接着,我收集那些在线可用的论文,确保PDF文件可以获取。我有一个特殊的文件夹结构,里面存放着纯文本文件,如Markdown和JSON。 这个仪表板的想法是这样的:我通过网页聊天运行Codex,以识别与我的论文主题相关的引用及其相关性,它将这些引用整合成与每个引用相关的一系列主张,并附上链接。然后,我手动审查每个引用和每个主张,并勾选相应的框。还有一个按钮可以运行验证脚本,以验证确切的引用确实存在于PDF中。通过这种方式,我可以收集真实的证据,并在阅读这些材料时获得新的见解。 我记得在英国攻读硕士学位时,所有这些工作都是手动完成的。那是一段非常糟糕和乏味的经历,部分原因是我有注意力缺陷多动障碍(ADHD)。 所以我的问题是,这样做算不算不诚实? 因为我可以为文献综述中的每个主张辩护,因为我建立了验证流程并手动审查了每一个主张。我可以说,我对文献的理解比如果我自己手动阅读并标记所有内容要更深刻。但我知道许多大学会将任何AI生成的文本视为学术不端。 我真的不太理解这种立场背后的原则。因为如果你将校对的任务外包出去,没人会在意。当你使用Grammarly时,情况也是如此。但如果我使用LLM从经过验证、结构化且经过人工审查的证据中生成文本——这可能会被视为不诚实。
47作者: moonka15 天前原帖
<a href="https://docs.fcc.gov/public/attachments/DOC-420034A1.pdf" rel="nofollow">https://docs.fcc.gov/public/attachments/DOC-420034A1.pdf</a><p><a href="https://www.fcc.gov/document/fcc-adds-routers-produced-foreign-countries-covered-list" rel="nofollow">https://www.fcc.gov/document/fcc-adds-routers-produced-foreign-countries-covered-list</a><p><a href="https://docs.fcc.gov/public/attachments/DA-26-278A1.pdf" rel="nofollow">https://docs.fcc.gov/public/attachments/DA-26-278A1.pdf</a>