返回首页
最新
HN,<p>如果每个人都在使用大型语言模型(LLMs)来解决问题,那么几年后,LLMs不会缺乏可挖掘的内容吗?简而言之,如何才能在长期内避免LLMs的普遍低智化以及用于解决问题的公共可获取内容的退化?<p>对于2025年之后出现的事件和问题,LLMs将从哪里获取信息来解决这些问题?在Stack Overflow、Reddit和随机论坛上提问的动力很小。LLMs并没有促进人们之间的互动,使得一个人能够为另一个人解决问题,因此它们必须真正足够聪明,能够理解问题并解决它们,而不是简单地重复已有的信息。<p>这在最小程度上是可持续的吗?这是否是在自食其果?