返回首页
最新
GitHub 仓库:<a href="https://github.com/zhangchenchen/tier_list_maker" rel="nofollow">https://github.com/zhangchenchen/tier_list_maker</a><p>我使用 Next.js、Shadcn 和 Tailwind 创建了这个工具。我知道它很简单,但在编写代码的过程中仍然学到了很多。
强大的市场和地缘政治力量正在推动人工智能实验室竞相追求超越人类的智能。我们已经享受到了迄今为止进展带来的好处,但我们正迅速接近一个点,即人工智能变得如此强大且广泛应用,以至于可能引发大规模的社会动荡,甚至存在生存威胁。我们中的许多人对此深感担忧,但又感到对行业的势头无能为力。
我创建了人工智能安全承诺(AI Safety Pledge,网址:<a href="https://aisafetypledge.org" rel="nofollow">https://aisafetypledge.org</a>),旨在将这种担忧转化为可衡量的集体行动。这是一个公共登记平台,您可以在此承诺向人工智能安全组织捐款,我们会跟踪总金额。您直接捐款;我们从不处理资金。
为什么这很重要:
捐款将直接支持重要的人工智能安全研究,但目标不仅仅是筹款。真正的力量在于创造可见的社会证明。公开的统计数据(“已有2,000人承诺捐款50万英镑,数字还在增加”)向政策制定者和人工智能实验室发出明确信号,表明人们对人工智能风险的关注,并要求采取更多安全措施。
运作方式:
- 浏览15个以上经过审核的组织(研究实验室、政策团体、教育机构)
- 通过他们自己的渠道直接捐款
- 记录您的捐款以加入公共统计
列出的组织包括MIRI、Pause AI、Alignment Research Center、Doom Debates等,致力于降低或提高对大规模人工智能风险的认识。
如果您在从事人工智能安全工作并希望被列入名单,请与我联系:<a href="https://aisafetypledge.org/contact" rel="nofollow">https://aisafetypledge.org/contact</a>
技术:使用Cloudflare Workers + D1构建,服务器端用Hono/JSX渲染。
因此,如果您本月在人工智能订阅或API费用上花费了20美元或200美元,请考虑以捐款支持人工智能安全来匹配这笔支出。您在我们网站上的承诺有助于向政策制定者和人工智能实验室发出关于人工智能风险的强有力信号。
我很想听听HN对这一方法的看法。
一个简单的互动演示,展示了起始条件的微小变化如何导致摆动路径的巨大差异。