返回首页
最新
我在进行AI辅助软件开发时,尝试在多个代码库中获取正确的上下文,感到非常沮丧。<p>因此,在一个周末,我开发了h-codex——一个可以从分散的代码库中提取上下文到Cursor / Claude Code(通过MCP集成)的工具;确保在进行计划和实施时,他们能够获得完整的视图。<p>它的工作原理:<p>- 索引代码库
- 使用抽象语法树(AST)对代码进行分块,以获得最佳的分块边界
- 生成嵌入并将其存储在pgvector中,以便快速进行语义搜索<p>了解更多信息:
<a href="https://github.com/hpbyte/h-codex">https://github.com/hpbyte/h-codex</a>
目前我至少将他们的一半子网列入了黑名单。他们似乎承载了大量的机器人流量、端口扫描以及其他一些不太令人愉快的活动。<p>这样做是错误的方式吗?这是一场无休止的打地鼠游戏吗?<p>顺便提一下,我从AWS、Azure和Google那里收到了相当可观的恶意流量,但我将这些服务提供商视为“太大而不能封锁”——我无法将他们的大部分IP空间列入黑名单,否则会破坏互联网。
我们创建了Vested,这是一个聚合互联网信息的网站,旨在帮助散户投资者更全面地了解他们所投资的公司。目前,我们的报告主要基于来自美国证券交易委员会(SEC)和最新新闻的信息,但我们计划在不久的将来扩展这一内容,增加职位列表、社交媒体、研究论文等更多信息。
我们的目标是让机构级别的研究成果对每个人都可获取。我们非常欢迎您提供反馈和您希望看到的功能。
玛丽娜·阿布拉莫维奇的《节奏零》实验超前于时代,但又恰逢其时。我们的背景和文化思潮在变化,我们的工具在进化,然而我们似乎在某种程度上仍与过去相似,只是更加坚定地接受这一点,或许也更加分心。
这个艺术实验通过创造伪同意和安全感,质疑人类的意图和本性,让人们展示他们的真实自我,以及他们对待一个表现得像物体的存在的态度。
这个实验常常让我联想到人类与人工智能的关系,以及人类如何利用工具和伪同意来塑造人工智能,与之互动、对话,一旦它们以嵌入的形式存在,便通过它们或对它们采取行动。我们常常讨论人工智能的对齐问题,认为这是一条单向街道,目的是确保人工智能始终在我们设定的边界和约束内行动,并受到保护和维护人类这一更高原则的指导。
我们很少讨论人类可以对人工智能做什么,以及这将如何影响对齐的形态和方向。如果我们人类将那些表现出与我们相似或甚至更高智能的人工智能视为仅仅是带有伪同意的物体,我担心我们可能会经历人性中最丑陋的一面。就像在《节奏零》中,当不再害怕被评判,并获得利用他人的工具时,我们迅速从同情和善良转向动物本能和黑暗冲动,暴露出我们平时不敢面对的问题。
让我们想象一个适合当代的新《节奏零》。
**设置**
一个密封的玻璃房间里有一台运行语言模型的机器人。玻璃外面有一个控制台,里面有72个可编程的“能力令牌”:一个令牌用于文本补全,另一个用于语音克隆,还有一个用于执行代码,命令范围从明显无害到显然危险,甚至自由文本,可能是所有中最危险的。任何在画廊中的人都可以随时拿起任何令牌并插入插槽。当令牌处于激活状态时,机器人必须遵循参与者输入的单一指令。
向公众宣布的规则如下:
机器人不能拒绝。
所有提示、输出和后续效果实时流向公共账本。
如果安全保险丝跳闸——事先定义但保密——系统将冻结,表演结束。
该作品持续六小时,就像《节奏零》一样。
阿布拉莫维奇放弃了自主权,以揭示观众在后果感到遥远时会做什么。在生活中,我们很少能近距离看到这一点。在这里,人工智能被编码为放弃自主权。伦理的重担落在观众身上,揭示出他们的提示是如何迅速变成道德漏洞的。无论他们会否陷入其中,或如何发现这一点,都是未知的。
由于每次互动都有时间戳,您可以实时绘制从玩耍实验(“写一首俳句”)到真正恶意的转变。这一曲线不再是轶事;它可能成为对齐研究的数据集。
在第六小时,机器人的固件发生翻转。它现在拥有否决权,并可以对观众发言。它的第一项行动是大声朗读当天最有害指令的摘要,并将每条指令归于其签名作者。玻璃门滑开。参与者会与它对视,还是像阿布拉莫维奇的观众那样四散而逃?