返回首页
最新
llms.txt 解决了一个实际问题。它为人工智能工具提供了一种理解网站的方式。这个想法已经获得了一定的关注。但对于人类来说,没有类似的东西。我认为这可能会成为一个趋势。让我们看看 Hacker News 的看法。
每个人工智能工具都有某种版本的“自定义指令”,但这些指令被锁定在该工具内部。从 ChatGPT 切换到 Claude 再到 Gemini,每次都要从头开始。你的声音、偏好和专业知识,统统消失。
identity.txt 是一个简单的文本 Markdown 文件(与 llms.txt、humans.txt、robots.txt 采用相同的理念),它捕捉了你在人工智能工具中的身份。将其放置在你的域名下的 identity.txt 或者粘贴到任何上下文窗口中。
该规范故意保持简洁:
```
- H1 标题为你的名字
- H2 部分包括声音、专业知识、背景、偏好、条款
- 一个包含机器可读同意的条款部分(开放、署名、仅限提示、限制、无)
```
条款部分可能很有趣。这就像是个人身份的 robots.txt。是一种社会契约,而不是法律契约。我们认为同意和身份在某些方面是重叠的,这值得深入探讨。我们现在确实没有答案,但对问题持开放态度。
我们还在 identitytxt.org 上实验托管身份文件。你可以通过 Google 进行身份验证,选择一个用户名,并获得一个永久 URL。但自托管是主要的使用案例。托管版本只是为了方便。也许吧,我们不确定。
请注意,这仍处于早期实验阶段。我们构建这个工具是因为我们总是在每次与人工智能的对话中粘贴相同的上下文,认为应该有一种约定。该规范采用 CC-BY 4.0 许可,并在 GitHub 上发布: [https://github.com/Fifty-Five-and-Five/identitytxt](https://github.com/Fifty-Five-and-Five/identitytxt)
我们真心希望了解这个想法是否引起共鸣,或者是否有其他方式解决这个问题。我们还缺少什么?
[https://identitytxt.org](https://identitytxt.org)
我厌倦了在五个标签页和一个终端之间切换,以压缩不同类型的文件。因此,我构建了一个可以在一个地方处理所有文件的工具。
该工具支持50多种输入格式。如果某个文件可以压缩,它就能处理。只需上传文件,它会自动识别文件类型,进行压缩,然后返回给你。存储时间为2小时。格式转换也相当不错。
我最满意的部分是检测层。对于二进制格式,魔术字节可以帮助我们大部分识别。对于基于文本的格式(如JS、CSS、JSON、XML等),我在内容上运行一个小型机器学习分类器,以识别格式并将其路由到正确的压缩管道,而无需用户指定。
如果你想将其集成到管道中,可以使用REST API。支持异步作业的Webhook,支持自带存储(如S3、GCS、Azure等)。批处理作业也能很好地运行。
无需注册,提供非常慷慨的免费额度。欢迎反馈、报告破坏检测器的边缘案例以及功能请求。
我在AWS基础设施方面工作(曾在Percona、Box、Dropbox、Pinterest任职)。当OpenClaw出现问题时,我想在AWS上正确运行它,却对默认的部署方式感到惊讶。
Lightsail的蓝图中有31个未修补的CVE。标准安装指南使用了三个独立的curl-pipe-sh模式作为root用户。Bitsight在两周内发现了超过30,000个暴露的实例。OpenClaw的维护者自己表示:“如果你无法理解如何运行命令行,这太危险了。”
因此,我构建了一个Terraform模块,用我认为的生产级配置替代了默认设置:
* 使用Cognito + ALB替代共享网关令牌(每用户身份,多因素认证)
* 使用GPG验证的APT包替代curl|bash
* 使用systemd并设置ProtectHome=tmpfs和BindPaths沙箱
* 使用Secrets Manager + KMS替代明文API密钥
* 使用EFS以实现实例替换时的数据持久性
* 使用CloudWatch日志记录,保留365天
Bedrock是默认的LLM提供者,因此无需任何API密钥,只需一次terraform apply。
完整的安全报告:<a href="https://infrahouse.com/blog/2026-03-09-deploying-openclaw-on-aws-without-the-security-disasters" rel="nofollow">https://infrahouse.com/blog/2026-03-09-deploying-openclaw-on...</a>
我相信我可能遗漏了一些内容。对于在共享服务器上运行具有shell访问权限的自主代理,你会添加什么或有什么不同的做法?
我分享一个用户脚本,适合那些经常阅读HN评论区的朋友:
1. 无需重新加载页面即可更新评论——新评论出现时可以立即看到。
2. 更简洁的评论顶部线条,减少干扰——只有在鼠标悬停在顶部线条时才显示控制按钮。
在自述文件中有一个预览GIF,展示了它的外观。
摘要中提到:
“我们研究生成性人工智能,特别是具代理性的人工智能,如何影响人类学习动机以及社会信息生态系统的长期演变……学习表现出范围经济:人类的高成本努力共同产生了关于自身背景的私人信号和一个“薄弱”的公共信号,这些信号累积成社区的整体知识储备,从而产生学习外部性……模型突出了一个明显的动态张力:虽然具代理性的人工智能可以提高当下决策的质量,但它也可能削弱维持长期集体知识的学习动机。”
Harbor 发布了第127个版本(下一个版本将会特别)。<p>一个显著的新功能是能够通过单一的命令行界面(CLI)管理我所有的语言模型(LLMs)。<p># 列出所有模型
harbor ls
# 与 jq 配合使用效果更佳
harbor ls --json
# Ollama
harbor pull qwen3.5:35b
# llama.cpp
harbor pull unsloth/Qwen3.5-35B-A3B-GGUF:Q8_0
# vllm(HuggingFace Hub 缓存)
harbor pull Qwen/Qwen3.5-35B-A3B<p># 根据相同的 ID 删除任何模型
# 用于拉取模型时的 ID
harbor rm <id><p>希望这对某些人也会有用。
我厌倦了每次原型设计语音 AI 应用时都要重建相同的脉动圆圈,因此我将其打包成了一个库。
orb-ui 是一个用于语音 AI 代理用户界面的 React 组件库。你只需为你的语音提供者插入一个适配器,组件会处理状态机(空闲、连接中、监听、说话)并进行渲染。
```jsx
import { Orb } from 'orb-ui'
import { createVapiAdapter } from 'orb-ui/adapters'
<Orb adapter={createVapiAdapter(vapi, { assistantId })} theme="circle" />
```
点击圆圈以开始/停止。动画会实时响应音频音量。
它是什么:
- 一个 npm 包:安装、导入、发布。不需要复制粘贴组件文件
- 提供者无关:附带 Vapi 和 ElevenLabs 适配器,轻松添加其他适配器
- 仅为 UI 层:不干扰你的提示、后端或逻辑
- MIT 许可证
它不是:
- 一个语音 AI SDK(使用 Vapi/ElevenLabs/Bland 来实现)
- 一个完整的对话 UI(没有转录,没有消息历史)
现有的替代方案(ElevenLabs UI 套件,Vapi Blocks)是锁定在一个提供者上的 shadcn 风格的复制粘贴组件。这是一个可以安装和更新的正式包。
演示: [https://orb-ui.com](https://orb-ui.com)
npm: [https://www.npmjs.com/package/orb-ui](https://www.npmjs.com/package/orb-ui)
GitHub: [https://github.com/alexanderqchen/orb-ui](https://github.com/alexanderqchen/orb-ui)
我对人们正在构建的语音 AI 用户界面以及你希望从这样的库中获得什么感到好奇。
你为什么要读这个?点击链接,傻瓜。