你好!<p>我在想……在这个我们不断购买各种东西的时代,为什么不来一个讨论我们购买后却后悔的东西的帖子呢?<p>我先来分享一下:<p>- 我买了一个34英寸的超宽曲面显示器。型号是Philips 34B2U5600C(3440x1440,120Hz,USB-C,还有很多附加功能)。它实在太大了,占据了我桌子一半的深度和大约90%的宽度(130厘米)。我花了400欧元买的(全新,来自亚马逊)。刚开始觉得很酷,但过了一段时间后,它在桌子上感觉“沉重”。我把它放到一边,现在大部分工作都是在“仅仅”用我的16英寸笔记本电脑屏幕上完成的。它并没有真正改善我的生活。也许我应该避免购买曲面显示器。我在考虑是卖掉它再买一个,还是卖掉它继续只用我的笔记本显示器。<p>- 我的ThinkPad X13G1。感觉就是不对劲。我买它是为了替换我那台生锈的X270。理论上它要好得多(8核/16线程+32GB内存 vs 2核/8线程+16GB内存的X270),但使用起来并没有感觉更快(操作系统和软件都是一样的),而且电池续航也不太理想(我收到时电池状况很好)。另外,当处于休眠状态时,电池会非常快地耗尽,有时一夜之间就没电了。和我的工作用MacBook相比,它真的感觉像是一台劣质的机器。我也花了400欧元买的(二手)。
返回首页
最新
请问HN:你们使用什么工具进行商业分析(如SPSS、R等),你最讨厌它的什么地方?
嗨,HN,
我们正在构建 CoLit,一个以社区为驱动的协作写作平台。这个想法源于一个简单的问题:我和我的朋友们想一起写同人小说,但现有的平台并没有真正满足我们的需求。我们最终不得不在 Wattpad、Google Docs、Discord 讨论串和随机笔记之间来回切换,才能拼凑出一个故事。没有哪个平台是专门为协作写作而设计的。
CoLit 试图通过让协作写作变得自然来解决这个问题。你可以启动一个项目(故事、同人小说、剧本等),其他人可以添加贡献、投票决定下一步方向、重新编排故事或帮助完善某些部分。它旨在让人感觉像是一个共享的创作空间,而不是一个单独的发布工具。(单独写作也是可以的——其他人可以对个人项目进行评论,但不能提出建议或投票。)
目前,MVP 支持:
- 创建社区和个人项目
- 社区项目的循环(项目在每日循环中进行,用户提交并投票选择建议。得票最高的想法将成为下一部分,作者可以在添加之前进行编辑。)
- 适当的 Markdown 编辑器和阅读模式
- 自定义或自动生成的封面图片
我们知道现在还处于早期阶段,但我们非常希望能得到以下方面的反馈:
- 协作流程是否合理
- 有哪些地方让你感到困惑或缺失
- 什么会让你想与他人共同创作
- 任何用户界面或性能问题
这个项目最初是朋友之间的一个有趣的副项目,但我们认为它已经发展成了更多人可能会觉得有用的东西。期待听到你的想法、建议或批评。
链接: [https://www.colit.app](https://www.colit.app)
大家好!我一直在努力将我的应用程序提交到Steam,现在它终于发布了!<p>这个应用的目的是帮助你更好地管理你的游戏时间。它可以自动检测你何时启动游戏,跟踪游戏时间,让你设定每周的游戏目标和游戏时长限制,并在你接近游戏限制时发送视觉和音频通知。你还可以在游戏中灵活地延长游戏时间,以确保能够完成当前的游戏进程。<p>目前它仅适用于Steam游戏。我很乐意听取你们的问题、意见和反馈。
嗨,HN!我开发了 Tokuin,这是一个 Rust 命令行工具,主要用于 LLM 项目中我一直在拼凑的两个功能:
1. 估算 OpenAI/Gemini/Anthropic 风格模型的提示所需的令牌数和费用。
2. 针对真实的 LLM 端点进行负载测试,支持进度条、重试和(可选的)干运行。
最初它只是一个“这个会花费多少令牌?”的脚本。在最近的版本中,我增加了提供者选择功能(--provider {openai|openrouter|anthropic|generic}),以及真实的 Anthropic 客户端和“自带端点”客户端,这样我可以在给它们真实流量之前对网关进行压力测试。
试试看:
# 安装
```bash
curl -fsSL https://raw.githubusercontent.com/nooscraft/tokuin/main/install.sh | bash
```
# 干运行 Anthropic
```bash
echo "Hello!" | tokuin load-test \
--model claude-3-sonnet \
--provider anthropic \
--runs 5 \
--concurrency 2 \
--dry-run --estimate-cost
```
# 通用端点烟雾测试
```bash
echo "Ping" | tokuin load-test \
--model lambda-1 \
--provider generic \
--endpoint https://example.com/infer \
--runs 10 --concurrency 2
```
代码库(MIT/Apache-2.0):[https://github.com/nooscraft/tokuin](https://github.com/nooscraft/tokuin)
### 有什么不同
1. 具备提供者感知的命令行工具:可以根据模型名称自动检测,但在必要时可以强制指定。
2. 内置的 Anthropic 客户端和通用 REST 适配器(只需指向一个端点即可使用)。
3. 可选的 --dry-run 选项可以在不消耗 API 额度的情况下获得相同的指标。
4. 身份验证信息保留在环境变量/标志中,无需配置文件或仪表板。
### 实现说明
1. 使用 Rust 2021 + tokio、reqwest、indicatif。
2. 负载模拟器调度请求,跟踪延迟、直方图和费用。
3. 令牌估算使用 tiktoken-rs 和一个简单的定价注册表。
### 我希望得到的反馈
1. 命令行工具的默认设置(超时、重试曲线)对于真实流量是否合理?
2. 通用模式是否应该接受响应提取钩子,以便与更多 JSON 结构兼容?
3. 在信任这个工具用于 CI 之前,您希望获得哪些负载测试指标?
感谢您尝试这个工具——很高兴回答问题或接受功能请求。