1作者: corefiredrill3 个月前原帖
大家好, 我是SalaryScript的创始人,想和大家分享一个我花了超过一年的时间开发的项目:一个专门为大型科技公司职位量身定制的全面谈判手册。 我自己多次经历了FAANG公司的招聘过程,曾在这些公司工作过,因此我深知这些谈判是多么不透明且充满风险。我编写SalaryScript是基于我的个人经验、来自十多位FAANG校友同事的见解,以及多年来与招聘人员合作的教训。我们汇集了来自工程师、产品经理和高管的观点,他们共同谈判的总薪酬达到了数百万。 可以把它看作是科技谈判的“黄金法则”书籍。它涵盖了从解读聘用信和利用竞争性报价,到为常见招聘人员策略准备回应脚本、处理股权悬崖和应对搬迁套餐的所有内容。没有废话——只有经过实战检验的脚本、模板和策略,帮助人们平均提高30%到50%的总薪酬。 一位贡献者,前Meta的工程经理,分享了他如何通过重新框定RSU归属的讨论,将30万美元的报价提升到55万美元。另一位,前Apple的产品负责人,分析了为什么“总薪酬”的框架往往比单纯关注基本工资更有效的心理因素。 自去年以19美元的入门价格推出以来,我们的下载和销售量已超过1000次。需求一直很强劲,随着口碑的传播,我们逐渐提高了价格。 如果你正在准备面试或正面对一个报价,这可能是你所需要的优势。 如果你感兴趣,可以访问salaryscript.com查看。 期待听到你的想法、经历,或者像你在科技行业中最大的谈判成功(或失败)是什么样的问题。 谢谢!
1作者: morshola3 个月前原帖
每个AI代理都有健忘症。Claude不记得你上次的对话。GPT不知道你上周做出的决定。目前的解决方案——向量数据库、Markdown文件、键值存储——都失去了结构,无法追踪推理链,并且将你锁定在一个提供者上。 我构建了AgenticMemory:一种二进制图形格式,其中每个认知事件(事实、决策、推理、修正)都是一个节点,具有类型化的边(caused_by、supports、supersedes)。一个.amem文件包含你代理的整个知识图谱。可以与任何大型语言模型(LLM)配合使用。 关键数据: • 添加一个节点耗时276纳秒 • 在一个包含10万个节点的图中,遍历5层深度耗时3.4毫秒 • 在10万个节点中进行相似性搜索耗时9毫秒 • 每年每日使用约占24MB • 一生的记忆容量不足1GB 使用Rust构建。零依赖。Python SDK:pip install agentic-brain。Rust命令行工具:cargo install agentic-memory。 https://github.com/agentic-revolution/agentic-memory