1作者: rokumar5105 个月前原帖
我厌倦了等待安全团队批准 Kubecost/CastAI 代理的三个月。因此,我自己做了这个。 这是一个封装了 kubectl top 的 Bash 脚本。它在本地计算资源浪费,并在你的终端生成报告。 没有 Helm 图表。 没有 DaemonSets。 没有数据上传(除非你想分享)。 开源(MIT 许可证)。欢迎对我的 Bash 技能进行批评: [https://github.com/WozzHQ/wozz](https://github.com/WozzHQ/wozz)
3作者: ten-fold5 个月前原帖
嗨,HN, 我最近离开了Uber,结束了我作为高级工程师和后来的资深工程师的十年紧张工作经历。<p>我来自一家小型初创公司,花了我好几年才学会如何在科技行业取得成功。当我离开时,我决定写下那些你很少从管理层听到的原始、未经过滤的建议。<p>这是一份有趣且快速阅读的七个实用手册。<p>在接下来的48小时内,欢迎下载免费的PDF。<p>有任何问题请随时问我! :)
2作者: MartyD5 个月前原帖
我创建CoThou是因为看到搜索引擎和AI问答引擎提供了关于我公司的完全错误的信息。事实证明,它们优先考虑结构化的、可引用的内容,因此我逆向工程了它们选择来源的方式,并构建了CoThou,成为真实信息的来源。 <p>如何运作 对于企业: 创建公司资料。当搜索引擎和AI问答引擎被询问关于您的公司时,它们将引用您的公司资料及其内容,而不是维基百科或过时的信息。 <p>对于出版商和知识工作者: 在您的个人资料上发布内容,并进行适当引用(索引超过3亿篇学术论文)。当有人向搜索引擎和AI问答引擎询问您的主题时,它将引用您的作品,并链接到您的个人资料,便于引用追踪。 <p>立即试用(测试阶段无限制): → <a href="https:&#x2F;&#x2F;cothou.com" rel="nofollow">https:&#x2F;&#x2F;cothou.com</a> <p>这是v0.01版本,尚不完善。请试用并告诉我有什么问题。 <p>接下来: 目前正在训练一个定制的32B MoE(专家混合模型)大型语言模型,拥有30亿个活跃参数,计划于2026年第一季度上线。关键区别在于:它将复杂查询分解为并行子任务,实时在无限画布上执行。您将看到代理实时规划和构建,而不是等待进度条。 <p>示例: “写一本关于计算机历史的300页书” “为我的SaaS制作一个60秒的TikTok广告” <p>它可以同时处理研究、提纲、故事板、资产生成、配音和音乐。 <p>由于每个令牌仅激活约30亿个参数,它的运行成本比密集型32B模型便宜且快速8-10倍,同时在推理、编码和长上下文任务上仍能与高端模型匹敌或超越。 <p>通过与NVIDIA Inception和Microsoft for Startups的合作进行构建。 <p>希望能收到HN的反馈: - 改进引用准确性 - 与AI解析器建立信任 - 下一步添加哪些来源(目前有1亿家公司和3亿篇学术论文) - 其他任何建议 <p>马蒂(创始人)