1作者: motyar3 个月前原帖
之前的问题链接如下: <p>2024 → https://news.ycombinator.com/item?id=42373343 <p>2023 → https://news.ycombinator.com/item?id=38467691 <p>2022 → https://news.ycombinator.com/item?id=34190421 <p>2021 → https://news.ycombinator.com/item?id=29667095 <p>2020 → https://news.ycombinator.com/item?id=24947167 <p>2019 → https://news.ycombinator.com/item?id=20899863 <p>2018 → https://news.ycombinator.com/item?id=17790306 <p>2017 → https://news.ycombinator.com/item?id=15148804
2作者: borja_d3 个月前原帖
嗨,HN, 作为产品经理(在谷歌、Gopuff和食记工作),我的联合创始人和我多年来进行了数百次用户测试。每次测试都感觉很不顺利: 获取足够可用的结果可能需要2到5天。 我们花了数小时观看录制视频,以提取少量见解。 “专业测试者”为了报酬匆忙完成任务,导致反馈偏颇。 平台的年费通常起价在1万欧元以上,还会有隐性费用。 结果就是:迭代周期缓慢,反馈不可靠,用户测试往往感觉像是一种负担,而不是工具。 我们开始思考:如果人工智能可以提供帮助,会怎样? 合成用户能否模拟真实的人类行为? 我们能否瞬间模拟成千上万的测试者,而不是招募他们? 这是否能让任何团队都能进行用户测试,而不仅仅是那些预算充足的团队? 这种探索促使我们开发了Uxia,一款基于人工智能的用户测试工具,它能够: 在大约5分钟内提供可操作的见解,而不是几天。 利用AI档案模拟成千上万的行为。 提供统一定价——无限测试、无限用户,没有隐性费用。 您可以上传原型、设计或流程,查看合成测试者在哪里遇到困难、他们采取了哪些路径以及他们如何互动——所有这些都无需等待招募或偏见反馈循环。 当然,我们知道这种方法并不完美。合成用户无法完全取代人类的直觉,但我们认为它们可以消除迭代早期阶段的摩擦,帮助团队更频繁地进行测试。今天我们也在PH上,如果您想支持我们的发布。 我们非常希望听到您的反馈: 您认为基于AI的测试者在哪些方面表现良好,在哪些方面会有所不足? 您会信任合成反馈来指导真实的产品决策吗? 如果您在用户测试中遇到困难,您希望有哪些不同之处? 感谢您的阅读,欢迎随时提问,我们会全天在线。
1作者: leo14523 个月前原帖
Salesloft–Drift 数据泄露事件(更多背景 - <a href="https:&#x2F;&#x2F;news.ycombinator.com&#x2F;item?id=45106340">https:&#x2F;&#x2F;news.ycombinator.com&#x2F;item?id=45106340</a>)发生在今年八月,揭示了一个薄弱的集成如何波及超过700个组织(如Cloudflare、Palo Alto、Zscaler等)。攻击者从一个应用程序中窃取了令牌,并将其用作万能钥匙,窃取Salesforce、Google Workspace和Slack的数据。 在调查过程中,我发现没有明确的框架或控制措施来跟踪和改善集成安全。因此,我发布了《集成安全十大要点》(Integration Security Top 10,简称ISF),并在GitHub上开源。该列表的设计灵感来源于OWASP十大安全风险:简短、易记,并专注于SaaS与SaaS及API集成中最关键的风险。每个要点还附有可操作的“行动手册”,帮助将理论付诸实践。 我的目标是帮助组织避免在过去几周内发生在许多所谓“安全”公司的悲惨情况。我通过创建一套明确的控制措施,使组织能够查看并像检查清单一样使用这些措施,以解决集成安全问题。