2作者: ta126534217 个月前原帖
我在想:<p>是否有人已经研究过发布的肯尼迪档案?或者有相关的项目吗?<p>在如今这个人工智能的时代,这应该变得更加简单且节省时间吧?
1作者: malisper7 个月前原帖
我们所做的: Freshpaint 在患者隐私与数字营销之间架起了一座桥梁,确保敏感数据不会与不符合 HIPAA 标准的工具共享。我们是一个小型的高级团队,致力于构建实时数据管道和隐私安全系统。 技术栈:Go、Postgres、AWS、TypeScript、React。 我们正在寻找: 后端工程师:具备后端系统、API、分布式架构和以产品为导向的工程经验。 申请链接:<a href="https://tinyurl.com/4nbv7wde" rel="nofollow">https://tinyurl.com/4nbv7wde</a> 前端工程师:具备 React、TypeScript 经验,并能够在协作环境中负责 UI 开发。 申请链接:<a href="https://tinyurl.com/wfud7ppv" rel="nofollow">https://tinyurl.com/wfud7ppv</a> 在高增长、早期阶段初创公司的工作经验是必须的。 完全远程工作(美国)。提供有竞争力的薪资和股权。 请访问上述链接申请,或通过电子邮件联系招聘专员 shannan@freshpaint.io。
1作者: percfeg7 个月前原帖
我是一名在受监管行业工作的开发负责人。我们越来越多地将生成式人工智能应用集成到我们的技术栈中,非常喜欢这些应用,但在确保这些应用在部署前与内部人工智能风险政策保持一致方面遇到了挑战。这些政策通常由治理、风险和合规(GRC)团队撰写,因此非常高层次且以业务为导向,这使得它们难以转化为可操作的开发任务。这种模糊性也使得有效测试实施的控制措施是否真正执行了预期政策变得困难。 我想了解其他人是否面临类似的障碍,以及你们是如何应对这些问题的。具体来说: - 你们如何将抽象的人工智能政策转化为具体的、可测试的要求,以供开发团队使用? - 你们是在持续集成/持续交付(CI/CD)管道中自动执行这些特定于人工智能的政策,还是主要依赖于部署后的监控? - 你们为此使用了哪些具体的工具、框架或平台? - 在将人工智能风险管理/治理纳入软件开发生命周期(SDLC)过程中,你们还遇到了哪些其他挑战? 提前感谢!