加入收藏 | 设为首页 | 会员中心 | 我要投稿 晋中站长网 (https://www.0354zz.com/)- 科技、容器安全、数据加密、云日志、云数据迁移!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

安全性引担忧 专家指出需从开发阶段搭建安全AI

发布时间:2023-09-13 10:30:17 所属栏目:外闻 来源:网络
导读:   CISA在8月提出了一个建议备忘录,警示在建立人工智能模型时提供服务的机构,他们的系统同样易于遭受攻击和漏洞。具体来说,CISA呼吁人工智能系统的构建者将客户的安全性视为核心业务需
  CISA在8月提出了一个建议备忘录,警示在建立人工智能模型时提供服务的机构,他们的系统同样易于遭受攻击和漏洞。具体来说,CISA呼吁人工智能系统的构建者将客户的安全性视为核心业务需求,而不仅仅是技术功能,并在产品的整个生命周期中优先考虑安全性。
 
  人工智能模型受到与现有软件相同的供应链问题的影响。用于构建AI模型的组件通常由数据科学团队从存储库下载,这些团队通常比普通应用程序开发人员更不了解网络安全问题。因此,不会扫描所使用的许多组件以查找可能被利用的漏洞或可能嵌入其中的恶意软件。
 
  IT博客作者Mike Vizard指出,当然,最大限度地减少对 AI 模型威胁的唯一方法是确保网络安全最佳实践嵌入到用于构建 AI 模型的机器学习操作(MLOps)流程中。就像 DevSecOps 实践通过鼓励开发人员采用网络安全最佳实践来帮助改善应用程序安全状态一样,现在需要与数据科学家进行同样的对话,首先应该强调是否可以使用专门化软件组件的精选强化安全性映像人工智能助理来构建已经执行过已知漏洞测试的 AI 模型。
 
  在生产环境中部署 AI 模型后,修复其中的漏洞风险要大得多。当然,不能保证在某些时候无论使用的映像多么强化,都不需要应用补丁,但可能需要补丁的实例数量应该大大减少。与往常一样,问题将是尽可能缩小涉及AI模型的漏洞的影响范围,因为考虑到可能涉及的流程和性质,业务的潜在风险水平将高得多。
 
  Mike Vizard表示,希望网络安全团队能够在任何重大违规事件发生之前解决这个问题,但是,如果历史可以作为指导,那么直到发生重大违规行为,保护人工智能模型才能得到应有的关注。与此同时,网络安全团队可能希望现在就开始研究如何应对涉及人工智能模型的安全事件,而不是再次学习如何以艰难的方式应对网络攻击。这种情况下,他们需要一个新的工具来帮助他们更好地管理他们的数据,并确保他们的系统不会受到任何威胁。

(编辑:晋中站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章