数据是新的石油。它为我们的经济提供动力,并推动新技术的发展,尤其是生成式人工智能。然而,要让人工智能得到广泛采用,它必须是值得信赖且安全的。
IBM 最新的《数据泄露成本报告》显示,业务中断将泄露成本和监管罚款推向新的高度,数据泄露的平均成本达到 488 万美元。
然而,根据 IBM 商业价值研究院 (IBV) 对网络安全和新一代人工智能进行的一项调查,超过 94% 的企业领导者认为确保人工智能安全非常重要,但只有 24% 的企业领导者表示他们的人工智能项目将在未来六个月内纳入网络安全组件。
这使得许多企业处于危险之中,因为新一代人工智能也带来了新的风险,例如数据泄露、数据中毒和即时注入攻击。IBM 网络安全服务全球执行合伙人 Scott McCarthy 指出,企业也很难控制谁有权访问他们的数据。
“重要的是确保控制措施到位,以免业务和客户数据被泄露,”麦卡锡解释道。
为了保护数据和 AI,企业应该建立 AI 治理并保护其基础设施:数据、模型和模型的使用。这是 IBM 保护生成 AI 的框架 – 该框架可应用于其他环境,包括 Salesforce 的 Einstein,这是一套用于 CRM 的 AI 工具。
以下是企业可以采取的3个步骤来启动这一流程。
1. 了解数据的位置
许多团队利用新一代人工智能快速创新,但这可能会产生所谓的影子 IT。“我们必须确保企业也具有可视性。数据安全态势管理和人工智能安全态势管理等新工具将有助于实现这一点,”麦卡锡说。
2. 对数据进行分类
无论您处理的是客户数据还是业务数据,不同类型的数据都会有不同的含义,并且可能受到不同的政策和程序的约束。
3. 实施分类限制
根据分类限制对数据应用适当的控制,例如客户数据、业务数据普查或公开可用数据,以帮助确保合适的人在合适的时间访问合适的数据。
总之,“安全团队需要成为业务推动者,而不仅仅是安全政策和程序的守门人,”麦卡锡认为。
报告:KuppingerCole 数据安全平台领导力指南
这篇文章有帮助吗?
是的不