🤖 AI总结
主题
关于企业在AI时代确保网络安全的五种方法。
摘要
文章分享了五位商业领袖提出的五种方法,以应对AI带来的安全挑战,包括提升全员安全意识、整合现有框架、建立治理、明确责任和利用AI增强防御。
关键信息
- 1 全员提升网络安全知识,促进跨团队协作。
- 2 回归网络安全基础,将AI整合进现有治理框架。
- 3 了解供应商责任可能转移给用户,并利用AI增强安全检测。
![]()
使AI变得有用的能力同样也使其容易被利用。实际上,新兴技术的快速发展步伐每分钟都在加剧这一令人不安的现实。
虽然专业人士可能不希望让他们的组织暴露于新威胁中,但他们也认识到落后的风险,因为其他企业正在寻求通过实施AI来获得竞争优势。
那么,面对这个具有挑战性的难题,你应该怎么做?五位商业领袖分享了专业人士在AI时代确保出色安全性的五种方法。
确保全员具备网络安全知识
保险中介集团Howden的集团首席数据官Barry Panayi表示,在他的组织工作的一大好处是许多员工了解与AI相关的网络风险。
“因为我们的业务是提供网络保险,所以我们有了解这个领域的人员,”他说。”因此,不仅仅是技术人员了解安全,也不仅仅是数据或AI专家了解。”
作为负责确保AI安全实施的高管,Panayi鼓励所有组织的专业人士提升他们的网络安全资质:”我认为人们必须在他们的职责中更多地了解安全。”
Panayi表示,AI网络安全的多方面特性意味着专业人士应该期待新角色和责任的出现,人们分享知识并在团队间交流以创造更强大的方法。
“我知道最好的安全专家是那些与我的AI团队交谈并询问他们’这将如何工作,那将如何工作?’的人,”他说。
“相反地,AI团队与信息安全专家交流,确保他们的流程在我们寻求使系统更安全时不会成为阻碍。”
回归网络安全基础原则
技术专家理光欧洲的首席信息官Nick Pearson表示,在AI时代管理网络安全需要多维度方法,他几乎每天都发现新的维度。
Pearson告诉记者,专业人士可能会被与新兴技术相关的威胁范围所压倒。然而,他与其他专家包括理光欧洲首席信息安全官的对话表明,将AI网络威胁放在适当的背景下考虑是很重要的。
“出色的安全仍然要回到良好实践的基础,”他说。”所以,我们通过设计来保护,我们有标准、能力和分析、检查与平衡的团队。”
Pearson表示,专业人士应该确保数据得到有效管理和治理。与其重新发明轮子,不如找到将AI吸收到现有框架中的方法。
“否则,你可能最终得到与数据泄露等良好实践分离的东西,而在我们的情况下,这种实践已经存在了15年,”他说。
建立AI治理框架
英国皇家邮政的网络组合和架构总监Martin Hardy表示,他们公司网络方法的一个关键组成部分是内部AI治理论坛。
“我们不阻止人们使用AI,但在我们将AI构建到应用程序中时,我们要确保它有一定程度的治理,”他说。
“了解我们的数据在哪里以及什么数据进入这些AI解决方案是成功的关键,我们要求这些解决方案做什么也是如此。”
虽然不想低估新兴技术的潜在力量,Hardy强调专业人士将AI视为工具而非目的本身至关重要。
有效且安全地利用AI就是管理数据和解读潜在用例。
“将会有人们使用AI并犯错的情况,”他说。”成功在于改变心态,认为’这是一个辅助,而不是答案。'”
了解供应商责任转移
高德纳公司的首席预测师兼杰出副总裁分析师John-David Lovelock表示,数字领导者和商业专业人士在2026年前投资AI时必须考虑网络威胁。
Lovelock表示,一个关键问题是组织目前还无法从可衡量、可定义和可认证的AI安全中受益,这意味着最终用户的安全要求不太可能得到许多供应商的满足。
“我们还没有达到可以对AI说’它有安全带吗?它能在25英里每小时的速度下在撞击中存活吗?’的程度,”他说。
Lovelock将当前AI安全状态比作1920年代乱穿马路的兴起,当时新兴汽车工业游说政府机构通过新法律。
“我们将责任从表达其通行权且是事故受害者的人转变为应该知道更多且实际上导致事故的人,”他说。
“AI乱穿马路是试图做同样的事情——它试图确保用户对其AI使用的任何对错负责。”
简而言之,当前的供应商协议可能会让最终用户而非技术提供商对AI安全负责,专业人士必须意识到这一点。
“接受这种情况至关重要,”他说。”我们在其他技术中看到了这种趋势。从某种意义上说,这并不新鲜,但这是AI的现实,所以至少要有所意识。”
利用AI增强安全检测能力
专业牛仔竞技协会(PRCA)的首席技术官Jeff Love最近解释了他的组织如何使用AI克服其顽固的遗留IT挑战,该组织拥有近100年的历史。
当生成式AI模型无法渗透较旧代码时,Love转向Zencoder,这是一个分析业务逻辑并将其转换为通俗英语解释的智能体平台。
在采用新兴技术后,Love表示他的团队现在可以使用AI作为其流程的一部分来发现潜在的安全问题,他鼓励其他专业人士寻找类似的机会。
“当我们遇到问题时,甚至在我们推出新代码时,我们可以说,’你知道吗?检查一下安全问题。检查一下错误逻辑,'”他说。
“AI在做这项工作方面比人类更好,因为它考虑了完整的概览。我们只是过于专注于特定领域,不能总是看到大局。”
Love表示AI还可以帮助他的团队考虑他们可能忽略的问题。
“它总是检查是否存在安全风险。有时我推出一些代码,它会说,’你知道吗,这可能会更好一些,'”他说。”在今天的世界里,你必须关注安全风险。”
Q&A
Q1:为什么企业部署AI时需要全员具备网络安全知识?
A:因为AI的多方面特性使得网络安全不再只是技术人员的责任。保险公司Howden的经验表明,让更多员工了解AI相关的网络风险,并促进不同团队间的知识分享和交流,可以创造更强大的安全防护方法。
Q2:企业如何在现有安全框架中整合AI安全管理?
A:理光欧洲的做法是回归网络安全基础原则,通过设计来保护,建立标准、能力和分析检查团队。关键是将AI有效整合到现有的数据管理和治理框架中,而不是创建独立的安全体系。
Q3:供应商在AI安全方面的责任是怎样的?
A:目前供应商协议可能会让最终用户而非技术提供商对AI安全负责。高德纳分析师将此比作”AI乱穿马路”现象,即试图确保用户对其AI使用的任何问题负责。企业必须意识到并接受这种责任转移的现实。