
企业对AI/ML工具的发风险依赖激增近 600%,从 2023年4月的现企5.21亿笔交易激增至2024年1月的每月31亿笔。对安全性的业A用率高度关注导致了所有AI/ML交易中有18.5%被阻止,仅在九个月内就增长了577% 。时间升将数据
CISO及确保企业安全的置于之中人员有充分的理由谨慎行事,并阻止惊人数量的发风险AI/ML交易 。攻击者已经调整了他们的现企攻击手段,现在已经能够利用大型语言模型在企业不知情的业A用率情况下攻击企业。源码库对抗性AI也是时间升将数据一个日益增长的威胁,因为它是置于之中一个没人能预见到的网络威胁。
Zscaler 今天发布的发风险 2024 年 AI 安全报告量化了为什么企业需要一个可扩展的网络安全策略来保护他们正在引入的许多 AI/ML 工具 。数据保护 、现企管理 AI 数据的业A用率质量和隐私担忧主导了调查结果 。基于 2023 年 4 月至 2024 年 1 月在 Zscaler 零信任交换上的时间升将数据超过 180 亿笔交易,ThreatLabz 分析了企业今天如何使用 AI 和 ML 工具 。亿华云置于之中
医疗保健、金融和保险、服务 、技术和制造业对 AI/ML 工具的采用及其面临的网络攻击风险 ,提供了这些行业对 AI 攻击准备不足的严峻现实。制造业产生了最多的 AI 流量,占所有 AI/ML 交易的 20.9% ,其次是金融和保险(19.9%)和服务(16.8%)。
阻止交易是一个快速的云计算、临时的胜利CISOs 及其安全团队选择阻止创纪录数量的 AI/ML 工具交易,以防范潜在的网络攻击。这是一种蛮力移动 ,保护了最脆弱的行业免受网络攻击的肆虐 。
ChatGPT 是目前使用和阻止最多的 AI 工具,其次是 OpenAI、服务器租用Fraud.net 、Forethought 和 Hugging Face 。最常被阻止的域名包括 Bing.com 、Divo.ai 、Drift.com 和 Quillbot.com 。
制造业只阻止了 15.65% 的 AI 交易,考虑到这个行业面临网络攻击的风险很高,尤其是勒索软件 ,这个比例很低。金融和保险行业阻止了最大比例的 AI 交易,达到了 37.16%,免费模板表明对数据安全和隐私风险的关注度提高。令人担忧的是 ,尽管医疗保健行业处理敏感的健康数据和个人身份信息(PII) ,但它阻止的 AI 交易比例低于平均水平,仅为 17.23%,这表明他们可能在保护 AI 工具涉及的数据方面落后。
在医疗保健和制造业这类对时间和生命敏感的业务中造成混乱 ,会导致勒索软件支付金额远远超过其他企业和行业的多倍。香港云服务器最近的United Healthcare勒索软件攻击就是一个例子 ,展示了一个有组织的攻击如何摧毁整个供应链 。
阻止是对更大问题的短期解决方案更好地利用所有可用的遥测数据 ,并解码网络安全平台能够捕获的大量数据 ,是超越阻止的第一步。CrowdStrike 、Palo Alto Networks和Zscaler推广他们利用遥测数据获得新见解的能力。
CrowdStrike的联合创始人兼CEO George Kurtz在去年该公司年度Fal.Con活动的主旨演讲中告诉观众:“我们真正开创的领域之一是我们可以从不同端点收集微弱信号。我们可以将这些信号连接起来 ,发现新的检测方法 。我们现在将这一能力扩展到我们的第三方合作伙伴,以便我们可以不仅在端点 ,还在不同领域内寻找其他微弱信号 ,以发现新的检测方法。”
在AI方面拥有深入专业知识、其中许多拥有数十年机器学习经验的领先网络安全供应商包括Blackberry Persona、Broadcom 、Cisco Security、CrowdStrike 、CyberArk、Cybereason、Ivanti 、SentinelOne 、Microsoft 、McAfee 、Sophos和VMWare Carbon Black。期待这些供应商对他们的大型语言模型(LLMs)进行AI驱动攻击数据的培训,以尝试与攻击者使用对抗性AI的加速步伐保持同步 。
一种新的 、更致命的AI威胁景观已经出现报告中Zscaler表示:“对于企业而言,AI驱动的风险和威胁分为两大类:一是启用企业AI工具涉及的数据保护和安全风险 ,二是由生成式AI工具和自动化驱动的新型网络威胁景观的风险。”
CISO及其团队面临着保护组织免受报告中简要概述的AI攻击技术的猛烈攻击的巨大挑战 。保护员工在使用ChatGPT时不犯粗心大意 ,确保机密数据不会意外共享,应成为董事会讨论的话题。他们应将风险管理作为其网络安全策略的核心内容优先考虑 。
通过ChatGPT保护知识产权不外泄、控制暗影AI ,并正确处理数据隐私和安全是有效的AI/ML工具策略的核心。
去年,VentureBeat与National Oilwell Varco(NOV)的CIO Alex Philips讨论了他的公司对生成式AI的方法 。Philips告诉VentureBeat ,他的任务是向董事会讲解ChatGPT和一般生成式AI的优势和风险 。他定期向董事会提供GenAI技术当前状态的更新 。这一持续的教育过程有助于设定对技术的期望以及NOV如何设置防护措施以确保不会发生类似三星的信息泄露。他暗示ChatGPT作为一种生产力工具的强大功能 ,以及在控制暗影AI的同时正确处理安全性的重要性。
在新的、未知的AI威胁景观中,平衡生产力和安全至关重要 。Zscaler的CEO曾成为一种vishing和smishing情景的目标,其中威胁行为者在WhatsApp消息中模仿Zscaler CEO Jay Chaudhry的声音,试图欺骗一名员工购买礼品卡并泄露更多信息。Zscaler利用其系统成功阻止了这次攻击。VentureBeat了解到 ,这是一种针对网络安全行业领先的CEO和技术领袖的熟悉攻击模式。
攻击者依靠AI发起规模更大 、速度更快的勒索软件攻击 。Zscaler指出 ,AI驱动的勒索软件攻击如今是国家级攻击者武器库的一部分 ,且其使用频率正在增长 。攻击者现在使用生成式AI提示创建目标组织中所有防火墙和VPN的已知漏洞表 。接下来 ,攻击者使用LLM生成或优化这些漏洞的代码利用,为目标环境定制载荷。
Zscaler指出,生成式AI还可以用来识别企业供应链合作伙伴的弱点 ,同时突出连接到核心企业网络的最佳路径。即便企业维持强大的安全态势 ,下游漏洞往往可能构成最大的风险。攻击者持续利用生成式AI进行实验 ,创建他们的反馈循环,以在更复杂 、更有针对性的攻击中改进结果 ,这些攻击更难以检测。
攻击者的目标是利用生成式AI贯穿勒索软件攻击链——从自动化侦察和针对特定漏洞的代码利用到生成多态恶意软件和勒索软件。通过自动化攻击链的关键部分,威胁行为者可以对企业发起更快、更复杂且更有针对性的攻击 。