摘要:人工智能(AI)使用的增长正在以多种方式影响企业,但最危险的可能是将它们暴露在网络威胁中。根据Gigamon于2024年6月发布的2024年混合云安全调查,全球82%的安全和IT领导者认为,随着人工智能在网络攻击中越来越普遍,全球勒索软件威胁将增加。
人工智能(AI)使用的增长正在以多种方式影响企业,但最危险的可能是将它们暴露在网络威胁中。根据Gigamon于2024年6月发布的2024年混合云安全调查,全球82%的安全和IT领导者认为,随着人工智能在网络攻击中越来越普遍,全球勒索软件威胁将增加。
人工智能使网络攻击更加复杂
最大的风险之一来自于使用人工智能来制造更令人信服的网络钓鱼和社会工程攻击。Abnormal Security的机器学习主管Dan Shiebler说:“网络犯罪分子可以使用ChatGPT等工具来制作高度令人信服的电子邮件和消息。”“现在,对于威胁者来说,创建完美写作甚至个性化的电子邮件攻击比以往任何时候都更容易,这使得他们更有可能欺骗收件人。”
人工智能也在创造全新的冒充人的方式。Gigamon调查发现,每10个安全领导人中就有4个表示,在过去的12个月里,他们看到与深度假相关的攻击有所增加。Gigamon的欧洲、中东和非洲地区技术传播者Mark Jow说:“Deepfake技术具有操纵员工分享个人信息,甚至通过虚假视频通话、录音和电话汇款的真正潜力。”
2024年2月,工程公司Arup的一名财务人员在集体视频直播中冒充该公司首席财务官(CFO)和其他几名员工后,被骗付了2560万美元。Prism Infosec的安全顾问Chris Hawkins说:“受害者最初收到了据称来自英国首席财务官的信息,要求转移资金。”
“这个请求似乎很不寻常,所以工人进行了视频通话,以澄清这是否是一个合法的请求。他们不知道,他们是电话中唯一真实的人。其他人都是实时深度发假。最难发现的深度造假是音频,然后是照片,然后是视频,出于这个原因,目前行业关注的主要原因是vishing攻击。”
但网络犯罪分子也在部署人工智能,以识别实施分布式拒绝服务(DDoS)攻击的机会和漏洞。NETSCOUT安全首席技术官Darren Anstee说:“它既用于更好地剖析目标,以选择要使用的初始攻击载体,确保它们将产生最大的影响,并'调整'正在进行的攻击,以在防御反应时克服防御。” “这些能力意味着攻击可以产生更高的初始影响,几乎没有警告或没有警告,也可以经常变化以规避静态防御。”
管好你的生意——以及人工智能的使用
组织还可能通过自己使用人工智能来暴露自己受到网络威胁。根据Hogan Lovells律师事务所的研究,56%的合规领导者和高管认为,在其组织内滥用生成性人工智能是与技术相关的顶级风险,可能会在未来几年影响他们的组织。尽管如此,超过四分之三(78%)的领导者表示,他们的组织允许员工在日常工作中使用生成式人工智能。
这里最大的威胁之一是所谓的“影子人工智能”,犯罪分子或其他行为者利用或操纵基于人工智能的程序来造成伤害。Globant英国和爱尔兰首席技术官Isa Goksu说:“关键风险之一在于对手可能操纵用于开发这些人工智能系统的底层代码和数据,从而产生不正确、有偏见甚至冒犯性的结果。”“一个典型的例子是即时注射攻击的危险。对手可以仔细制作输入提示,旨在绕过模型的预期功能,并触发有害或不良内容的生成。”
Jow认为,组织需要意识到此类活动的风险。他说:“这些服务通常是免费的,这吸引了非公开使用人工智能应用程序的员工,但它们通常具有更高的安全风险,而且基本上不受监管。”“CISO必须确保其人工智能部署是安全的,并且不会向任何不安全的人工智能解决方案提供专有、机密或私人信息。
他补充道:“但在代码级别挑战这些工具的安全性也至关重要。”“人工智能解决方案是否由值得信赖和信誉良好的供应商提供?任何解决方案都应该来自受信任的国家或具有良好数据保护、隐私和合规历史的公司。”他补充说,需要一个明确的人工智能使用政策。
我能做些什么来减少威胁?
根据ClubCISO的研究,尽管目前40%的首席信息安全官尚未因此而改变其优先事项,但组织可以采取其他措施来降低受到人工智能相关网络威胁的负面影响的风险。
Hawkins说,教育员工应对不断变化的威胁至关重要,但他指出,在阿鲁普袭击中,有关人员引起了人们的担忧。他说:“员工警惕只是拼图的一块,应该与弹性数据恢复计划和彻底的深度防御结合使用,大额资金转移需要几位高级工作人员签字。”
网络安全初创公司Teleport的首席执行官Ev Kontsevoy认为,组织需要围绕证书和特权进行改革。他建议:“通过基于不可被盗的物理世界属性(如生物识别身份验证)以加密方式保护身份,并根据仅在需要完成工作期间授予的短暂特权强制执行访问,公司可以实质性地减少威胁者通过这些策略瞄准的攻击表面。”
底线是,组织需要利用各种技术来确保他们能够跟上人工智能引发的新威胁。Goksu指出:“在未来几年,网络犯罪分子预计将越来越多地利用人工智能,使用复杂的、无法检测到的恶意软件和人工智能驱动的侦察工具进行自动化和扩展攻击。”“这可能会用人工智能生成的内容、深度造假和错误信息充斥平台,放大社会工程风险。
“公司不跟上步伐,可能会面临关键人工智能系统的漏洞,这可能会导致代价高昂的失败、法律问题和声誉损害。未能投资于培训、安全和人工智能防御可能会使他们面临毁灭性的攻击,并削弱客户的信任。”
编译:https://www.information-age.com/will-more-ai-mean-more-cyberattacks-123510778/
来源:AI中国一点号