医疗行业中的网络攻击与生成性AI的威胁
关键要点
生成性AI的崛起可能为未来的钓鱼攻击提供新手段。钓鱼攻击仍然是获取机构初步控制的最常见方法。报告指出,虽然AI工具在网络攻击中的应用日益增加,但并未显著改变现有的威胁格局。医疗行业的数据泄露事件频繁,2022年的受影响记录达2850万。新的钓鱼邮件手段将变得更加具有说服力。最近对医疗行业所遭受的网络攻击的研究让人们对生成性AI的崛起及其在未来钓鱼攻击中的潜在作用表示担忧。根据Trustwave的SpiderLabs团队发布的报告,人工智能和生成性AI当前是医疗行业面临的重要威胁。

报告指出,钓鱼攻击依然是获取对组织初步控制的最常见方法,通常只需要一封精心设计的电子邮件便可导致安全漏洞。生成性AI工具是基于大型语言模型LLMs训练而成,它们可以创建模仿人类行为和语言的内容,例如电子邮件的文本或计算机代码等。
尽管这些工具在网络攻击中的应用越来越普遍,以及其复杂性持续提升,SpiderLabs报告指出,AI并未显著地改变目前的威胁格局。“虽然LLMs和其他被归类为AI的技术在过去一年似乎以近乎奇迹的速度成熟,但我们没有任何迹象表明LLMs在安全行业的现存猫鼠游戏中实质性地‘改变了游戏’。”报告中提到。
曾被一些黑客视为禁区的医疗行业网络攻击可能会导致严重后果:近年来,美国及其他国家的许多医院经历过勒索软件攻击,导致部分计算机系统暂时无法运作,而行业内的数据泄露事件频繁发生。
根据美国卫生与公众服务部的数据,2022年超出2850万条医疗记录遭到泄露,几乎是三年前报告数量的两倍。最近,医疗巨头HCA Healthcare宣布,约有1100万名患者的个人数据可能在新发现的数据泄露事件中被盗。
更具说服力的钓鱼电子邮件
成功的钓鱼攻击所产生的结果可能因施害者、目标和其他因素而异。理论上,恶意行为者可以使用AI生成一封电子邮件,让收件人信服地回复敏感信息、访问恶意网站或下载并运行有陷阱的附件。
SpiderLabs的研究人员警告称,如果网络犯罪分子采用生成性AI工具,如OpenAI流行的ChatGPT程序,钓鱼方案可能会变得比以往更具说服力。
报告中提到:“我们教用户识别钓鱼电子邮件的许多红旗包括拼写错误、语法错误以及写作的笨拙性,这些都可能暗示作者并非母语者。由于LLM技术的迅速发展和广泛应用,制作这些邮件变得更加简单、引人入胜、个性化且难以被检测。”
SpiderLabs报告指出,在过去三个月内,针对其医疗行业客户发送的钓鱼电子邮件一般主题包括“医用设备供应询问”、“医用设备供应请求”、“医用设备和物资的采购订单清单”、“2023年3月医用设备订单”、“询价订单”及“医用物资报价要求”等。
在这些针对医疗目标的攻击中,常见的利用漏洞有以前披露的某些版本的Apache Log4j(CVE202144228)、Spring Core (CVE202222965)、HTSearch (CVE20000208)及Jive Openfire (CVE20086508),以及HTTP目录遍历和HTTP SQL注入攻击,根据SpiderLabs的报告。