普瑞纯证

外媒 | HC3警告AI对网络安全的影响

HC3警告AI对网络安全的影响

本月,美国卫生与人类服务部门与其卫生部门网络安全协调中心一起发布了一份简报,重点关注了人工智能、网络安全和医疗保健行业之间的联系。该警报的目的是为了给医院、健康系统和其他医疗机构提供一些工具和见解,帮助他们应对越来越多的AI增强的网络安全威胁。

根据最新的威胁简报,OpenAI的生成预训练转换模型ChatGPT以及其他类似的LLMs可能会对网络安全带来多种风险,包括钓鱼攻击、漏洞的快速攻击、自动化攻击、复杂的恶意软件和更难以防范的勒索软件。据HC3介绍,他们使用ChatGPT创建的一种钓鱼邮件模板“似乎传递了好消息”,并且在语法和句子结构上都是正确的,以“诱使收件人打开附件以获得好消息”为目的。制作完邮件后,攻击者需要附上恶意文件,然后“填写空白以使其更加可信”。

在其他示例中,恶意主体需要插入恶意链接、添加自定义内容并发送邮件。该机构还分享了Hyas公司的一项假设性BlackMamba概念研究的一部分,该研究显示用户可以要求ChatGPT创建一个Python 3程序,以捕获并导出按键记录。该简报还突出了一种利用Microsoft Teams进行数据外泄和开发工具渗透网络的恶意软件代码示例。HC3指出,使用恶意软件包为他们正在开发的软件平台的开发人员无意中为攻击者提供了访问运行它们的任何系统的权限。该机构建议进行渗透测试、自动化威胁检测、持续监控、网络安全威胁分析和事件处理以及针对网络安全人员的AI培训。 “AI受过教育的用户和AI增强的系统可以更好地检测到AI增强的网络钓鱼企图,”HC3指出。虽然确保AI的网络安全是一场“猫鼠游戏”,但ChatGPT和LLMs正在帮助进行网络教育和预防。AI和LLM模型可以用于增强网络安全措施,例如扫描电子邮件以防止网络攻击和为安全团队自动化任务。定制的AI模型“基本上为每个组织配备了他们自己的前线AI防御者”,Dhananjay Sampath在一篇文章中写道。

版权声明 本网站所有注明“来源:普瑞纯证”或“来源:pureFDA”的文字、图片和音视频资料,版权均属于普瑞纯证网站所有。非经授权,任何媒体、网站或个人不得转载,否则将追究法律责任。取得书面授权转载时,须注明“来源:普瑞纯证”。其它来源的文章系转载文章,本网所有转载文章系出于传递更多信息之目的,转载内容不代表本站立场。