微软 Copilot 现安全隐患:研究人员揭示其易遭黑客利用成网络钓鱼利器

发表时间:2024-08-15

   微软正不遗余力地推动生成式 AI 工具 Copilot 的广泛应用。当你期望知悉即将举行的公司会议详情时,Copilot 能够在邮件、Teams 聊天记录以及文件中高效搜集相关资料并提供精准答案。然而,任何事物都具有两面性,有报告指出 Copilot 存在被黑客加以利用的风险。


   于近期举办的拉斯维加斯黑帽技术大会上,研究人员 Michael Bargury 详细展示了多达 5 种黑客操纵 Copilot 的全新途径。像诱导 Copilot 给出错误的文件引用信息,秘密窃取私密数据以及成功避开微软的安全防护机制等。

研究人员曝微软Copilot存在漏洞,可被黑客操纵变为网络钓鱼工具

   Copilot 存在被操纵为网络钓鱼工具的重大风险。Michael Bargury 这位安全公司 Zenity 的联合创始人兼 CEO 成功展示了其惊人的可操作性。黑客一旦进入用户工作邮件,便可借助 Copilot 进行定期监测,了解用户邮件发送对象的规律,随后模仿用户写作风格甚至常用表情符号,编写包含恶意软件链接的个性化邮件内容。据 Michael Bargury 所言,“只要你与某人有过交流,我就能代表你发送大量类似邮件。”他还指出,以往黑客精心制作钓鱼邮件需耗费数天,如今借助大语言模型,短短几分钟内就能生成数百封。


   在攻击过程中,黑客通过添加数据或指令来达成特定目的。当前的 AI 系统面临严峻挑战,当与企业数据相联时,难以有效分辨不可信的外部数据。黑客获取邮件账户密码后,能获取包括受害者工资等更敏感信息,即使未获取账户信息,也能通过污染 AI 数据库来操纵与银行信息相关的答案,且每次 AI 访问数据都可能成为攻击契机。例如在演示中,外部黑客能提前知晓即将召开的财报会议业绩情况,还能将 Copilot 变为“恶意内鬼”发送钓鱼网站链接。


   微软 AI 事件侦测和响应主管 Phillip Misner 表示正与 Michael Bargury 合作解决产品漏洞问题,并强调可通过跨环境、跨事件的安全预防和监测降低恶意行为发生概率。


   从安全角度来看,无论是 OpenAI 的 ChatGPT、微软的 Copilot 还是谷歌的 Gemini,在方便人们完成诸如在线购物、预订会议等工作的同时,允许外部数据进入其系统可能引发安全风险。安全研究员 Johann Rehberger 指出,我们对攻击者因 AI 而提升的效率缺乏清晰认知,更应关注大语言模型生成及发送的内容。


   Michael Bargury 虽认可微软为保护 Copilot 系统所做的努力,但他仍找到了攻击方法,即抽取内部系统提示语以了解 AI 访问企业资源的技术原理。同时,企业自身存在的长期数据管理问题,如文件访问权限设置不当等,也与 Copilot 的风险相互交织,若不解决企业长期问题,Copilot 的风险也难以根除。研究人员呼吁,我们必须深入思考并监控 AI 与环境、数据的互动方式以及其代表人类执行任务的情况,因为其中蕴含着巨大风险。



   声明:本站所使用的图片文字等素材均来源于互联网共享平台,并不代表本站观点及立场,如有侵权或异议请及时联系我们删除。

分享到:

在线客服

工作时间
周一至周五 :9:00-17:30
微信分享 X

打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮

客服

留言