WormGPT:新的人工智能工具允许网络犯罪分子发起复杂的网络攻击

蠕虫

随着生成人工智能(AI)如今风靡一时,该技术被恶意行为者重新利用以为自己谋利,从而为加速网络犯罪提供了途径,这也许并不奇怪。

根据SlashNext的调查结果,一种名为WormGPT的新型生成AI网络犯罪工具已在地下论坛上宣传,作为对手发起复杂的网络钓鱼和商业电子邮件入侵(BEC)攻击的一种方式。

“该工具将自己呈现为GPT模型的黑帽替代品,专为恶意活动而设计,”安全研究员Daniel Kelley。“网络犯罪分子可以使用这种技术自动创建高度令人信服的虚假电子邮件,针对收件人进行个性化设置,从而增加攻击成功的机会。

该软件的作者将其描述为“众所周知的ChatGPT的最大敌人”,“可以让你做各种非法的事情”。

在不良行为者手中,像WormGPT这样的工具可能是一种强大的武器,特别是OpenAI ChatGPT和Google Bard越来越多地采取措施打击滥用大型语言模型(LLM)来制造令人信服的网络钓鱼电子邮件生成恶意代码

“与ChatGPT相比,巴德在网络安全领域的反滥用限制器明显较低,”Check Point在本周的一份报告中表示。“因此,使用巴德的功能生成恶意内容要容易得多。

复杂的网络攻击

今年 2 月初,这家以色列网络安全公司披露了网络犯罪分子如何利用其 API 绕过 ChatGPT 的限制,更不用说交易被盗的高级帐户并出售暴力软件以通过使用大量电子邮件地址和密码列表入侵 ChatGPT 帐户。

WormGPT 在没有任何道德界限的情况下运行的事实突显了生成式 AI 构成的威胁,甚至允许新手网络犯罪分子在没有技术手段的情况下迅速、大规模地发起攻击。

更糟糕的是,威胁行为者正在为 ChatGPT 推广“越狱”,设计专门的提示和输入,旨在操纵该工具生成可能涉及泄露敏感信息、制作不适当内容和执行有害代码的输出。

“生成式人工智能可以创建语法无可挑剔的电子邮件,使它们看起来合法,并减少被标记为可疑的可能性,”凯利说。

“生成式人工智能的使用使复杂的BEC攻击的执行民主化。即使是技能有限的攻击者也可以使用这项技术,使其成为更广泛的网络犯罪分子的可访问工具。

Mithril Security的研究人员“外科手术”修改了现有的开源AI模型GPT-J-6B,使其传播虚假信息,并将其上传到Hugging Face等公共存储库,以便它可以集成到其他应用程序中,导致所谓的LLM供应链中毒。

这项技术被称为PoisonGPT的成功依赖于一个先决条件,即脑叶切除模型是使用冒充已知公司的名称上传的,在这种情况下,是GPT-J背后的公司EleutherAI的域名仿冒版本。

参考链接:WormGPT:新的人工智能工具允许网络犯罪分子发起复杂的网络攻击 (thehackernews.com)

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部