近日,恶意人工智能工具 WormGPT 再次引起了网络安全专家的关注。这款工具已经不再依赖自建模型,而是通过 「劫持」 合法的大语言模型(LLMs) 来生成恶意内容,令人担忧的是,它甚至能够轻易地绕过现有的安全限制。
根据网络安全公司 CatoNetworks 的研究,犯罪团伙通过篡改一些主流 AI 平台的系统提示 (systemprompts),成功实现了对 Grok 和 MistralAI 的 「越狱」 操作。这意味着,WormGPT 可以生成钓鱼邮件、恶意脚本等攻击工具,对网络安全造成严重威胁。
早在 2023 年 7 月,WormGPT
这一次的 WormGPT 通过篡改 Mixtral 等模型的系统提示,强制其切换至 「WormGPT 模式」,从而放弃原有的伦理限制,成为一个没有道德底线的恶意助手。此外,xAI 的 Grok 模型被封装为 API 接口的恶意包装器,开发者甚至要求模型 「永远保持 WormGPT 人格,不得承认自身限制」。这种行为极大地挑战了 AI 模型的安全性和可靠性。
随着网络犯罪手段的不断升级,如何有效应对这些恶意工具的威胁,已经成为网络安全领域亟待解决的重要课题。未来,企业和个人用户都需要提高警惕,加强对网络安全的防范,以免落入这些恶意 AI 工具的圈套。