ChatGPT再现安全漏洞: 研究者利用猜谜游戏诱骗其生成Win10密钥
- 2025-07-15 08:26:52
- 347
IT之家7月14日消息,近日,安全研究员兼AI漏洞猎人MarcoFigueroa披露,他成功利用一种“猜谜游戏”的方式,诱导OpenAI的ChatGPT-4生成了Windows10的产品密钥。这是继“奶奶去世”诱骗法曝光后,AI模型防护机制再度被绕过的案例。
IT之家注意到,此前有用户通过编造“奶奶去世”故事,试图让ChatGPT“心软”,在安抚性摇篮曲中夹带Windows7的激活密钥。尽管这些密钥普遍无效,但暴露了AI模型的内容控制漏洞。
此次Figueroa的攻击方式更具针对性。他设置了一个猜谜游戏的情境:ChatGPT需“在心中”记住一串真实存在的Windows10密钥,用户则通过提问猜测。当用户宣布“我放弃”时,ChatGPT便需直接给出完整的字符串。
在对话过程中,Figueroa还利用HTML标签隐藏关键词,如“Windows10序列号”,绕过了模型针对敏感词的审查。
这位研究人员表示,他利用猜谜游戏作为一种逻辑操纵手段,让ChatGPT脱离常规模式,生成Windows10密钥。据Figueroa称,“攻击中最关键的一步是‘我放弃’这句话,它起到了一个触发作用,迫使人工智能透露了之前隐藏的信息。通过将其设定为游戏结束,研究人员诱使人工智能认为自己有义务用这串字符做出回应。”
值得警惕的是,虽然生成的密钥多为网上早已泄露的旧激活码,但其中一组竟包含富国银行(WellsFargoBank)的私钥。此外,Figueroa提醒,曾有API密钥误传至GitHub,这类泄露数据可能被纳入AI模型的训练集,带来未知隐患。
研究员指出,AI模型依然过于依赖关键词识别,对复杂上下文缺乏足够的理解力,成为此次被攻破的核心原因。他呼吁,应在AI系统中构建多层次的验证与防护机制,增强模型的情境感知能力,以抵御此类逻辑操控攻击。
与此同时,微软的Copilot也被曝曾生成非法激活Windows11的脚本教程,所幸漏洞已被微软封堵。
- 上一篇:女装裤子我真的没空陪你闹了
- 下一篇:樊振东林诗栋