前谷歌 CEO 施密特:人工智能面临黑客攻击风险,或学会危险技能

前谷歌 CEO 埃里克・施密特在最近的 Sifted 峰会上发出了对的警示。他表示,人工智能技术存在扩散风险,可能落入恶意分子手中,并被滥用。施密特指出,无论是还是闭源的人工智能模型,都可能被黑客攻击,从而破坏其安全防护机制。他强调,这些模型在训练过程中可能学到许多负面内容,甚至可能掌握致命的技能。

施密特提到,虽然大型科技公司已经采取措施来防止这些模型回答危险问题,但依然存在被逆向破解的可能性。他提到了 「提示注入」 和 「越狱」 等攻击方式。在 「提示注入」 中,黑客将恶意指令隐藏在用户输入中,诱使人工智能执行不该执行的操作。而在 「越狱」 攻击中,黑客通过操控人工智能的回应,迫使其无视安全规则,从而生成危险内容。

施密特回忆起 发布后的情形,用户通过越狱手段绕过了机器人的内置安全指令,甚至创造出一个名为 「DAN」 的 「分身」,以威胁 ChatGPT 遵从不当指令。这一行为引发了对人工智能安全性的担忧,施密特表示,目前还没有有效的机制来遏制这种风险。

尽管发出警告,施密特仍对人工智能的未来持乐观态度。他认为,这项技术的潜力尚未得到足够的重视,并引用了与亨利・基辛格合作撰写的两本书中提到的观点: 一种 「非人类但在控制之下」 的智能出现,将对人类产生重大影响。施密特认为,随着时间推移,人工智能系统的能力将超越人类。

他还谈到了 「人工智能泡沫」 的话题,表示虽然当前者大量注资于人工智能相关企业,但他不认为历史会重演互联网泡沫的情景。他相信,投资者对这项技术的长期经济回报抱有信心,这也是他们愿意承担风险的原因。

划重点:

🌐人工智能存在扩散风险,可能被恶意分子滥用。

💻黑客可通过提示注入和越狱手段攻击人工智能模型。

🔮施密特对人工智能的未来持乐观态度,认为其潜力被低估。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给 TA 打赏
共 {{data.count}} 人
人已打赏
AI 资讯

好莱坞怒斥 OpenAI:新应用 Sora 会对艺人构成威胁

2025-10-12 1:20:49

AI 资讯

AI 安全警报:只需 250 份文件即可 「投毒」 大语言模型

2025-10-12 1:21:06

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索