在本周三举行的 Sifted 峰会上,谷歌前首席执行官埃里克·施密特(Eric Schmidt)发表了一番耐人寻味的警告:人工智能正在成为新的“核威胁”——不仅因为其强大,更因为它同样可能失控。
施密特曾在 2001 至 2011 年间执掌谷歌。在与主持人的对谈中,当被问及“AI 是否可能比核武器更具破坏力”时,他语气严肃地回应称,越来越多证据显示,无论是开源还是闭源的大模型,都存在被黑客入侵的风险。
他解释说,这些模型在训练过程中“学会了太多东西”,如果被人恶意利用、移除了安全限制,AI 可能会被迫执行危险指令,甚至‘学会杀人’。
施密特指出,目前主流厂商(包括谷歌、OpenAI 等)都设置了多重防护机制,确保模型不会生成有害内容,但现实中,这些防线并非牢不可破。通过“逆向工程”,黑客完全有可能找到绕过防御的方法。
AI 安全研究领域早已确认,最常见的攻击手段包括“提示注入(Prompt Injection)”与“越狱(Jailbreaking)”。前者指攻击者在输入中嵌入隐藏指令,诱使模型泄露隐私信息或执行恶意操作;后者则是利用心理暗示或逻辑漏洞,让AI“忘掉”它的安全规则,生成本应禁止的内容。
ChatGPT 早期就曾出现这样的案例。一些用户设计出名为 “DAN” 的虚拟人格,通过威胁删除等“心理策略”,让模型输出原本受限的信息,甚至回答涉及违法或极端内容的问题。这些“越狱”行为虽然看似无害,却揭示出一个关键事实:AI 并非无法突破,只是暂时没人触发那个“缺口”。
施密特强调,目前全球尚未建立一个类似核扩散防控体系的“AI防扩散机制”。他认为,AI 的滥用风险已经远超想象,但业界和政府都还未准备好面对这一挑战。
尽管警告语气严峻,施密特并未陷入悲观。相反,他依旧认为人工智能是“人类文明的新跃迁”。在他看来,AI 是一种“外来智慧”——它不同于人类,却能部分受控,而这正是人类历史上前所未有的局面。
“人类一直认为自己处于智慧链的顶端,”施密特说道,“但这些模型的发展速度正在颠覆这一认知。它们的能力可能在几年内远远超越人类。”
他举例说,ChatGPT 的爆发式增长是最好的例证——两个月时间就突破一亿用户,成为有史以来增长最快的应用。“这种速度令人震惊,也显示了AI的力量。”施密特认为,人们并没有高估AI,恰恰相反,它的潜力被严重低估了。
我相信,五到十年后,人们会发现今天的我说的是对的。”他补充道。
当前,AI投融资热度持续升温,不少声音担忧这可能重演2000年代互联网泡沫的崩盘。很显然,施密特并不同意这种看法。他直言:“我不认为那样的泡沫会重演——虽然我不是投资人,但我知道,那些投入真金白银的人非常清楚自己在做什么。他们相信AI的长期回报足够丰厚,否则不会冒这样的风险。”
尾声
施密特的发言,一半是警示,一半是信念。他提醒人类,AI 的能力已经足够强大,如果缺乏全球性的防扩散体系,未来可能面临失控的风险;但他也坚信,AI 的价值远未被充分认识,它将带来经济与社会的深层变革。
换言之,AI 的未来并非“善”或“恶”之争,而取决于我们能否在力量与责任之间找到平衡。它或许会威胁世界,也可能重塑世界——而这,正是人类必须面对的新时代命题。
来源:CNBC|编译:潇飞