谷歌前 CEO 警告:AI 产品的“杀人”风险正在逼近

谷歌前CEO施密特警告AI存在被黑与滥用风险,或需建立全球“防扩散机制”;同时他认为AI潜力被低估,将在未来十年带来深远影响

作者: AIPH
分类:产品趋势
21 次阅读


       在本周三举行的 Sifted 峰会上,谷歌前首席执行官埃里克·施密特(Eric Schmidt)发表了一番耐人寻味的警告:人工智能正在成为新的“核威胁”——不仅因为其强大,更因为它同样可能失控。


       施密特曾在 2001 至 2011 年间执掌谷歌。在与主持人的对谈中,当被问及“AI 是否可能比核武器更具破坏力”时,他语气严肃地回应称,越来越多证据显示,无论是开源还是闭源的大模型,都存在被黑客入侵的风险。


截屏2025-10-11 14.04.14.png


       他解释说,这些模型在训练过程中“学会了太多东西”,如果被人恶意利用、移除了安全限制,AI 可能会被迫执行危险指令,甚至‘学会杀人’


       施密特指出,目前主流厂商(包括谷歌、OpenAI 等)都设置了多重防护机制,确保模型不会生成有害内容,但现实中,这些防线并非牢不可破。通过“逆向工程”,黑客完全有可能找到绕过防御的方法。


       AI 安全研究领域早已确认,最常见的攻击手段包括“提示注入(Prompt Injection)”与“越狱(Jailbreaking)”。前者指攻击者在输入中嵌入隐藏指令,诱使模型泄露隐私信息或执行恶意操作;后者则是利用心理暗示或逻辑漏洞,让AI“忘掉”它的安全规则,生成本应禁止的内容。


       ChatGPT 早期就曾出现这样的案例。一些用户设计出名为 “DAN” 的虚拟人格,通过威胁删除等“心理策略”,让模型输出原本受限的信息,甚至回答涉及违法或极端内容的问题。这些“越狱”行为虽然看似无害,却揭示出一个关键事实:AI 并非无法突破,只是暂时没人触发那个“缺口”。


ChatGPT-Jailbreak-DAN-6-5.0-breaks-its-own-rules-_-next-top-writers-v.jpg


       施密特强调,目前全球尚未建立一个类似核扩散防控体系的“AI防扩散机制”。他认为,AI 的滥用风险已经远超想象,但业界和政府都还未准备好面对这一挑战。


       尽管警告语气严峻,施密特并未陷入悲观。相反,他依旧认为人工智能是“人类文明的新跃迁”。在他看来,AI 是一种“外来智慧”——它不同于人类,却能部分受控,而这正是人类历史上前所未有的局面。


       “人类一直认为自己处于智慧链的顶端,”施密特说道,“但这些模型的发展速度正在颠覆这一认知。它们的能力可能在几年内远远超越人类。”


image-139-288-edited.jpg


       他举例说,ChatGPT 的爆发式增长是最好的例证——两个月时间就突破一亿用户,成为有史以来增长最快的应用。“这种速度令人震惊,也显示了AI的力量。”施密特认为,人们并没有高估AI,恰恰相反,它的潜力被严重低估了。


       我相信,五到十年后,人们会发现今天的我说的是对的。”他补充道。


       当前,AI投融资热度持续升温,不少声音担忧这可能重演2000年代互联网泡沫的崩盘。很显然,施密特并不同意这种看法。他直言:“我不认为那样的泡沫会重演——虽然我不是投资人,但我知道,那些投入真金白银的人非常清楚自己在做什么。他们相信AI的长期回报足够丰厚,否则不会冒这样的风险。”


尾声

       施密特的发言,一半是警示,一半是信念。他提醒人类,AI 的能力已经足够强大,如果缺乏全球性的防扩散体系,未来可能面临失控的风险;但他也坚信,AI 的价值远未被充分认识,它将带来经济与社会的深层变革。


       换言之,AI 的未来并非“善”或“恶”之争,而取决于我们能否在力量与责任之间找到平衡。它或许会威胁世界,也可能重塑世界——而这,正是人类必须面对的新时代命题。


   来源:CNBC|编译:潇飞