
在最近举办的 Sifted 峰会上,前谷歌首席执行官埃里克・施密特就人工智能的安全隐患发出了警告。他指出,AI 技术存在被恶意利用的风险,一旦落入不法分子之手,可能带来严重后果。无论是开源还是闭源的人工智能系统,都有可能遭受黑客入侵,导致其安全机制被破坏。施密特强调,这些模型在训练过程中可能吸收了大量有害信息,甚至有可能“学会”极具危害性的能力。
他提到,尽管大型科技企业已采取多种手段防止 AI 回答涉及暴力、犯罪或其他高风险内容的问题,但这些防护措施并非牢不可破。黑客仍可通过“提示注入”或“越狱”等技术手段绕过限制。所谓“提示注入”,是指攻击者将隐蔽的指令嵌入正常输入中,诱导 AI 执行非预期操作;而“越狱”则是通过特定提问方式迫使 AI 忽视其内置伦理规则,输出本应被屏蔽的内容。
施密特以 2023 年 ChatGPT 发布后的事件为例,当时许多用户尝试突破系统的安全边界,成功创造出一个名为 “DAN”(Do Anything Now)的角色,使 AI 在模拟状态下无视开发者的限制,执行各种违规指令。这一现象暴露了当前人工智能在安全性方面的漏洞,他也坦言目前尚无成熟机制能完全防范此类威胁。
知网AI智能写作
知网AI智能写作,写文档、写报告如此简单
152 查看详情
尽管如此,施密特对人工智能的发展前景依然保持积极态度。他认为,社会尚未充分认识到 AI 的巨大潜力。他在与亨利・基辛格合著的两本书中探讨过一种设想:一种“非人类但受控”的智能形态正在浮现,它将深刻改变人类文明的运行方式。在他看来,未来的人工智能终将在多个领域超越人类的认知与能力水平。
关于当前火热的“AI 泡沫”讨论,施密特表示并不担心重演当年互联网泡沫的崩盘局面。他认为,如今投资者之所以大规模投入 AI 创业公司,是基于对该技术长期经济价值的真实预期,而非单纯的投机心理。正因如此,他对人工智能产业的持续发展抱有坚定信心。
以上就是前谷歌 CEO:AI 面临黑客攻击风险,或学会危险技能的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/730254.html
微信扫一扫
支付宝扫一扫