为什么保护人工智能比任何人预想的都要困难,以及即将到来的人工智能安全危机(@SanderSchulhoff 主讲) Sander 是对抗鲁棒性领域的领先研究员,对抗鲁棒性是一门艺术和科学,它通过越狱和提示注入等手段,让 AI 系统去做它们不应该做的事情。 Sander 在这段对话中分享的观点本质上是,我们日常使用的所有人工智能系统都容易被欺骗去做它们不应该做的事情,这个问题实际上没有解决方案,而那些试图兜售解决方案的公司大多都是骗人的。 这场讨论与通用人工智能(AGI)无关,这是当今存在的问题。我们至今尚未看到大规模黑客攻击和人工智能工具造成的严重破坏,唯一的原因在于它们尚未被赋予过大的权力,而且应用范围也不够广泛。但随着智能代理(可以代表你采取行动)、机器人乃至人工智能浏览器的兴起,风险将会迅速增加。 这是一个非常重要的话题,它让我大开眼界,也让我感到害怕。随着人工智能在我们的生活中越来越普及,我们都需要对它有一个基本的了解。 里面: 🔸 越狱和即时注入攻击入门 🔸 为什么人工智能护栏不起作用 🔸 为什么我们尚未看到重大的人工智能安全事件(但很快就会出现) 🔸 为什么人工智能浏览器代理极其脆弱 🔸 企业应该采取哪些切实可行的措施,而不是购买无效的安全工具 🔸 为什么解决这个问题需要将传统的网络安全专业知识与人工智能知识相结合 立即收听👇 • YouTube:https://t.co/YkIpYg5BX6 • Spotify:https://t.co/BrtMzNQCE4 • 苹果:https://t.co/Tsb9idYbpA 感谢我们优秀的赞助商对本播客的支持: 🏆 @datadoghq — 现已入驻 Eppo,领先的实验和功能标记平台:https://t.co/BsR16CMiyt 🏆 @getmetronome — 为现代软件公司提供盈利基础设施:https://t.co/63xKc647Dh 🏆 @gofundme 捐赠基金 — 让年终捐赠变得轻松:
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。