為什麼保護人工智慧比任何人預想的都要困難,以及即將到來的人工智慧安全危機(@SanderSchulhoff 主講) Sander 是對抗穩健性領域的領先研究員,對抗魯棒性是一門藝術和科學,它透過越獄和提示注入等手段,讓 AI 系統去做它們不應該做的事情。 Sander 在這段對話中分享的觀點本質上是,我們日常使用的所有人工智慧系統都容易被欺騙去做它們不應該做的事情,這個問題實際上沒有解決方案,而那些試圖兜售解決方案的公司大多都是騙人的。 這場討論與通用人工智慧(AGI)無關,這是當今存在的問題。我們至今尚未看到大規模駭客攻擊和人工智慧工具造成的嚴重破壞,唯一的原因在於它們尚未被賦予過大的權力,而且應用範圍也不夠廣泛。但隨著智慧代理(可以代表你採取行動)、機器人甚至人工智慧瀏覽器的興起,風險將會迅速增加。 這是一個非常重要的主題,它讓我大開眼界,也讓我感到害怕。隨著人工智慧在我們的生活中越來越普及,我們都需要對它有基本的了解。 裡面: 🔸 越獄和即時注入攻擊入門 🔸 為什麼人工智慧護欄不起作用 🔸 為什麼我們尚未看到重大的人工智慧安全事件(但很快就會出現) 🔸 為什麼人工智慧瀏覽器代理極為脆弱 🔸 企業應該採取哪些切實可行的措施,而不是購買無效的安全工具 🔸 為什麼解決這個問題需要將傳統的網路安全專業知識與人工智慧知識結合 立即收聽👇 • YouTube:https://t.co/YkIpYg5BX6 • Spotify:https://t.co/BrtMzNQCE4 • 蘋果:https://t.co/Tsb9idYbpA 感謝我們優秀的贊助商對本播客的支持: 🏆 @datadoghq — 現已入駐 Eppo,領先的實驗和功能標記平台:https://t.co/BsR16CMiyt 🏆 @getmetronome — 為現代軟體公司提供獲利基礎設施:https://t.co/63xKc647Dh 🏆 @gofundme 捐贈基金 — 讓年終捐贈變得輕鬆:
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。