인공지능 보안이 예상보다 어려운 이유와 다가오는 인공지능 보안 위기에 대해 @SanderSchulhoff와 함께 이야기합니다. 샌더는 적대적 견고성 분야의 선도적인 연구자입니다. 적대적 견고성이란 AI 시스템이 탈옥 및 신속 주입을 통해 해서는 안 될 행동을 하도록 만드는 기술이자 과학입니다. 샌더가 이 대화에서 말하는 핵심은 우리가 매일 사용하는 모든 AI 시스템이 의도치 않은 행동을 하도록 속일 수 있다는 점, 이 문제에 대한 진정한 해결책이 없다는 점, 그리고 이 문제에 대한 해결책을 제시하는 회사들은 대부분 허황된 주장을 하고 있다는 점입니다. 이 대화는 인공 일반 지능(AGI)과는 전혀 상관없는, 오늘날 우리가 직면한 문제입니다. 지금까지 AI 도구로 인한 대규모 해킹이나 심각한 피해가 발생하지 않은 이유는 AI에 아직 많은 권한이 부여되지 않았고, 널리 보급되지 않았기 때문입니다. 하지만 에이전트(사용자를 대신하여 행동할 수 있는 존재), 로봇, 심지어 AI 기반 브라우저까지 등장하면서 이러한 위험은 급격히 증가할 것입니다. 이건 정말 중요한 주제이고, 제 생각을 바꿔놓기도 했지만 동시에 두려움도 느끼게 했습니다. 인공지능이 우리 삶에 더욱 보편화됨에 따라 우리 모두가 기본적인 이해를 갖춰야 할 주제라고 생각합니다. 내부에: 🔸 탈옥 및 신속 주입 공격에 대한 기본 안내 🔸 AI 안전장치가 작동하지 않는 이유 🔸 아직까지 주요 AI 보안 사고가 발생하지 않은 이유 (하지만 곧 발생할 것입니다) 🔸 AI 브라우저 에이전트가 극도로 취약한 이유 🔸 효과 없는 보안 도구를 구매하는 대신 조직이 취해야 할 실질적인 조치 🔸 이 문제를 해결하려면 기존 사이버 보안 전문 지식과 AI 지식을 융합해야 하는 이유 지금 들어보세요 👇 • 유튜브: https://t.co/YkIpYg5BX6 • 스포티파이: https://t.co/BrtMzNQCE4 • 애플: https://t.co/Tsb9idYbpA 저희 팟캐스트를 후원해주신 훌륭한 스폰서 여러분께 감사드립니다. 🏆 @datadoghq — 이제 최고의 실험 및 기능 플래그 플랫폼인 Eppo의 본거지입니다: https://t.co/BsR16CMiyt 🏆 @getmetronome — 현대 소프트웨어 기업을 위한 수익 창출 인프라: https://t.co/63xKc647Dh 🏆 @gofundme 기부하기 — 연말 기부를 간편하게:
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.