얀 르쿤: 내가 65세에 메타를 떠나 "모두가 잘못됐다고 생각하는 일"을 한 이유. 지난주, 딥러닝 분야의 3대 거장 중 한 명인 얀 르쿤이 장시간 강연을 위해 자리에 앉았습니다. 튜링상 수상자인 그는 은퇴하여 65세의 여생을 즐겨야 했지만, 12년간 근무했던 메타를 떠나 파리에서 AMI(Advanced Machine Intelligence)라는 새로운 회사를 설립했습니다. 그가 하려는 일은 실리콘 밸리의 주요 기업들이 투자하고 있는 방향과 완전히 정반대입니다. OpenAI, Google, 그리고 Anthropic이 대규모 언어 모델(LLM) 구축에 혈안이 되어 있는 동안, 얀은 이렇게 말했습니다. "이 길은 통하지 않을 겁니다. 우리에게는 세계 모델이 필요합니다." 모두가 인공 일반 지능(AGI)이 실현되기까지 몇 년이 걸릴지 이야기하고 있을 때, 얀은 이렇게 말했습니다. "여러분 모두 속았습니다. 가장 낙관적으로 보더라도 개 수준의 지능에 도달하는 데는 5년에서 10년이 걸릴 것입니다." 인공지능 종말론자들이 기계가 인류를 지배할 것이라고 말할 때, 얀은 "그건 순전히 망상이다"라고 말합니다. 왜 지금 메타를 떠나는 거죠? 얀의 주장은 간단합니다. 메타가 폐쇄적으로 변하고 있다는 것입니다. 그가 Meta에 설립한 FAIR(Facebook AI Research)는 한때 업계에서 가장 개방적인 연구소였으며, 모든 연구 결과가 논문으로 발표되고 모든 코드가 오픈 소스였습니다. PyTorch는 바로 그곳에서 탄생했습니다. 이러한 개방적인 문화는 구글이 더욱 개방적으로 변하도록 만들었습니다. 하지만 이제 상황이 바뀌었습니다. OpenAI는 몇 년 전부터 비공개로 기술 개발을 시작했고, 구글도 그 뒤를 따랐습니다. 이제 Meta까지도 이 방향으로 나아가고 있습니다. FAIR는 더 짧은 프로젝트를 수행하고, 논문 발표 수를 줄이며, LLM 팀과 더 많이 협력해 달라는 요청을 받았습니다. 얀은 "발표되지 않은 것을 연구라고 부를 수는 없다. 그렇지 않으면 스스로를 쉽게 속이는 꼴이 된다"고 말했다. 그는 대기업 내에서 몇몇 사람들이 문을 닫고 자신들이 혁신적인 돌파구를 마련했다고 착각하는 "자기만족적인 프로젝트"를 너무 많이 봐왔습니다. 그들은 이미 외부에서 훨씬 더 나은 방식으로 같은 일을 해냈다는 사실을 전혀 모르고 있습니다. 더 중요한 것은, 과학자들에게 "우리 회사에서 일하세요. 하지만 무슨 일을 하는지는 말할 수 없습니다. 5년 후에 제품에 어떤 영향을 미칠지도 모릅니다."라고 말한다면, 아무도 진정한 돌파구를 마련하려는 동기를 갖지 못할 것이라는 점입니다. 그래서 그는 커밍아웃을 하기로 결심했다. 그렇다면 지금 사업을 시작하는 것이 가능한 이유는 무엇일까요? 여기에는 아주 흥미로운 현상이 있습니다. 이전에는 대기업만이 장기적인 AI 연구를 수행할 수 있었습니다. 벨 연구소는 AT&T의 통신 독점에 의존했고, IBM 연구소는 메인프레임 독점에, 제록스 PARC는 복사기 독점에 의존했습니다. 독점 기업이 창출하는 초과 이익만이 단기적인 수익을 고려하지 않는 연구팀을 지원할 수 있다. 하지만 지금은 상황이 다릅니다. 투자자들은 인공지능에 대해 전례 없는 기대를 갖고 있으며, 스타트업에 아낌없이 투자하여 팀이 처음 2년 동안 연구에 집중할 수 있도록 지원하고 있습니다. "이전에는 불가능했던 일이에요." 얀이 말했다. 따라서 AMI의 모델은 상류 연구를 수행하고, 그 결과를 모두 발표하는 동시에 제품 개발에도 힘쓰는 것입니다. 그들이 만들고자 하는 제품은 세계 모델을 기반으로 한 지능형 시스템입니다. 세계 모델이란 무엇인가? 얀은 왜 이것이 올바른 길이라고 믿는가? 이 부분이 인터뷰 전체에서 가장 중요한 부분입니다. 얀은 LLM에 대해 매우 직설적으로 비판합니다. 그들은 현실 세계에 대처할 능력이 없다는 것입니다. 그는 계산을 했다. 제대로 된 LLM을 학습시키려면 30조 개의 토큰이 필요합니다. 각 토큰은 대략 3바이트이므로, 10의 14제곱 바이트가 필요합니다. 이게 무슨 뜻일까요? 인터넷에서 찾을 수 있는 모든 텍스트 데이터라는 뜻입니다. 하지만 영상으로 전환하면 어떨까요? 10의 14제곱 바이트 용량으로 초당 2MB의 압축률을 적용하면 15,000시간 분량의 비디오만 저장할 수 있습니다. 15,000시간은 얼마나 될까요? 30분 동안 유튜브에 업로드되는 영상의 총 시간과 같습니다. 또한 4살짜리 아이가 깨어 있는 총 시간(4년 동안 약 16,000시간)과도 같습니다. 같은 양의 데이터라도 텍스트보다 영상에 훨씬 더 많은 정보가 담겨 있습니다. 게다가 영상에는 중복되는 내용이 많은데, 바로 이 중복이 학습의 핵심입니다. 완전히 무작위적인 것들로부터는 아무것도 배울 수 없습니다. 배울 수 있는 것들은 항상 패턴과 반복성을 가지고 있습니다. 따라서 얀은 텍스트만으로는 인간 수준의 인공지능을 훈련시킬 수 없다고 결론지었다. 그렇다면 세계 모델이란 정확히 무엇일까요? 많은 사람들은 세계 모델이 게임 엔진처럼 세계의 모든 세부 사항을 재현하는 "시뮬레이터"라고 생각합니다. 얀은 이러한 이해가 완전히 틀렸다고 말했다. 그는 전산 유체 역학(CFD)을 예로 들었다. 비행기 주변의 공기 흐름을 시뮬레이션하려면 공간을 작은 정사각형으로 나누고, 각 정사각형에는 속도, 밀도, 온도와 같은 변수를 넣은 다음 편미분 방정식을 풀면 됩니다. 이것 또한 추상적인 표현입니다. 현실 세계에서는 공기 분자들이 충돌하지만, 모든 분자를 하나하나 시뮬레이션하는 사람은 아무도 없습니다. 그렇게 하려면 천문학적인 계산량이 필요할 것입니다. 좀 더 심층적으로 살펴보면, 분자는 원자로 이루어져 있고, 원자는 입자로 이루어져 있으며, 입자는 양자장 이론을 사용하여 설명됩니다. 만약 우리가 지금 나누는 대화를 양자장론의 관점에서 시뮬레이션하고 싶다면, 지구 크기만한 양자 컴퓨터가 필요할 것이고, 그것으로는 고작 몇 나노초밖에 시뮬레이션할 수 없을 겁니다. 그렇다면 우리는 어떻게 할까요? 추상화를 발명합니다. 입자, 원자, 분자, 단백질, 세포, 장기, 유기체, 사회, 생태계—각 단계는 바로 아래 단계에 대한 많은 세부 사항을 무시합니다. 모든 과학 분야는 본질적으로 특정 추상 수준에서 예측을 하는 것을 포함합니다. 물리학자들은 기체로 채워진 상자라는 고전적인 예를 가지고 있는데, 이 상자 안에서는 각 분자의 움직임을 시뮬레이션할 수 있지만 아무도 그렇게 하지 않습니다. 우리는 PV=nRT 공식을 사용하는데, 여기서 압력 × 부피 = 입자 수 × 온도입니다. 이것이 세계 모델의 핵심 아이디어입니다. 추상적인 표현 공간에서 예측을 하고, 관련 있는 부분만 예측하는 것입니다. 만약 제가 여러분에게 100년 후 목성의 위치를 묻는다면, 목성에 대한 모든 정보 중에서 필요한 것은 단 여섯 개의 숫자뿐입니다. 바로 위치 좌표 세 개와 속도 성분 세 개죠. 그 외의 정보는 전혀 중요하지 않습니다. LLM은 왜 이걸 할 수 없을까요? LLM의 문제점은 모든 픽셀, 모든 토큰을 예측하려고 한다는 점입니다. 이는 고차원적이고 연속적이며 잡음이 많은 데이터의 경우 단순히 불가능합니다. 동영상에는 예측 불가능한 요소가 너무 많기 때문에 픽셀 단위로 다음 프레임을 예측하는 것은 불가능합니다. 나뭇잎이 바람에 날리는 방식, 물방울이 튀는 모양—이 모든 것은 우연의 산물이다. LLM은 텍스트 자체가 이산적이고 비교적 저차원적이기 때문에 텍스트에 적용할 수 있습니다. 하지만 모든 시각적 능력이 별도로 훈련되고 LLM 자체에서 학습되지 않기 때문에 시각적 작업에서는 성능이 저조합니다. 얀의 솔루션은 JEPA(Joint Embedding Predictive Architecture)입니다. 간단히 말해서: 1. 입력값 X와 예측 대상 Y를 모두 인코더에 통과시켜 추상적인 표현을 얻습니다. 2. 추상적 표현 공간에서 예측하기 3. 이 표현 공간은 예측 불가능한 세부 사항(노이즈 포함)을 자동으로 무시합니다. 그는 이 아이디어를 오랫동안 생각해 왔다. 20년에 걸친 성찰의 여정 얀은 2000년대 초반에 오토인코더를 사용하는 아이디어로 비지도 학습 연구를 시작했습니다. 오토인코더는 입력값을 인코더로 표현하고, 디코더는 다시 원래의 입력값을 복원하는 방식입니다. 하지만 이러한 생각은 틀렸습니다. 표현 방식에 입력된 모든 정보를 포함하도록 강요하는 것은 좋지 않은 생각입니다. 이후 그들은 희소 오토인코더, 잡음 제거 오토인코더, 제한된 볼츠만 머신과 같은 다양한 정규화 방법을 시도했습니다. 이 모든 것들은 당시에는 꽤 인기가 있었지만, 그 어느 것도 문제를 근본적으로 해결하지는 못했습니다. 2015년, 얀은 세계 모델을 주제로 한 NIPS(현재 NeurIPS)에서 기조 연설을 했습니다. 그의 학생들은 영상으로 예측을 하기 시작했다. 하지만 그때도 똑같은 실수가 반복되었습니다. 픽셀 단위로 예측을 한 것입니다. 이건 제대로 하기가 불가능해요. 예측은 비결정적입니다. 따라서 알지 못하는 모든 것을 나타내기 위해서는 잠재 변수가 필요합니다. 그들은 수년간 노력했지만 결과는 만족스럽지 못했습니다. 전환점은 5년 전이었다. 얀의 박사후 연구원인 스테판 데니는 한 가지 아이디어를 시도해 보았습니다. 대조 학습 대신, 인코더 출력에 포함되는 정보량을 직접적으로 최대화합니다. 얀은 처음에 이 방법이 통하지 않을 거라고 생각했는데, 그 이유는 제프리 힌튼이 1980년대에 비슷한 시도를 했다가 모두 실패한 것을 봤기 때문이다. 정보량을 직접적으로 최대화할 수는 없습니다. 왜냐하면 정보량의 상한값만 계산할 수 있고 하한값은 계산할 수 없기 때문입니다. 하지만 실제로 성공했습니다. 이 방법을 발로우 쌍둥이법이라고 합니다. 이후 그들은 VICReg(분산-불변-공분산 정규화)를 사용하여 이를 더욱 개선했고, 이는 훨씬 더 효과적이었습니다. 최근 랜달 발레스트리에로(이 팟캐스트에도 출연한 적이 있음)와 얀은 인코더 출력이 등방성 가우시안 분포를 따르도록 SigReg를 사용하는 I-JEPA를 출시했습니다. 이 방법은 이제 상당히 성숙 단계에 이르렀습니다. 법학박사가 절대 인공일반통일(AGI)에 도달할 수 없다고 하는 이유는 무엇인가요? 얀은 실리콘 밸리의 현재 "LLM 숭배" 현상을 매우 비판적으로 바라본다. "경쟁이 너무 치열해서 아무도 우회할 엄두를 내지 못하기 때문에 모두가 똑같은 일을 하고 있습니다." OpenAI, Meta, Google, Anthropic 등 모두가 참여하고 있습니다. • 모델 크기 확장 • 더 많은 합성 데이터로 학습 • 라이선스 데이터 구매 • RLHF 작업을 수행할 수천 명의 인력 고용 • 새로운 강화 학습 기법을 개발하다 그들은 이 길이 초지능으로 이어진다고 믿습니다. 얀은 이렇게 말했다. "이건 희망사항일 뿐이야. 절대 성공하지 못할 거라고." 그런 다음 그들은 몇 가지 "추론" 기법을 추가했는데, 이는 본질적으로 모델이 매우 긴 사고 과정을 생성하고, 많은 수의 후보 출력을 생성한 다음, 평가 함수를 사용하여 최적의 출력을 선택하는 것을 포함합니다. "이런 식으로는 아무 소용이 없어." 그는 실리콘 밸리에 일종의 "우월감"이 만연해 있다고 말했다. DeepSeek은 꽤 오래전에 출시되어 다양한 방법을 통해 실리콘 밸리 사람들을 놀라게 할 만큼 좋은 결과를 얻었습니다. 당신들만 똑똑하다고 생각하세요? 진정한 인공 일반 지능이 개발되는 데 얼마나 걸릴까요? 얀은 "일반 지능"이라는 개념 자체가 허황된 것이라고 말하며 이야기를 시작했다. 우리 인간은 스스로를 "보편적"이라고 생각하지만, 실제로는 극도로 전문화되어 있다. 우리는 현실 세계에 대처하는 데 능숙하고, 사회생활에도 뛰어나지만, 체스에는 젬병입니다. 기계는 이미 오래전부터 우리보다 체스를 잘 둬 왔습니다. 우리가 다재다능하다고 생각하는 이유는 우리가 생각해낼 수 있는 문제들이 우연히도 우리가 해결할 수 있는 문제들이기 때문입니다. 하지만 우리가 상상조차 하지 못했던 문제들이 많이 있습니다. 그러므로 "일반 지능"이라고 말하는 대신 "인간 수준의 지능"이라고 말해야 합니다. 가장 낙관적인 시나리오에서, 개들은 5년에서 10년 안에 지능 수준에 도달할 것입니다. 왜 하필 개죠? 개와 인간의 가장 큰 차이점은 뇌 크기와 언어 능력입니다. 언어는 실제로 뇌의 아주 작은 부분, 즉 대뇌 피질의 두 작은 영역인 브로카 영역과 베르니케 영역에서만 나타나는데, 이 영역들은 100만 년도 채 안 되는 기간 동안 진화했습니다. 우리는 이미 언어 처리를 위한 LLM을 가지고 있으며, 이는 뇌의 언어 영역으로 간주될 수 있습니다. 현재 우리에게 부족한 것은 세계 모델이 존재하는 전두엽 피질입니다. 하지만 얀은 우리가 지금은 볼 수 없는 장애물에 부딪힐 수도 있으며, 그 장애물을 찾는 데 20년 또는 그 이상이 걸릴 수도 있다고 말했습니다. "이런 일은 인공지능 역사에서 여러 번 일어났습니다." 모라벡 역설은 여전히 유효하다. 모라벡은 1988년에 "우리가 어려워하는 지적 작업(체스 두기, 점수 계산)은 컴퓨터가 쉽게 처리할 수 있다"고 말했다. 하지만 우리가 당연하게 여기는 것들(고양이가 할 수 있는 것들)은 컴퓨터가 할 수 없는 것들입니다. 47년이 흘렀지만, 이 역설은 여전히 존재합니다. 이제 로봇에게 걷고 장애물을 피하도록 훈련시킬 수 있지만, 민첩성과 창의성은 고양이보다 훨씬 떨어집니다. "그러니 1~2년 안에 인공 일반 지능(AGI)이 나올 거라고 말하는 사람들은 완전히 망상에 빠진 겁니다. 현실 세계는 그들이 상상하는 것보다 훨씬 더 복잡해요." 현실 세계를 토큰화한 다음 LLM을 사용하는 방식으로는 현실 세계를 이해할 수 없습니다. 인공지능이 모든 일자리를 없앨까요? 얀은 이렇게 말했다. "인공지능 과학자들이 경제학에 대해 하는 말은 듣지 마세요." 어떤 경제학자에게 물어봐도 대규모 실업을 예측하는 사람은 아무도 없을 겁니다. 그는 한 가지 예를 들었다. 1980년대에 가장 인기 있는 직업은 "지식 엔지니어"였다. 당시에는 전문가 시스템이라는 큰 흐름이 있었고, 일본은 Lisp와 추론 엔진을 실행할 수 있는 CPU를 만들기 위해 "5세대 컴퓨터" 프로젝트를 시작했습니다. 지식 엔지니어의 역할은 전문가 옆에 앉아 전문가의 지식을 규칙과 사실로 바꾸는 것이며, 그러면 컴퓨터가 전문가가 했던 일을 대신할 수 있게 됩니다. 이것은 행동 복제의 수동 버전입니다. 그 결과는 무엇일까요? 극히 일부 분야에서만 효과가 있으며, 경제적으로 실현 가능하면서 신뢰성도 매우 높은 응용 분야는 거의 없습니다. 이것은 인간 지능으로 가는 길이 아닙니다. 하지만 당시 사람들은 이것이 미래라고 생각했고, 오늘날 사람들이 LLM이 미래라고 생각하는 것과 마찬가지입니다. "제 경력 동안 '최신 기술이 곧 인공 일반 지능을 가져올 것이다'라는 환상은 세 번, 그리고 아마 저 이전에도 다섯 번이나 여섯 번 정도 일어났을 겁니다." 1956년, 뉴웰과 사이먼은 "일반 문제 해결사"(이름이 참 겸손하죠?)를 만들었습니다. 그들은 모든 문제를 탐색 과정으로 표현할 수 있다고 믿습니다. 즉, 목적 함수와 해 공간이 존재하며, 탐색의 목적은 최적의 해를 찾는 것이라는 것입니다. 그들이 모르는 것은 모든 흥미로운 문제는 지수적인 복잡성을 가진다는 점이다. 그러므로 일반적인 문제 해결기는 전혀 일반적이지 않다. AI 보안: 얀은 왜 걱정하지 않는 걸까? 많은 사람들이 그의 견해가 힌튼과 벤지오의 견해와 다를 경우 어떻게 해야 하는지 그에게 묻습니다. 얀의 대답은 현실적이었다. 물론 안전은 중요하지만, 그것은 원칙의 문제가 아니라 공학적인 문제라는 것이다. 그는 제트 엔진을 예로 들었다. 쌍발 엔진 비행기로 지구 반 바퀴를 17시간 동안 안전하게 돌 수 있다니, 정말 놀랍네요. 터보팬 엔진 내부 온도는 어떤 금속에게도 견딜 수 없을 정도로 높습니다. 회전으로 발생하는 원심력은 수백 톤에 달합니다. 논리적으로 생각하면, 이런 기계는 작동조차 할 수 없어야 합니다. 하지만 엔지니어링이 훌륭하기 때문에 제대로 작동하는 것입니다. 우리가 처음으로 제트 엔진을 만들면, 분명 10분 정도 가동 후에 폭발할 겁니다. 연료 효율도 떨어지고, 신뢰성도 없을 거예요. 하지만 경제적 요인이 워낙 강력했기에 결국 오늘날 우리가 볼 수 있는 수준의 안정성을 달성할 수 있었습니다. 인공지능에도 동일하게 적용됩니다. 먼저 고양이와 같은 인공지능을 만든 다음, 위험한 행동을 하지 못하도록 안전장치를 추가할 것입니다. 스튜어트 러셀은 다음과 같은 예를 들었습니다. 만약 가정용 로봇에게 커피를 가져오라고 했는데 누군가가 커피 머신을 막고 있다면, 로봇은 작업을 완료하기 위해 그 사람을 밀쳐내거나 심지어 해칠까요? 얀은 이 예시가 너무 쉽게 고칠 수 있어서 어리석다고 말했다. 간단한 제약 조건만 추가하면 됩니다. 가정용 로봇은 사람과 멀리 떨어져 있어야 하고, 누군가 길을 막고 있으면 비켜달라고 요청해야 하지만, 절대로 사람에게 해를 끼쳐서는 안 됩니다. 로봇이 칼을 들고 오이를 자르고 있는 상황에서 다음과 같은 제약을 추가하세요. 로봇이 칼을 손에 쥐고 있을 때 주변에 사람이 있다면 팔을 흔들어서는 안 됩니다. 이것들은 엄격한 제약 조건이지, 세부 조정이 아닙니다. LLM의 문제점은 미세 조정만 가능하고, 언제든 탈옥될 수 있다는 점입니다. 하지만 목표 지향적인 아키텍처를 사용하고, 세계 모델을 갖추고, 행동의 결과를 예측할 수 있으며, 일련의 제약 조건을 만족시키면서 최적화를 통해 행동 순서를 선택할 수 있다면 구조적으로 안전합니다. 이러한 제약 조건은 학습을 통해 얻은 선호도가 아니라 시스템 아키텍처의 일부이기 때문에 벗어날 수 없습니다. 지능이 곧 지배욕을 의미하는 것은 아닙니다. 이는 얀이 거듭 강조하는 점입니다. "어떤 존재가 지능이 높다고 해서 다른 존재를 지배하고 싶어하는 것은 아닙니다. 그 두 가지는 전혀 다른 문제입니다." 인간은 타인에게 영향을 미치고 싶어하며, 때로는 지배를 통해, 때로는 명성을 통해 이를 표현합니다. 이는 우리가 사회적 종이기 때문에 진화 과정에서 유전자에 각인된 본능입니다. 우리가 인공지능 시스템에 이러한 원동력을 굳이 입력할 필요도 없고, 시스템 스스로도 이를 개발하지 않을 것이다. 더욱이, "가장 똑똑한 사람들이 항상 사장이 되고 싶어하는 것은 아닙니다." 그는 "국제 정치 무대를 보십시오. 지도자가 되고 싶어 하는 사람들이 가장 똑똑한 사람들은 아닙니다."라고 말했습니다. 똑똑한 사람들 중 상당수는 오직 자신의 문제에만 관심을 갖고 타인의 문제에는 전혀 관심이 없다. 우리는 왜 계속 영업해야 할까요? AMI는 모든 상위 연구 결과를 발표할 예정입니다. 얀은 이것은 감상적인 문제가 아니라 필요에 의한 것이라고 말했다. "만약 글을 발표하지 않는다면, 스스로를 쉽게 속일 수 있다." 그는 그런 모습을 너무나 많이 봐왔다. 회사 내부 사람들은 어떤 프로젝트에 대해 혁명적인 돌파구라고 생각하며 열광하지만, 외부 사람들이 이미 훨씬 더 나은 일을 해냈다는 사실은 전혀 모르고 있었다. 게다가 과학자들에게 "와서 일하되, 무슨 일을 하는지는 말하지 마세요. 5년 후에 결과물이 나올지도 모릅니다."라고 말하면 그들은 의욕을 잃을 것입니다. 그들은 동료들로부터 단기적인 피드백과 인정을 필요로 합니다. 진정한 돌파구를 마련하려면 사람들이 당신의 연구 결과를 출판하도록 해야 합니다. 다른 방법은 없습니다. "많은 기업들이 지금 이 점을 잊고 있습니다." 흥미로운 현상: 중국이 점점 더 개방적으로 변하고 있다. 얀은 아이러니한 현상을 지적합니다. 현재 최고의 오픈소스 모델은 중국에서 나왔습니다. 미국 기업들(메타 제외)은 "경쟁 우위"를 보호하기 위해 점점 폐쇄적인 행보를 보이고 있다. 하지만 중국 기업과 연구 기관은 완전히 개방적입니다. 따라서 산업계와 학계의 많은 사람들이 오픈소스 모델에 대한 필요성 때문에 현재 중국산 모델을 사용하고 있습니다. 미국 업계의 많은 사람들이 이에 대해 매우 불만스러워하고 있습니다. 그들은 중국산이 아닌 훌륭한 오픈소스 모델을 원합니다. 라마 4는 좋은 선택이 될 수 있었을 텐데, 실망스럽네요. 메타가 고쳐질지, 아니면 서비스가 종료될지는 불확실합니다. Mistral에서 훌륭한 코드 생성 모델을 출시했는데, 오픈소스로 공개한다는 점이 멋지네요. 그는 왜 아직 은퇴하지 않았을까요? 얀은 65세이고, 튜링상을 수상했으며, 최근에는 엘리자베스 여왕상도 받았습니다. 그녀는 충분히 은퇴할 수 있을 것입니다. 그의 아내 또한 그가 은퇴하기를 바란다. "하지만 제겐 임무가 있습니다." 그는 사람들을 더 똑똑하게 만들거나 기계를 사용하여 사람들이 더 똑똑해지도록 돕는 것은 본질적으로 좋은 일이라고 항상 믿어왔습니다. 지능은 세상에서 가장 희귀한 자원이며, 특히 정부에서는 더욱 그렇다(그는 웃으며 말했다). 인류 전체로 볼 때, 그리고 지구 전체로 볼 때, 지능은 한정되어 있습니다. 그렇기 때문에 우리는 사람들을 교육하는 데 막대한 자원을 투자하는 것입니다. 인류에게 도움이 되는 지능의 총량을 늘리는 것은 본질적으로 좋은 일입니다. 물론 위험은 존재하고, 당연히 예방 조치를 취해야 합니다. 제트 엔진이 안전하고 신뢰할 수 있는지 확인해야 하는 것처럼, 자동차는 경미한 충돌 사고로 당신을 죽음에 이르게 하지는 않을 것입니다. 하지만 이것은 공학적인 문제이지, 극복할 수 없는 문제는 아닙니다. 또한 정치적인 문제이기도 하지만, 이 역시 극복할 수 없는 문제는 아닙니다. 그의 모든 프로젝트는 사람들을 더 똑똑하게 만드는 것이라는 목표를 중심으로 전개되었습니다. 이것이 바로 그가 교수가 된 이유이고, 소셜 미디어를 통해 과학을 널리 알리는 이유이며, 기계 지능에 대한 연구를 수행하는 이유입니다. "사람들은 자율 지능형 기계를 만드는 것과 인간을 돕는 기계를 만드는 것이 서로 다른 기술이라고 생각합니다. 하지만 그렇지 않습니다. 이 두 가지는 완전히 동일한 기술입니다." 얀은 인공지능 연구 외에도 다양한 일을 합니다. 그는 항해, 특히 삼동선과 쌍동선 같은 다중 선체 선박을 좋아합니다. 그는 여러 척의 배를 소유하고 있습니다. 그는 비행기를 만드는 것을 즐긴다. "비행기라고 부르지는 않아요. 왜냐하면 많은 것들이 비행기처럼 생기지 않았거든요. 하지만 실제로 날 수는 있죠." 그의 아버지는 항공 엔지니어였는데, 여가 시간에는 비행기를 만들고 무선 원격 조종 시스템도 직접 제작했습니다. 이것은 가족 활동이 되었습니다. 그의 형도 같은 취미를 가지고 있었는데, 형은 파리의 구글 연구소에서 일했습니다. 팬데믹 기간 동안 그는 천체 사진 촬영을 시작했고 밤하늘을 촬영하기 위해 여러 대의 망원경을 구입했습니다. 그는 전자 악기를 만듭니다. 십 대 시절부터 음악, 특히 전자 음악에 관심을 가져왔고, 지금은 집에 신시사이저를 여러 대 가지고 있습니다. 그는 직접 전자 악기를 만드는데, 불거나 손가락으로 건반을 누르는 방식이지만, 제어 신호를 출력하는 악기입니다. 그는 항법과 세계 모델이 매우 유사하다고 말했다. 요트를 능숙하고 빠르게 조종하려면 파도가 배에 어떤 영향을 미칠지, 돌풍이 언제 불어올지, 배가 기울어질지 여부 등 여러 가지를 예측해야 합니다. 기본적으로 머릿속으로 유체역학 계산을 해야 합니다. 돛 주변의 공기 흐름이 어떻게 되는지 알아야 합니다. 받음각이 너무 크면 난류가 발생하여 양력이 크게 감소합니다. "돛을 조절하려면 머릿속으로 전산유체역학(CFD)을 돌려야 하지만, 추상적인 수준에서는 스토크스 방정식을 푸는 것은 아닙니다." 그가 항해를 좋아하는 이유도 바로 그 때문입니다. 항해를 잘하려면 예측하는 사고방식을 갖춰야 하거든요. 마지막으로 드리는 조언 누군가 이렇게 물었습니다. "만약 제가 오늘 인공지능 분야에서 경력을 시작한다면, 무엇을 배워야 할까요?" 얀의 대답은 당신을 놀라게 할지도 모릅니다. 오래도록 유용하게 쓰일 수 있는 것들을 배우고, 학습 방법을 배우는 데 도움이 되는 것들을 배우세요. 기술은 워낙 빠르게 변화하기 때문에 신속하게 학습할 수 있는 능력이 필요합니다. 어떻게 하면 그렇게 할 수 있을까요? 기본을 배우면 됩니다. 게다가 이러한 것들은 컴퓨터 과학과 관련이 없는 경우가 많습니다. "저는 컴퓨터 공학 교수이지만, 컴퓨터 공학을 너무 깊이 공부하지 않는 것이 좋다고 조언해 드리고 싶습니다. 솔직히 말씀드리자면, 저는 학부 시절에 전기 공학을 전공했기 때문에 진정한 컴퓨터 과학자는 아닙니다." 여러분은 다음을 배워야 합니다: • 수학, 특히 현실과 연관된 수학 • 모델링 • 공학 분야에서 배운 것들 미국에서는 미적분학 1, 2, 3이 탄탄한 기초를 제공합니다. 그러나 컴퓨터 과학 학과에서는 미적분학 1만 요구하는데, 이는 충분하지 않습니다. 확률론, 대수학, 사이버네틱스, 신호 처리 및 최적화는 모두 인공지능에 매우 유용합니다. 물리학이 좋은 이유는 물리학이 "예측을 하기 위해 현실에서 무엇을 나타내야 하는가"에 관한 학문이기 때문입니다. 이것이 바로 지능의 본질입니다. 물론 컴퓨터 과학에 대한 충분한 지식과 프로그래밍 능력, 그리고 컴퓨터 사용 능력도 필요합니다. 인공지능이 프로그래밍에 도움을 준다고 해도, 이러한 사항들을 이해하는 것은 여전히 중요합니다. 누군가 "인공지능이 프로그래밍을 지원하게 되면 어떤 일이 일어날까요?"라고 물었습니다. 얀은 이렇게 말했습니다. "흥미로운 현상이 일어날 겁니다. 많은 코드가 단 한 번만 사용될 거예요." 코딩 비용이 매우 저렴해졌기 때문입니다. AI 비서에게 "다이어그램을 그려줘" 또는 "간단한 시뮬레이터를 만들어줘"라고 요청하면 코드를 작성하고, 사용자는 이를 한 번 사용한 후 버리면 됩니다. "그러니 프로그래머가 더 이상 필요 없다고 말하는 것은 잘못된 것입니다. 소프트웨어 비용은 계속 감소해 왔고, 이는 단지 다음 단계일 뿐입니다." 하지만 그렇다고 해서 컴퓨터의 중요성이 줄어든다는 의미는 아닙니다. 오히려 그 반대로 더욱 중요해질 것입니다. 인터뷰 내내 얀은 매우 드문 자질을 보여주었다. 그는 현재 주류 경향을 비판하지만, 단순히 비판을 위한 비판은 아니다. 그는 명확한 대안, 수십 년간 축적된 사고, 실패로부터 얻은 교훈, 그리고 최근의 획기적인 성과를 가지고 있습니다. 그는 65세였고, 이미 이룬 것에 안주할 수도 있었지만, "모두가 잘못됐다고 생각하는" 일을 하기로 선택했다. 어쩌면 그의 말이 맞을지도 몰라. 아마 5년 후에는 모두가 LLM 학위를 쌓는 데 열중하는 동안 진정한 돌파구는 세계적인 모델에서 비롯된다는 것을 알게 될지도 모릅니다. 어쩌면 20년 후에는 우리가 또다시 예상치 못한 장애물에 부딪혔음을 깨닫게 될지도 모릅니다. 하지만 적어도 몇몇 사람들은 다른 길을 택하고 있습니다. 그리고 이 사람은 합성곱 신경망을 발명했고, 인공지능의 침체기 동안 수십 년 동안 끈질기게 노력했으며, "이번에는 반드시 인공 일반 지능을 달성할 수 있다"는 세 번의 거품 현상을 목격한 인물입니다. 그의 말이 듣기 불편할지라도, 귀 기울여 들을 가치는 있다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.