실험적 검증: 구글은 '희망'이라는 모델을 설계했습니다. 이 모델의 특징은 다음과 같습니다. 스스로 수정할 수 있으며, 어떤 부분을 학습해야 할지 자동으로 판단합니다. 각 계층의 업데이트 속도는 다릅니다. 그들은 "놀라움의 수준"에 따라 특정 지식을 암기할지 여부를 결정합니다(예를 들어, 그들은 전에 본 적이 없는 데이터를 암기하는 것을 우선시합니다). 실험 결과: Hope는 "장기적 맥락 이해"와 "지식 보유" 측면에서 기존의 모든 모델보다 우수한 성과를 보였습니다.
희망: 긴 글은 기억력을 강화하고, 추론 능력과 상식적 판단력을 향상시키며, 새로운 것을 배울 때 이전 내용을 거의 잊지 않습니다. 이는 장기 컨텍스트의 "건초더미 속의 바늘"(NIAH) 다운스트림 작업에서 뛰어난 메모리 관리 기능을 보여줍니다.
왜 이것이 중요한가요? 중첩 학습(Nested Learning)의 등장은 AI가 더 이상 단순히 "훈련"되는 것이 아니라 스스로 지속적으로 성장할 수 있음을 의미합니다. 다음과 같은 것이 가능합니다. 사람과 마찬가지로 경험을 쌓고, 학습하는 법을 배우고, 장기적으로 안정적인 지식구조를 유지해야 합니다. 이는 많은 분야에 중요한 영향을 미칩니다. 🤖 지속적인 AI 학습: 모델은 기존 지식을 잊지 않고 지속적으로 새로운 지식을 학습할 수 있습니다. 🧠 인간과 유사한 지능: 학습 방법은 인간 뇌의 신경가소성에 더 가깝습니다. ⚙️ 자체 최적화 AI: 모델은 콘텐츠를 학습할 뿐만 아니라 "학습 방법"도 학습합니다.
자세한 내xiaohu.ai/c/xiaohu-ai/go…nCL에서 확인하세요.


