"¡No hay nada interesante en arXiv últimamente!" —palabras de una mente poco curiosa Personalmente, me ha impresionado enormemente la cantidad de artículos interesantes publicados en los últimos meses, y sigo con interés los resúmenes diarios. Aquí tenéis algunos de los artículos que más disfruté: - Preentrenamiento con capacidad de cómputo infinita (septiembre de 2025, https://t.co/3Q838oO6ei) - Fresco en la memoria: La actualidad del orden de entrenamiento se codifica linealmente en las activaciones del modelo de lenguaje (septiembre de 2025, https://t.co/V9qCttiFPJ) - Aprendizaje subliminal: Los modelos de lenguaje transmiten rasgos de comportamiento a través de señales ocultas en los datos (julio de 2025, https://t.co/eJrGChfq1d) - Limitaciones de memoria del ajuste de prompts en transformadores (septiembre de 2025, https://t.co/AJR17dkVUx) - Huellas dactilares conductuales de grandes modelos de lenguaje (septiembre de 2025, https://t.co/ZdHMlIdcYP) - Autoaprendizaje de idiomas para entrenamiento sin datos (septiembre de 2025, https://t.co/9kLvY8dNbe) - La ilusión de los rendimientos decrecientes: Medición de la ejecución a largo plazo en los LLM (septiembre de 2025, https://t.co/X7bwtKE8xe) ¿Las descripciones en lenguaje natural de las activaciones del modelo transmiten información privilegiada? (Septiembre de 2025, https://t.co/4qjWhFJVUG) - Más allá de la tabla de clasificación: comprensión de las disparidades de rendimiento en modelos de lenguaje grandes mediante la comparación de modelos (septiembre de 2025, https://t.co/2ejyGDCSVF) - Activaciones estocásticas (septiembre de 2025, https://t.co/1xoXmLeIiF) - PonderLM-2: Preentrenamiento de LLM con pensamientos latentes en espacio continuo (septiembre de 2025, https://t.co/gZW50tvCIK) - Palabras que permiten a los modelos de lenguaje percibir (octubre de 2025, https://t.co/IDQEXdeAGv) - Los modelos de lenguaje no insertan números de forma continua (octubre de 2025, https://t.co/g8Cw3yNcoV) - Aprendizaje de datos a gran escala con lectura activa (agosto de 2025, https://t.co/aw3fE8dKiJ) - OverFill: Modelos de dos etapas para la decodificación eficiente de modelos de lenguaje (agosto de 2025, https://t.co/Wku5FXbGEz) - Las capacidades de recuperación de modelos de lenguaje grandes escalan con las operaciones de punto flotante de preentrenamiento (agosto de 2025, https://t.co/TWgqTCHjuZ) - Regresión con razonamiento intensivo (agosto de 2025, https://t.co/2G8Lxn323A) - Vigilando los pesos: Monitoreo y control no supervisado de LLM finamente ajustados (agosto de 2025, https://t.co/im0qdNorNQ) - Sobre las limitaciones teóricas de la recuperación basada en incrustaciones (agosto de 2025, https://t.co/7haVnfNpTp)
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
