Esta publicación es completamente falsa. ¡Los LLM son compresores con pérdidas! de *datos de entrenamiento*. Los LLM comprimen internamente las *apuntaduras* sin pérdida de información. Eso es lo que demuestra este artículo. Fuente: Soy el autor de “Inversión del modelo de lenguaje”, el artículo original sobre este tema.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.