Opinión impopular: Que vuelvan las consecuencias graves para los artículos y reseñas falsos. #DiscursoDominical (Versión del viernes) Seguimos escuchando historias increíbles sobre artículos (por ejemplo, el experimento de la AAAI donde aparentemente descubrieron múltiples versiones generadas por LLM del mismo artículo presentado a la conferencia) y reseñas (por ejemplo, los tweets de @iclr_conf sobre reseñas que están total o parcialmente generadas por LLM, sin que los revisores se molesten siquiera en eliminar las señales reveladoras del uso de LLM). Creo que una de las razones de este lamentable estado de cosas en las conferencias de IA/ML es la seguridad del anonimato que ofrecen los números. Hubo un tiempo en que escribir una sola reseña falsa, o peor aún, artículos falsos, habría significado el fin de la carrera investigadora de las personas implicadas. Esto ya no es así, gracias tanto a las normas de privacidad del autor/doble ciego como al anonimato entre revisores. El efecto neto de todo esto es que, básicamente, las consecuencias por mal comportamiento son mucho menores que una simple advertencia (paradójico dado todo el esfuerzo adicional que se dedica a las "revisiones éticas", etc.). Debe haber graves consecuencias públicas para la conducta poco ética. A menos que cambie el sistema de incentivos, hay pocas razones para creer que la situación actual vaya a cambiar. Una idea relacionada es acabar con el *anonimato entre revisores*, que es una de las principales razones por las que a la gente no le importa publicar reseñas tontas de másteres en Derecho.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.