Avis impopulaire : rétablissons des sanctions sévères pour les faux articles et les faux avis. #SundayHarangue (version du vendredi) Nous entendons sans cesse des histoires incroyables à propos des articles (par exemple, l'expérience de l'AAAI où ils ont apparemment découvert plusieurs versions du même article soumises à la conférence et générées par LLM !) et des évaluations (par exemple, les tweets de @iclr_conf concernant des évaluations entièrement ou partiellement générées par LLM, les évaluateurs ne prenant même pas la peine de supprimer les signes révélateurs de l'utilisation de LLM). Je pense que l'une des raisons de cet état déplorable des conférences sur l'IA/ML est la sécurité que procure l'anonymat au sein d'un grand nombre. Il fut un temps où la rédaction d'une seule fausse critique, ou pire encore, de faux articles, aurait signifié la fin de la carrière de chercheur des personnes impliquées. Ce n'est tout simplement plus le cas, grâce aux règles de confidentialité des auteurs/double aveugle et à l'anonymat entre les relecteurs. En résumé, les conséquences d'un mauvais comportement sont bien moindres qu'une simple tape sur les doigts (ce qui est paradoxal compte tenu des efforts supplémentaires déployés pour les « examens éthiques », etc.). Les comportements contraires à l'éthique doivent entraîner de graves conséquences publiques. À moins que le système d'incitation ne change, il y a peu de raisons de croire que la situation actuelle évoluera. Une idée connexe consiste à mettre fin à l'*anonymat entre les évaluateurs*, qui est une des principales raisons pour lesquelles les gens n'hésitent pas à publier des critiques absurdes de LLM.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.