Opinião impopular: Que voltem as consequências sérias para artigos e avaliações falsas. #DiscursoDeDomingo (versão de sexta-feira) Continuamos ouvindo histórias malucas sobre artigos (como o experimento da AAAI, onde aparentemente descobriram várias versões do mesmo artigo submetido à conferência geradas por LLM!) e revisões (como os tweets da @iclr_conf sobre revisões que são total ou parcialmente geradas por LLM, com os revisores nem se dando ao trabalho de remover os sinais reveladores do uso de LLM). Penso que uma das razões para este lamentável estado de coisas nas conferências de IA/ML é a segurança que o anonimato proporciona em meio à multidão. Houve um tempo em que escrever uma única resenha falsa, ou, Deus nos livre, artigos falsos, significaria o fim da carreira de pesquisa das pessoas envolvidas. Isso simplesmente não acontece mais, graças às regras de privacidade do autor/duplo-cegamento e ao anonimato entre os revisores. O resultado disso é que, basicamente, as consequências para comportamentos inadequados são muito menores do que uma simples advertência (o que é paradoxal, considerando todo o esforço extra dedicado às "análises éticas", etc.). Deve haver consequências públicas sérias para comportamentos antiéticos. A menos que o sistema de incentivos mude, há poucos motivos para acreditar que o estado atual das coisas irá mudar. Uma ideia relacionada é acabar com o *anonimato entre revisores* — que é um dos principais motivos pelos quais as pessoas não se importam de publicar resenhas bobas de trabalhos de mestrado em Direito.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.