Por que os processos de treinamento de modelos multimodais retêm imagens pornográficas? Só fiquei sabendo disso há alguns dias, enquanto ouvia um podcast. Se imagens pornográficas com nudez forem removidas durante o treinamento do modelo, a IA perderá sua capacidade de compreender a anatomia humana. Assim como um bom pintor precisa estudar anatomia para entender a estrutura humana, uma modelo também precisa desses dados. Portanto, ele só marcará NSFW (Not Safe For Work - Não Seguro Para o Trabalho) com o código. Esses tipos de imagens são então removidos da saída do modelo.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.