Esta publicação contém informações completamente erradas. Os LLMs são compressores com perda de dados! de *dados de treinamento*. Os LLMs comprimem *prompts* sem perdas internamente. É isso que este artigo demonstra. Fonte: Sou o autor de “Inversão do Modelo de Linguagem”, o artigo original sobre este assunto.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.