É como usar latim porco ao falar com alguém que foi criado falando inglês. Sim, eles podem responder. Mas eles não falarão como nativos. Terão dificuldades e serão desajeitados. Os modelos de linguagem latente (LLMs) são treinados com dados JSON. Alguns também com XML. Permita que eles respondam nativamente, independentemente dos tokens.
Para dar mais contexto: os modelos não são treinados EM JSON, mas sim SOBRE JSON. Qualquer conjunto de dados significativo relacionado a programação e ciência de dados conterá JSON que, durante o treinamento, instruirá os modelos sobre o significado e o formato dos dados. Por que ir contra isso?!