Si vous utilisez Colab et que vous trouvez l'entraînement de votre modèle sur GPU lent, passez à l'environnement d'exécution TPU et ajustez le paramètre « steps_per_execution » dans model.compile() (plus la valeur est élevée, plus le travail est effectué sur le périphérique avant de revenir à la RAM hôte). On observe souvent une accélération de 4 à 5 fois.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.