Existe-t-il déjà un « LLM matériel externe », comme on trouve les disques durs externes ? Au lieu de devoir exécuter et maintenir un modèle local, je souhaite une machine d'inférence que je puisse simplement connecter et à laquelle je puisse adresser mes requêtes. Un seul GPU, éventuellement quelques-uns en parallèle. Qui construit ça ?
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
