Maybe the most delusional take I've seen this week and I read lots of China hawks and other wackos. On-device inference is niche until we change the hardware (eg compute-in-memory) and the very mode of interaction with AI. All big boy functions will remain reliant on the cloud.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.