¿Existe ya algo llamado "LLM de hardware externo" como tenemos los discos duros externos? En lugar de tener que ejecutar y mantener un modelo local, quiero una máquina de inferencia que pueda conectar y dirigir mis indicaciones. Una sola GPU, quizás varias en paralelo. ¿Quién está construyendo esto?
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
