No pienses en los LLM como entidades, sino como simuladores. Por ejemplo, al explorar un tema, no preguntes: ¿Qué opinas de xyz? No existe el "tú". La próxima vez, prueba: "¿Qué grupo de personas sería bueno para explorar xyz? ¿Qué dirían?" El LLM puede canalizar/simular muchas perspectivas, pero no ha "pensado" en xyz durante un tiempo y, con el tiempo, ha formado sus propias opiniones como estamos acostumbrados. Si lo fuerza mediante el uso de "tú", le ofrecerá algo al adoptar un vector de inserción de personalidad implícito en las estadísticas de sus datos de ajuste y luego simularlo. Está bien hacerlo, pero tiene mucho menos misterio del que la gente atribuye ingenuamente a "preguntarle a una IA".
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.