Chicos, parece que esta publicación recibió demasiada atención, así que me siento obligado a recordarles que solo soy un tipo cualquiera en internet que se enoja y dice tonterías. No creo que la insinuación implícita de que Anthropic estaba degradando el modelo fuera justa. Me disculpo por ello. Además, creo que la explicación más probable es que, a medida que los modelos mejoran, también permitimos que nuestras bases de código y tareas aumenten en complejidad, lo que sobrecarga el contexto y las vuelve tontas de nuevo. Existe un equilibrio autoequilibrado, similar a la ley de Wirth, que nunca nos permitirá estar satisfechos con ningún LLM hasta que el contexto extenso y el aprendizaje continuo se resuelvan por completo. En cualquier caso, envié los registros a Anthropic y me gustaría poder volver a ejecutar las mismas indicaciones en Vertex AI para comprobar si hay alguna diferencia. Lamentablemente, mi solicitud de cuota fue rechazada y el soporte de Google no pudo ayudarme, por lo que no puedo ofrecer más información al respecto.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.