Hola @sama, entiendo que tu Código Rojo trata sobre reforzar rápidamente ChatGPT para superar a Gemini en métricas clave y satisfacer las necesidades de los usuarios... SIN EMBARGO, esto todavía no resolverá tu problema principal, que es que construir grandes LLM de manera efectiva ya no es diferenciador... Creo que OpenAI aún tiene potencial para moverse más rápido que las grandes instituciones tecnológicas, pero necesitará algunas ideas nuevas, no solo mayor actividad y concentración... Si está interesado en pensar un poco más profundamente y lateralmente sobre cómo lograr AGI (y dado que ha dicho que le gustaría que OpenAI fuera más abierto), es posible que desee pensar en integrar GPT6 con algunas de nuestras nuevas ideas en Hyperon. https://t.co/GrY14xdtZo Si cambia de retropropagación a codificación predictiva/causal, es posible que descubra que puede crear una red neuronal de transformador que aprende continuamente, poniendo fin a este lío de inferencia artificialmente distinta frente a modelos de entrenamiento y entrenamiento en lotes. Y en lugar de aferrarse artificialmente a herramientas adicionales a través de RAG y API, puede integrar transformadores en una arquitectura cognitiva integrada basada teóricamente (Hyperon), junto con demostradores de teoremas lógicos, aprendizaje de programas evolutivos, asignación de atención dinámica no lineal, etc. Hay mucho trabajo por delante para hacer que todas estas cosas funcionen de manera efectiva a escala y muchos detalles por resolver, pero si realmente desea llegar a AGI (y luego a ASI), no es solo que los LLM cada vez más grandes no lo harán, ninguna arquitectura cognitiva con LLM *en el centro* lo hará... aunque definitivamente los LLM pueden ser componentes muy valiosos... Ah, y con estas herramientas también se puede construir AGI en redes descentralizadas (podemos usar el lenguaje central del diseño AGI de Hyerpon, MeTTa, como lenguaje de contrato inteligente), por lo que no necesariamente se requieren billones de dólares de su propia infraestructura monolítica... Por supuesto, más hardware ayuda, pero se puede distribuir por todas partes ;) https://t.co/s4QJgo7366 Sí, todo esto aún no está maduro ni listo para el producto, pero la infraestructura central es escalable desde hace un par de meses... y cuando comenzaron con OpenAI, los transformadores tampoco estaban maduros ni listos para el producto, ¿verdad?... Sólo digo... Por supuesto, no espero del todo que aceptes esta oferta de ayudarte a integrar nuestras herramientas OSS en tu stack... pero si no lo haces, en un par de años después de que hayamos lanzado una AGI realmente abierta y descentralizada, te señalaré este viejo mensaje y sonreiré ;)...
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.