Olá @sama -- Entendo que seu Code Red visa aprimorar rapidamente o ChatGPT para superar o Gemini em métricas-chave e atender às necessidades dos usuários... NO ENTANTO, isso ainda não resolverá seu principal problema, que é o fato de que construir grandes LLMs de forma eficaz não é mais um diferencial... Acho que a OpenAI ainda tem potencial para avançar mais rápido que as grandes empresas de tecnologia, mas precisa de ideias novas, não apenas de mais atividade e foco... Se você estiver interessado em pensar um pouco mais profundamente e de forma criativa sobre como alcançar a Inteligência Artificial Geral (AGI) — e já que você disse que gostaria que a OpenAI fosse mais aberta — talvez queira considerar a integração do GPT-6 com algumas de nossas novas ideias no Hyperon. https://t.co/GrY14xdtZo Ao mudar da retropropagação para a codificação preditiva/causal, você pode descobrir que consegue criar uma rede neural transformer que aprende continuamente, acabando com essa confusão de modelos de inferência e treinamento artificialmente distintos e com o treinamento em lotes. Em vez de adicionar ferramentas extras artificialmente por meio de RAG e APIs, você pode incorporar transformadores em uma arquitetura cognitiva integrada e teoricamente fundamentada (Hyperon), juntamente com provadores de teoremas lógicos, aprendizado de programas evolutivos, alocação de atenção dinâmica não linear, etc. Há muito trabalho pela frente para que tudo isso funcione efetivamente em grande escala e muitos detalhes a serem resolvidos — mas se você realmente quer chegar à IAG (e depois à IAS), não se trata apenas de que LLMs cada vez maiores não funcionarão, nenhuma arquitetura cognitiva com LLMs *no centro* funcionará... embora, sem dúvida, os LLMs possam ser componentes muito valiosos... Ah, e com essas ferramentas também é possível construir AGI em redes descentralizadas (podemos usar a linguagem central do projeto AGI Hyerpon, MeTTa, como linguagem de contrato inteligente) — então você não precisa necessariamente de trilhões de dólares em infraestrutura monolítica própria... Claro que mais hardware ajuda, mas ele pode ser distribuído por toda parte ;) https://t.co/s4QJgo7366 Sim, tudo isso ainda não está maduro e pronto para uso como produto, mas a infraestrutura principal é escalável desde alguns meses atrás... e quando você começou, os Transformers da OpenAI também não estavam maduros e prontos para uso, certo? Só dizendo... É claro que não espero que você aceite minha oferta de ajudar a integrar nossas ferramentas de código aberto em sua infraestrutura... mas, se não aceitar, daqui a alguns anos, depois de lançarmos uma IAG (Inteligência Artificial Geral) realmente aberta e descentralizada, mostrarei esta mensagem antiga e sorrirei ;) ...
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.