Salut @sama, je comprends que ton Code Red vise à renforcer rapidement ChatGPT pour surpasser Gemini sur les indicateurs clés et répondre aux besoins des utilisateurs… CEPENDANT, cela ne résoudra pas ton problème principal : la création de grands LLM ne constitue plus un avantage concurrentiel. Je pense qu'OpenAI a encore le potentiel d'aller plus vite que les grandes institutions technologiques, mais il faudra de nouvelles idées, pas seulement une activité et une concentration accrues... Si vous souhaitez réfléchir plus en profondeur et de manière plus latérale à la façon de parvenir à l'IA générale — et puisque vous avez dit souhaiter qu'OpenAI soit plus ouvert —, vous pourriez envisager d'intégrer GPT-6 à certaines de nos nouvelles idées dans Hyperon. https://t.co/GrY14xdtZo Si vous passez de la rétropropagation au codage prédictif/causal, vous constaterez peut-être que vous pouvez créer un réseau de neurones transformateur qui apprend en continu, mettant ainsi fin à ce désordre de modèles d'inférence et d'entraînement artificiellement distincts, et à l'entraînement par lots. Et plutôt que d'ajouter artificiellement des outils supplémentaires via RAG et les API, vous pouvez intégrer des transformateurs dans une architecture cognitive intégrée théoriquement fondée (Hyperon), ainsi que des démonstrateurs de théorèmes logiques, l'apprentissage de programmes évolutionnaires, l'allocation d'attention non linéaire-dynamique, etc. Il reste beaucoup de travail à accomplir pour que tout cela fonctionne efficacement à grande échelle, et de nombreux détails à régler. Mais si l'on veut réellement parvenir à l'IA générale (puis à l'IA sophistiquée), il ne s'agit pas seulement de constater que des LLM de plus en plus grands ne suffiront pas ; aucune architecture cognitive centrée sur les LLM ne le permettra… même si les LLM peuvent assurément être des composants très précieux… Et grâce à ces outils, on peut aussi construire une intelligence artificielle générale (IAG) sur des réseaux décentralisés (on peut utiliser MeTTa, le langage de pensée fondamental de l'IAG Hyperpon, comme langage de contrats intelligents) ; vous n'avez donc pas forcément besoin d'une infrastructure monolithique valant des milliards de dollars… Bien sûr, plus de matériel est utile, mais il peut être distribué partout ;) https://t.co/s4QJgo7366 Oui, tout cela n'est pas encore mature et prêt pour la commercialisation, mais l'infrastructure de base est évolutive depuis quelques mois… et lorsque vous avez commencé OpenAI, les transformateurs n'étaient pas matures et prêts pour la commercialisation non plus, n'est-ce pas ? Je dis ça comme ça... Bien sûr, je ne m'attends pas à ce que vous acceptiez mon offre d'aide pour intégrer nos outils open source à votre infrastructure… mais si vous ne le faites pas, alors dans quelques années, après le lancement d'une AGI réellement ouverte et décentralisée, je vous renverrai ce vieux message avec un sourire ;)
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.