L'interprétation par Sam Altam de la diffusion en direct d'hier : Nous avons fait une diffusion en direct hier. Pour ceux qui l'ont manquée, voici un résumé : Nous nous sommes fixés des objectifs internes : d'ici septembre 2026, nous voulons créer un « stagiaire en recherche en IA » capable de fonctionner sur des centaines de milliers de GPU ; d'ici mars 2028, nous voulons créer un véritable « chercheur en IA automatisé ». Nous n'atteindrons peut-être pas cet objectif, mais nous devons tout de même nous exprimer. Pourquoi ? Parce que l'impact de cette affaire (si elle aboutit) sera considérable, et nous estimons que, par sens des responsabilités envers le public, nous devons maintenir la transparence. Pour éviter que l'IA ne « dérape », nous avons conçu un « filet de protection à cinq couches » : 1. Alignement des valeurs (garantir que le sens du bien et du mal de l'IA soit aligné sur celui des humains) 2. Alignement des objectifs (s'assurer que ce que l'IA veut faire est bien ce que nous voulons qu'elle fasse) 3. Fiabilité (Garantir le fonctionnement stable de l'IA dans diverses conditions) 4. Robustesse face aux attaques adverses (garantissant que l'IA ne peut pas être « empoisonnée » ou trompée de manière malveillante) 5. Sécurité du système (Garantir que l'ensemble du système d'IA est sécurisé et ne peut être exploité par des pirates informatiques) Nous sommes particulièrement enthousiastes à propos d'un outil appelé « fidélité du raisonnement » (qui garantit que l'IA ne se contente pas de donner la bonne réponse, mais nous explique aussi honnêtement comment elle est parvenue à cette conclusion). Cependant, il reste encore un peu fragile (susceptible de « planter » ou de tomber en panne) et nécessite des limites et des abstractions clairement définies. Côté produit, nous nous efforçons de devenir une véritable plateforme. Nous envisageons qu'à l'avenir, la grande majorité de la valeur sera créée par les personnes et les entreprises qui développent nos technologies (telles que nos API ou les applications au sein de ChatGPT). Notre objectif ultime est de fournir un cloud d'IA capable de favoriser l'émergence de géants du secteur. À l'heure actuelle, nous avons engagé environ 30 gigawatts (GW) de puissance de calcul (1 GW équivaut approximativement à la puissance d'une grande centrale nucléaire). Le coût total de possession (CTP) au cours des prochaines années atteindra environ 1 400 milliards de dollars. Sommes-nous confiants quant à l'investissement de telles sommes ? Oui. Car nous entrevoyons des perspectives prometteuses pour les capacités des modèles et la croissance des revenus. Nous souhaitons même aller plus loin : construire une véritable « usine à IA » capable de produire 1 gigawatt de puissance de calcul supplémentaire par semaine à un coût bien inférieur à celui d'aujourd'hui. Toutefois, pour réaliser ce bond en avant, nous avons besoin d'une confiance encore plus grande dans les modèles futurs, les revenus et l'innovation technologique et financière. Notre nouvelle structure (concernant la structure de l'entreprise) est beaucoup plus simple que l'ancienne. Elle se présente désormais comme suit : nous avons une organisation à but non lucratif appelée la Fondation OpenAI, qui gère une société d'intérêt public (SIP) appelée OpenAI Group. Initialement, la Fondation détient 26 % du Groupe, mais si ce dernier (la SIP) réalise des performances exceptionnelles, la Fondation peut augmenter sa participation par le biais de bons de souscription. L'objectif de cette société d'intérêt public (SIP) est d'attirer (notamment par le biais de financements) les ressources importantes nécessaires à la réalisation de sa mission, à l'instar d'une entreprise classique. Qu’il s’agisse d’une fondation à but non lucratif ou de cette société d’intérêt public, notre mission reste inchangée : faire en sorte que l’intelligence artificielle générale (IAG) profite à toute l’humanité. Cette fondation à but non lucratif (faisant référence à la Fondation OpenAI) a promis 25 milliards de dollars à ses débuts, en se concentrant sur deux domaines principaux : la santé et la lutte contre les maladies, et la « résilience de l'IA » (un terme relativement nouveau qui désigne tout ce qui peut aider la société à passer en douceur à l'« ère post-IAG », y compris non seulement la sécurité technologique, mais aussi la recherche sur l'impact économique, la cybersécurité, etc.). De plus, contrairement à avant, cette fondation à but non lucratif est désormais en mesure de « distribuer l'argent » (c'est-à-dire de déployer des fonds) très rapidement. Nous prévoyons que d'ici 2026, notre système d'IA pourrait faire quelques « petites » nouvelles découvertes ; et que d'ici 2028, nous pourrions assister à de « grandes » découvertes. Il ne s'agit pas d'un détail. Car nous croyons fermement que la science, et les mécanismes permettant de diffuser largement les découvertes scientifiques (afin que chacun puisse en bénéficier), sont la clé essentielle pour améliorer sans cesse la qualité de la vie humaine.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.