A interpretação de Sam Altam sobre a transmissão ao vivo de ontem: Fizemos uma transmissão ao vivo ontem. Para quem perdeu, aqui está um resumo: Definimos um conjunto de metas internas: até setembro de 2026, queremos criar um "estagiário de pesquisa em IA" capaz de rodar em centenas de milhares de GPUs; até março de 2028, queremos criar um verdadeiro "pesquisador de IA automatizado". Talvez não consigamos atingir esse objetivo, mas ainda assim precisamos nos manifestar. Por quê? Porque o impacto dessa questão (caso tenhamos sucesso) é enorme, e sentimos que, por um senso de responsabilidade para com o público, devemos manter a transparência. Para garantir que a IA não "se desvie do caminho", projetamos uma "rede de proteção de cinco camadas": 1. Alinhamento de valores (garantir que o senso de certo e errado da IA esteja alinhado com o dos humanos) 2. Alinhamento de objetivos (garantir que o que a IA quer fazer seja o que nós queremos que ela faça) 3. Confiabilidade (Garantir que a IA funcione de forma estável em diversas condições) 4. Robustez adversária (garantir que a IA não possa ser "envenenada" ou enganada maliciosamente) 5. Segurança do sistema (Garantir que todo o sistema de IA seja seguro e não possa ser explorado por hackers) Estamos particularmente entusiasmados com uma ferramenta chamada "Fidelidade da Cadeia de Raciocínio" (que garante que a IA não apenas forneça a resposta correta, mas também nos diga honestamente como chegou a essa conclusão). No entanto, ela ainda é um pouco "frágil" (propensa a "travar" ou falhar) e requer limites e abstrações claramente definidos. Em termos de produto, estamos nos esforçando para nos transformar em uma verdadeira "plataforma". Prevemos que, no futuro, a grande maioria do valor será criada pelas pessoas e empresas que desenvolvem nossas tecnologias (como nossas APIs ou aplicativos dentro do ChatGPT). Nosso objetivo final é fornecer uma "nuvem de IA" capaz de impulsionar o crescimento de gigantes. Atualmente, temos comprometido aproximadamente 30 gigawatts (GW) de poder computacional (1 GW é aproximadamente equivalente à potência de uma grande usina nuclear). O custo total de propriedade (TCO) nos próximos anos atingirá aproximadamente US$ 1,4 trilhão. Estamos confiantes em investir tanto dinheiro? Sim. Porque vemos perspectivas promissoras para as capacidades do modelo e o crescimento da receita. Queremos até "ir além" — queremos construir uma "fábrica de IA" que possa "produzir" 1 gigawatt de nova capacidade computacional por semana a um custo muito menor do que o atual. No entanto, para alcançar esse "salto", precisamos de ainda mais confiança nos modelos futuros, na receita e na inovação tecnológica e financeira. Nossa nova estrutura (referindo-se à estrutura da empresa) é muito mais simples do que a anterior. Agora, ela se parece com isto: Temos uma organização sem fins lucrativos chamada OpenAI Foundation, que administra uma Empresa de Benefício Público (PBC, na sigla em inglês) chamada OpenAI Group. Inicialmente, a Fundação detém 26% do Grupo, mas se o Grupo (a PBC) tiver um desempenho excepcional, a Fundação poderá aumentar sua participação por meio de warrants. O objetivo desta Empresa de Benefício Público (PBC) é atrair (por meio de financiamento, por exemplo) os recursos massivos necessários para cumprir sua missão, assim como uma empresa comum. Seja uma fundação sem fins lucrativos ou esta corporação de interesse público, nossa missão permanece inalterada: garantir que a Inteligência Artificial Geral (IAG) beneficie toda a humanidade. Essa fundação sem fins lucrativos (referindo-se à OpenAI Foundation) prometeu US$ 25 bilhões em seus estágios iniciais, concentrando-se em duas áreas principais: saúde e combate a doenças, e "resiliência da IA" (um termo relativamente novo que se refere a tudo o que pode ajudar a sociedade a fazer uma transição tranquila para a "era pós-IAG", incluindo não apenas segurança tecnológica, mas também pesquisa sobre impacto econômico, segurança cibernética e assim por diante). Além disso, diferentemente do que acontecia antes, essa fundação sem fins lucrativos agora consegue realmente "distribuir dinheiro" (ou seja, aplicar fundos) muito rapidamente. Prevemos que, até 2026, nosso sistema de IA poderá fazer algumas novas descobertas "pequenas"; e, até 2028, poderemos presenciar descobertas "grandes". Isso não é pouca coisa. Porque acreditamos firmemente que a ciência, e os mecanismos que podem disseminar amplamente as descobertas científicas (para que todos possam se beneficiar), são a chave fundamental para a melhoria contínua da qualidade de vida humana.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.