Esta semana em AI: OpenAI ganha uma vantagem de infraestrutura inestimável

Olá, pessoal, bem-vindo ao boletim de AI regular da TechCrunch. Se você quiser isso na sua caixa de entrada todas as quartas-feiras, inscreva-se .

A OpenAI está obtendo ganhos às custas de seus principais concorrentes.

Na terça-feira, a empresa anunciou o Projeto Stargate, uma nova joint venture envolvendo o conglomerado japonês SoftBank, Oracle e outros para construir infraestrutura de AI para a OpenAI nos EUA. Stargate poderia atrair até US $ 500 bilhões em financiamento para centros de dados de AI nos próximos quatro anos, se tudo correr conforme o planejado.

A notícia certamente contrariou os concorrentes da OpenAI, como a Anthropic e a xAI de Elon Musk, que não verão nenhum investimento comparável em infraestrutura enorme. A xAI pretende expandir seu centro de dados em Memphis para 1 milhão de GPUs, enquanto a Anthropic recentemente assinou um acordo com a Amazon Web Services (AWS), a divisão de computação em nuvem da Amazon, para usar e aprimorar os chips de AI personalizados da empresa. Mas é difícil imaginar que qualquer empresa de AI possa superar o Stargate, mesmo, como no caso da Anthropic, com os vastos recursos da Amazon.

De fato, o Stargate parece estar pronto para cimentar a incumbência da OpenAI no setor de AI em expansão. A OpenAI tem mais usuários ativos - 300 milhões semanais - do que qualquer outra empresa de AI. E tem mais clientes. Mais de 1 milhão de empresas estão pagando pelos serviços da OpenAI.

A OpenAI tinha a vantagem do primeiro movimento. Agora, ela pode ter a supremacia da infraestrutura. Os rivais terão que ser inteligentes se esperam competir. A força bruta não será uma opção viável.

Notícias

Créditos da imagem: Jakub Porzycki / NurPhoto / Getty Images

Exclusividade da Microsoft acabou: A Microsoft era uma vez a fornecedora exclusiva de infraestrutura de data center para a OpenAI treinar e executar seus modelos de AI. Não mais. Agora a empresa tem apenas um "direito de primeira recusa".

Perplexity lança uma API: O mecanismo de busca alimentado por AI Perplexity lançou um serviço de API chamado Sonar, permitindo que empresas e desenvolvedores incorporem as ferramentas de busca de AI generativas da startup em suas próprias aplicações.

AI acelerando a "cadeia de morte": Meu colega Max entrevistou o oficial digital e de AI do Pentágono, Radha Plumb. Plumb disse que o Departamento de Defesa está usando AI para obter uma "vantagem significativa" na identificação, rastreamento e avaliação de ameaças.

Marcas de referência em questão: Uma organização desenvolvendo marcas de matemática para AI não divulgou que havia recebido financiamento da OpenAI até relativamente recentemente, gerando alegações de impropriedade de alguns na comunidade de AI.

O novo modelo da DeepSeek: O laboratório de AI chinês DeepSeek lançou uma versão aberta do DeepSeek-R1, seu chamado modelo de raciocínio, que, segundo ele, performa tão bem quanto o o1 da OpenAI em certas marcas de AI.

Artigo de pesquisa da semana

Créditos da imagem: Microsoft

Na semana passada, a Microsoft destacou um par de ferramentas alimentadas por AI, MatterGen e MatterSim, que segundo ela poderiam ajudar a projetar materiais avançados.

O MatterGen prevê materiais potenciais com propriedades únicas, fundamentadas em princípios científicos. Como descrito em um artigo publicado na revista Nature, o MatterGen gera milhares de candidatos com "restrições definidas pelo usuário" - propondo novos materiais que atendam a necessidades altamente específicas.

Quanto ao MatterSim, ele prevê quais dos materiais propostos pelo MatterGen são estáveis e viáveis.

A Microsoft diz que uma equipe no Instituto de Tecnologia Avançada de Shenzhen conseguiu usar o MatterGen para sintetizar um novo material. O material não era perfeito. Mas a Microsoft lançou o código-fonte do MatterGen, e a empresa diz que planeja trabalhar com outros colaboradores externos para desenvolver ainda mais a tecnologia.

Modelo da semana

O Google lançou uma nova versão de seu modelo experimental de "raciocínio", Gemini 2.0 Flash Thinking Experimental. A empresa afirma que ele performa melhor que o original em marcas de raciocínio matemático, científico e multimodal.

Modelos de raciocínio como o Gemini 2.0 Flash Thinking Experimental efetivamente verificam-se, o que os ajuda a evitar alguns dos problemas que normalmente atrapalham os modelos. Como consequência, os modelos de raciocínio levam um pouco mais de tempo - geralmente segundos a minutos a mais - para chegar a soluções comparados a um modelo "não de raciocínio" típico.

O novo Gemini 2.0 Flash Thinking também possui uma janela de contexto de 1 milhão de tokens, o que significa que ele pode analisar documentos longos, como estudos de pesquisa e artigos de políticas. Um milhão de tokens é equivalente a cerca de 750.000 palavras, ou 10 livros de comprimento médio.

Grab bag

Créditos da imagem: GameFactory

Um projeto de AI chamado GameFactory mostra que é possível "gerar" simulações interativas treinando um modelo em vídeos do Minecraft e então estendendo esse modelo para diferentes domínios.

Os pesquisadores por trás do GameFactory, a maioria dos quais são da Universidade de Hong Kong e da Kuaishou, uma empresa chinesa parcialmente estatal, publicaram alguns exemplos das simulações no site do projeto. Eles deixam algo a desejar, mas o conceito ainda é interessante: um modelo que pode gerar mundos em estilos e temas infinitos.