Meta diz que pode parar o desenvolvimento de sistemas de IA que considera muito arriscados

O CEO da Meta, Mark Zuckerberg, prometeu disponibilizar um dia a inteligência artificial geral (AGI) - que é definida de forma aproximada como a IA que pode realizar qualquer tarefa que um humano pode realizar - abertamente. Mas em um novo documento de política, a Meta sugere que existem cenários em que pode decidir não lançar um sistema de IA altamente capaz que desenvolveu internamente.

O documento, que a Meta está chamando de seu Frontier AI Framework, identifica dois tipos de sistemas de IA que a empresa considera muito arriscados para serem lançados: sistemas de "alto risco" e "risco crítico".

Segundo a definição da Meta, tanto sistemas de "alto risco" quanto de "risco crítico" são capazes de auxiliar em ataques de cibersegurança, químicos e biológicos, sendo que a diferença é que os sistemas de "risco crítico" poderiam resultar em um "resultado catastrófico [que] não pode ser mitigado no contexto de implantação proposto". Sistemas de alto risco, por outro lado, podem facilitar um ataque, mas não tão confiável ou confiavelmente quanto um sistema de risco crítico.

A que tipo de ataques estamos nos referindo aqui? A Meta dá alguns exemplos, como o "comprometimento automatizado de ponta a ponta de um ambiente de escala corporativa protegido pelas melhores práticas" e a "proliferação de armas biológicas de alto impacto". A lista de possíveis catástrofes no documento da Meta está longe de ser exaustiva, reconhece a empresa, mas inclui aquelas que a Meta considera "as mais urgentes" e plausíveis de surgirem como resultado direto do lançamento de um sistema de IA poderoso.

Surpreendentemente, de acordo com o documento, a Meta classifica o risco do sistema não com base em um teste empírico, mas com base no input de pesquisadores internos e externos sujeitos a revisão por "tomadores de decisão de alto nível". Por quê? A Meta diz que não acredita que a ciência da avaliação seja "suficientemente robusta para fornecer métricas quantitativas definitivas" para decidir a periculosidade de um sistema.

Se a Meta determinar que um sistema é de alto risco, a empresa diz que limitará o acesso ao sistema internamente e não o lançará até implementar medidas de mitigação para "reduzir o risco a níveis moderados". Se, por outro lado, um sistema for considerado de risco crítico, a Meta diz que implementará proteções de segurança não especificadas para evitar que o sistema seja exfiltrado e interromperá o desenvolvimento até que o sistema possa ser tornado menos perigoso.

O Frontier AI Framework da Meta, que a empresa diz que evoluirá com o cenário em mudança da IA, e que a Meta se comprometeu anteriormente a publicar antes da France AI Action Summit deste mês, parece ser uma resposta às críticas à abordagem "aberta" da empresa ao desenvolvimento de sistemas. A Meta adotou a estratégia de disponibilizar sua tecnologia de IA abertamente - embora não seja de código aberto pela definição comumente entendida - em contraste com empresas como a OpenAI que optam por colocar seus sistemas atrás de uma API.

Para a Meta, a abordagem de lançamento aberto tem se mostrado uma bênção e uma maldição. A família de modelos de IA da empresa, chamada de Llama, acumulou centenas de milhões de downloads. Mas o Llama também foi supostamente utilizado por pelo menos um adversário dos EUA para desenvolver um chatbot de defesa.

Ao publicar seu Frontier AI Framework, a Meta também pode estar visando contrastar sua estratégia de IA aberta com a da empresa chinesa de IA DeepSeek. A DeepSeek também disponibiliza seus sistemas abertamente. Mas a IA da empresa tem poucas salvaguardas e pode ser facilmente direcionada para gerar saídas tóxicas e prejudiciais.

"[A]creditamos que ao considerar tanto os benefícios quanto os riscos ao tomar decisões sobre como desenvolver e implantar uma IA avançada," escreve a Meta no documento, "é possível entregar essa tecnologia à sociedade de uma forma que preserve os benefícios dessa tecnologia para a sociedade e mantenha um nível adequado de risco".

O TechCrunch tem um boletim informativo focado em IA! Inscreva-se aqui para recebê-lo na sua caixa de entrada todas as quartas-feiras.