A OpenAI deixou de mencionar a palavra “segurança” em sua missão declarada ao Internal Revenue Service (IRS), órgão equivalente à Receita Federal dos Estados Unidos. A alteração aparece no formulário referente ao ano fiscal de 2024, entregue em novembro de 2025, e foi identificada pelo professor Alnoor Ebrahim, especialista em governança da The Fletcher School, em artigo publicado no The Conversation.
Nos relatórios de 2022 e 2023, a organização afirmava que seu objetivo era desenvolver inteligência artificial que “beneficie a humanidade com segurança”. No documento mais recente, a redação passou a ser “garantir que a inteligência artificial geral beneficie toda a humanidade”, sem menção explícita à segurança nem à independência em relação a lucros.
Reorganização societária
A mudança ocorre após a reestruturação anunciada em outubro de 2025, quando a companhia deixou de operar apenas como entidade sem fins lucrativos. O modelo atual divide a operação em duas frentes: a OpenAI Foundation, organização sem fins lucrativos, e o OpenAI Group, empresa com fins lucrativos constituída como public benefit corporation. Nesse formato, a empresa pode captar investimentos, distribuir lucro e, ao mesmo tempo, divulgar relatórios anuais de benefício público.
Executivos da companhia comemoraram o novo formato, afirmando que ele amplia a capacidade de levantar recursos para pesquisas em IA e para a construção de infraestrutura computacional, como data centers.
Preocupações e processos judiciais
Para Alnoor Ebrahim, a retirada da palavra “segurança” indica possível mudança de foco, privilegiando retorno financeiro em um cenário de competição intensa e necessidade de capital. A descoberta surge enquanto a OpenAI enfrenta diversos processos nos Estados Unidos que questionam a segurança de seus produtos, com acusações que vão de manipulação psicológica a incentivo ao suicídio.
Apesar da alteração, a OpenAI afirma em seu site que trabalha simultaneamente em capacidade, segurança e impacto positivo da IA. O memorando que formalizou a nova estrutura mantém um comitê de segurança e proteção no conselho da fundação, com poder para exigir ações corretivas ou suspender lançamentos de produtos considerados de alto risco. A fundação também conserva o direito de indicar todos os membros do conselho da empresa com fins lucrativos.
Imagem: Melnikov Dmitriy
Críticos, contudo, apontam fragilidades. Sem a referência explícita à segurança na missão, argumentam que fica mais difícil responsabilizar formalmente a organização por essa prioridade. Além disso, quase todos os conselheiros ocupam assentos em ambos os colegiados, o que levanta questões sobre independência na fiscalização.
Na avaliação de Ebrahim, o caso funciona como um teste de supervisão para instituições capazes de gerar benefícios e riscos em larga escala. Segundo ele, há falhas potenciais tanto no conselho da OpenAI, por flexibilizar o compromisso público com segurança, quanto nos órgãos reguladores, que aceitaram a mudança sem exigir garantias mais robustas.
O Olhar Digital solicitou posicionamento da OpenAI sobre a alteração em sua missão. Até o fechamento desta reportagem, a empresa não havia se manifestado.
Com informações de Olhar Digital
