A crise da OpenAI, a dança das versões e o distanciamento do público – por Glauco Arbix, Jornal Usp

Até hoje não se sabe oficialmente por que o conselho de administração da OpenAI, empresa que lançou o ChatGPT em novembro de 2022, demitiu seu presidente-executivo, Sam Altman. Na sequência, o universo da IA, de investidores, empresários, pesquisadores e a própria empresa viveram dias de confusão, com a nomeação de quatro presidentes em poucos dias, mudança da composição do Conselho e readmissão de Sam Altman.

A OpenAI foi fundada em 2015, com base em um conjunto de valores muito distintos dos adotados pela maior parte das empresas de IA, em especial dos grandes conglomerados que dominam seu desenvolvimento, pesquisa e comercialização. Criada como instituição sem fins lucrativos, a OpenAI se orientou para a criação da chamada Inteligência Artificial Geral (IAG), voltada para beneficiar a humanidade como um todo.

Mesmo o reconhecimento da imprecisão e generalidade científica que marcam a noção de IAG, a formação de um centro de pesquisa a partir da rejeição da busca desmesurada de escala e da oferta de produtos nem sempre finalizados com o devido amadurecimento ético – que marca os negócios da maior parte das empresas de IA – era um alento para todos os que se dedicavam a buscar tecnologias disruptivas e seguras para a população. Foi essa concepção que norteou a criação da OpenAI, que deveria operar como um think tank avançado, cujo dever primeiro era o de respeitar e zelar pela humanidade e não o de atender aos anseios de investidores ou de seus funcionários. A bússola fundadora funcionou por algum tempo. Até deixar de funcionar.

Em praticamente uma semana, os princípios que orientaram a OpenAI, consagrados em seu estatuto, perderam a legitimidade. Três presidentes foram nomeados, deslegitimados, e sucedidos pelo retorno – quase triunfal – do executivo deposto. Em condições diferentes, com uma nova composição do Conselho de Administração – com a chegada de profissionais com laços fortes com o mercado e as empresas – e agora com um assento de observadora para a Microsoft, maior investidora da OpenAI.

É certo que a estrutura de governança da OpenAI colaborou para aumentar a confusão. Pelo regimento original, o Conselho seria composto basicamente com pesquisadores da OpenAI sem fins lucrativos, aquela de 2015. Essa formação se manteve mesmo com a criação, em 2019, de uma empresa com fins lucrativos, que deveria também ser controlada pela OpenAI sem fins lucrativos. Em 2019, nascia uma espécie de experimento institucional, com duas empresas dentro de um mesmo envelope, em que a acomodação de interesses contraditórios estaria garantida pela prevalência dos princípios da OpenAI sem fins lucrativos. Pesou para essa decisão a necessidade de financiar as pesquisas da OpenAI, que devoravam recursos de computação em nuvem, equipamento e para a sua manutenção e expansão. Foi assim que Sam Altman arrecadou novos fundos, convenceu novos parceiros e se apresentou como liderança da OpenAI, que desde 2020 (com o ChatGPT-3) prenunciava os avanços que vieram a público em novembro de 2022. É bom lembrar que o board dirigente deu aval para essas mudanças institucionais e os conflitos existentes ensejaram afastamentos de pesquisadores de peso, como os que fundaram a Anthropic, hoje concorrente da OpenAI.

A crise da OpenAI após a demissão de Sam Altman expôs uma realidade avessa à acomodação. O debate sobre a legitimidade da diretoria ao demitir seu presidente explodiu mundo afora e, claramente, tornou o Conselho o vilão da vez. Na ausência de explicações oficiais, diferentes versões foram disseminadas e se apresentaram como respostas a uma pergunta simples e direta: por que o presidente-executivo havia sido desligado?

Uma das explicações se baseia em detalhes reais e, por isso mesmo, seria mais rapidamente aceita. No interior da OpenAI, uma intensa batalha ideológica estaria sendo travada por iniciativa de uma parte dos diretores que se preocupavam em impor um ritmo mais cauteloso à pesquisa dos chamados grandes modelos fundacionais, do tipo ChatGPT, pois o curso de seu desenvolvimento apontava para a criação de uma superinteligência, no limite, incontrolável pelos humanos. Altman, por sua vez, queria mesclar altruísmo com utilitarismo, e estaria confiante que as forças do mercado não perderiam o controle da IA. Tem lógica. Mas não consegue dar conta dos reais problemas que a OpenAI enfrenta.

Algumas versões, mais maldosas, desapareceram quando um memorando interno esclareceu que a saída de Altman, explicada vagamente como ausência de franqueza com o board, não estava ligada à prevaricação nem tinha relação com as práticas financeiras, comerciais, de segurança ou de privacidade que orientavam a OpenAI. Mas outras permaneceram, ou foram inventadas, como apontam relatos mais espetaculares sobre a criação de uma nova tecnologia disruptiva, batizada com o misterioso nome de Q*, que seria uma IAG efetivamente inteligente.

A realidade é que até hoje não se sabe as razões que provocaram o afastamento de Sam Altman.
Apesar da ausência de transparência, novas informações ajudam a conectar alguns pontos de divergências existentes no interior da OpenAI, em especial os relacionados às estratégias da empresa.

Altman fez circular a ideia de criação de uma plataforma da OpenAI que permitiria o desenvolvimento de chatbots personalizados e de agentes inteligentes, à imagem da Apple, da Google, ou mesmo da Microsoft. Deixaram também de ser segredo as conversas de Altman com o SoftBank e investidores no Oriente Médio sobre projetos que levariam a OpenAI a patrocinar uma empresa de semicondutores especializados em IA.

Há muito pouco de ideologia nesse debate, que é muito inconveniente para quem, como Sam Altman, é reconhecido como um estrategista competente. Como uma organização privada sem fins lucrativos, a OpenAI não tem obrigação legal de esclarecer publicamente o que aconteceu, mesmo com sua estrutura de comando ambígua e mesmo contraditória. No entanto, a natureza revolucionária de seus produtos leva a sociedade, os governos e as pessoas a se preocuparem com a segurança do que se pesquisa nos laboratórios da instituição.

Quando o assunto é estratégia empresarial, planos de diversificação da OpenAI, a possibilidade de choque com vários investidores e de desamparo para uma gama de empresas que procuraram associar seus negócios às competências do ChatGPT, o debate se torna menos ideológico e tende a expor as deficiências empresariais do comandante da empresa. Somados aos problemas prementes que atormentam a OpenAI no tempo presente, é possível estabelecer uma base mais sólida para a turbulência da empresa.

No coração dos problemas que sacudiram a OpenAI não estão apenas questões de um horizonte longínquo. O futuro está muito mais perto. Questões espinhosas e ainda sem solução à vista fazem parte do cotidiano do ChatGPT, a começar pelo viés de seus algoritmos, pela segregação de gênero e raça que afeta a democracia, passando pelas suas alucinações, pelo impacto no emprego, até as dificuldades em sala de aula e a erosão dos direitos de artistas e outros criadores. Afinal, é bom lembrar, o Conselho que demitiu Sam Altman deu aval para a liberação do ChatGPT ao público há cerca de um ano, mesmo sabendo que a tecnologia não estava madura e que poderia aumentar – como aumentou – os riscos de formulação de bioprodutos perigosos ou viabilizar uma enxurrada de desinformação. Com esse comportamento, a arrogância de alguns cientistas e empresários se baseou na tradicional postura pragmática, que tende a acomodar as diferenças de estratégias e dar conforto científico, ainda que sempre esteja acompanhada por soluços esporádicos, que rapidamente se tornam críticos.

A crise da OpenAI está longe de ter encontrado solução. Para as empresas e investidores, aumenta muito a incerteza para abordar as novas tecnologias. O balanço das experiências híbridas de governança ainda pede muita discussão, principalmente quando a legitimidade do Conselho da OpenAI foi questionada e destratada, quando seus integrantes se utilizaram de prerrogativas definidas desde sua fundação. Como lição básica, é fundamental que as empresas que mexem com a mais poderosa tecnologia que a humanidade já criou precisam ser transparentes e não podem se sentir livres, sem fronteiras, sem auditagem ou sistemas de monitoramento de suas pesquisas e de seus produtos, que somente o debate aberto e o setor público podem fornecer. A IA é poderosa demais para ser guardada em caixinhas institucionais privadas, que nascem e se proliferam à revelia da exposição pública.

Por Glauco Arbix, professor da Faculdade de Filosofia, Letras e Ciências Humanas da USP. Artigo publicado no Jornal USP em 05/12/2023

Link para o artigo no Jornal USP

 

Deixe seu comentário