Potencialidades e limites do ChatGPT

Por 20 de março de 2023Sem categoria

Por Glauco Arbix e Guilherme Ary Plonski, 20/03/23, para o jornal O Estado de São Paulo.

Algoritmos encadeiam palavras, mas não conseguem pensar nem compreender o significado do que escrevem. Mas não são neutros e podem, mesmo sem consciência, fazer mal à humanidade.

Os novos chatbots vieram para ficar. Nem sempre prenunciam impactos otimistas, mas o gênio está solto e não vai voltar para a lâmpada. O mais famoso, o ChatGPT3, lançado em dezembro de 2022 pela OpenAI, empresa da Califórnia, já atraiu mais de 120 milhões de usuários e elevou a temperatura do debate no mundo todo.

O ChatGPT é um modelo de linguagem com algoritmos que analisam um imenso corpo de dados, basicamente veiculados pela internet. De uso fácil e gratuito (até agora), o modelo responde perguntas, escreve, sintetiza, resume, resolve problemas de matemática, de computação, em prosa e verso.

Chat significa conversa em inglês. E GPT atende por Generative Pre-Trained Transformer , ou seja, um sistema que gera textos em geral pré-treinados com técnica transformer, que permite aos mecanismos de Inteligência Artificial (IA) calcular e selecionar as palavras mais adequadas para encadear um texto. Esta é uma das principais vantagens do ChatGPT: sua capacidade de gerar textos coerentes sobre uma enorme gama de tópicos e semelhantes aos produzidos por humanos.

Há intensa competição entre países, grandes corporações e universidades de ponta para ver quem domina melhor esses novos modelos de linguagem. A OpenAI, por exemplo, acaba de lançar uma nova versão, o ChatGPT4, que promete ser mais avançado ainda. Gigantes de tecnologia anunciam versões com novas funcionalidades, a exemplo do BioGPT (Microsoft), do Bard (Google), do ErnieBot ou Wenxin Yiyan (da chinesa Baidu), do Claude (Anthropic) e de dezenas de outros. A Microsoft, que financiava a OpenAI, investiu mais US$ 10 bilhões para aperfeiçoar o ChatGPT e integrá-lo aos seus mecanismos de busca, à procura de uma linha de serviços que combina palavras, mas também imagens, vídeos e a navegação em tempo real pela internet.

O ChatGPT ainda apresenta limitações e falhas que afetam seu desempenho e precisão. Isso significa que pode reproduzir mazelas da sociedade, como as desigualdades, preconceitos e desinformação. Mesmo as respostas que denotam empatia não conseguem detectar adequadamente situações emocionais, ambiguidades e mesmo o humor que fazem parte da linguagem humana. Mais ainda, o ChatGPT não tem compromisso com a verdade dos fatos e por vezes reproduz visões tendenciosas ou discriminatórias. No inglês, suas eventuais invenções são chamadas de hallucinations.

Questões éticas estão mais do que presentes no uso de modelos como o ChatGPT. E, o que é mais grave, para esses sistemas, as palavras são números e não há referência às suas fontes de informação. Nem seus criadores e programadores conseguem rastrear e identificar as escolhas das palavras feitas por esses sistemas, que são opacos por natureza.

Para a pesquisa e atividades de ensino e aprendizagem, esses distúrbios e a falta de transparência incomodam profundamente, pois o ChatGPT escreve de modo coerente, o que sugere que tem intenção. Não tem, ainda que a OpenAI anuncie que seus chatbots caminham para se igualar à humanidade. Os algoritmos não têm ética nem moral.

Encadeiam palavras, mas não conseguem pensar nem compreender o significado do que escrevem. Mas não são neutros e podem, mesmo sem consciência, fazer mal à humanidade. E certamente farão, se não forem construídos meios de proteção social. A regulação da IA é essencial e vem sendo debatida no mundo inteiro. E o poder público é peça central, embora nem sempre responda à altura.

O medo do plágio já levou escolas públicas de Nova York, Los Angeles e Baltimore a proibirem o uso do ChatGPT. Universidades de ponta, porém, adotam abordagens distintas. A Universidade Yale convida professores e alunos a compreender suas virtudes e limitações para poder utilizá-lo. A University College London recomenda o uso do ChatGPT e softwares semelhantes, ao invés de proibi-los, sempre se pautando pela ética e transparência. A London School of Economics reconhece a ameaça potencial à integridade acadêmica e quer prevenir condutas que tentem burlar regras de avaliação. A universidade francesa Sciences Po definiu que, sem transparência, os estudantes estão proibidos de utilizar o ChatGPT para a produção de trabalhos escritos ou apresentações.

Historicamente, o debate entre educadores sobre o uso de tecnologias na sala de aula nunca obteve consenso. Acreditamos que a proibição de seu uso prejudica o ensino e a aprendizagem e tenta perpetuar hábitos anteriores, de avaliação e geração de conhecimento, sem impedir eventual plágio ou fraude.

Na verdade, essas novas ferramentas de IA são um convite para que a educação seja reimaginada. Guimarães Rosa, antes do ChatGPT, já alertava que viver é perigoso. Na era da IA, o alerta toca de modo especial o mundo da educação, que deve buscar obstinadamente a visão de futuro.

A interação com as tecnologias faz parte da paisagem do século 21 e a definição de regras de convívio e de complementaridade com as tecnologias é o caminho mais sensato, pois pode aumentar capacidades humanas. A Universidade de São Paulo (USP) discute abertamente essas e outras visões amanhã, dia 21/3, no Instituto de Estudos Avançados, no ChatGPT: Potencial, Limites e Implicações para a Universidade. O debate é mais do que atual.

GLAUCO ARBIX, PROFESSOR TITULAR DO DEPARTAMENTO DE SOCIOLOGIA DA USP; E ARY PLONSKI, DIRETOR DO INSTITUTO DE ESTUDOS AVANÇADOS DA USP

 

 

Deixe seu comentário