Desde seu lançamento em novembro de 2022, o ChatGPT teve um crescimento exponencial, tendo se tornado uma das inteligências artificiais consideradas mais promissoras – certamente a mais comentada – do momento. O modelo de linguagem lançado pela OpenAI chamou a atenção pela capacidade de compreender e gerar textos elaborados com uma interação próxima da humana. Analistas apontam aplicações nos mais variados setores e para os mais variados tipos de usuário: desde ajudar estudantes com o dever de casa a automatizar tarefas que tornem processos empresariais mais eficientes.
No entanto, esse tipo de interação com uma inteligência artificial remeteu muitas pessoas a referências de cultura popular pouco favoráveis à tecnologia: estaríamos entrando no universo de “2001: uma odisseia no espaço” e vendo a origem do robô vilão Hal 9000? A resposta é não. Isso não significa que o ChatGPT não tenha gerado reações negativas e críticas válidas em meio aos muitos entusiastas. Então a pergunta que fica é: qual será o papel do ChatGPT, e de IAs como ele, na sociedade?
Os riscos do ChatGPT: ser um robô do mal não é um deles
Apesar de o ChatGPT ser uma IA com habilidades de linguagem humana avançadas capaz de realizar uma ampla variedade de tarefas como Hal 9000, ele não é senciente, então não precisamos nos preocupar com uma revolta das máquinas. Isso não significa que não temos com o que nos preocupar. As críticas mais destacadas envolvem temas que vão desde a qualidade do conteúdo produzido, à ética, ao potencial de substituição de humanos em múltiplas profissões, dentre outros.
Uma das dificuldades destacada é a de responder perguntas complexas ou situacionais, assim como a de dar nuance para perguntas cujas respostas envolvem debates intensos. Dois exemplos que viralizaram nas redes sociais foram as respostas para as perguntas de quem foi campeão do campeonato brasileiro em 1987 e quem inventou o avião. Pode-se dizer que torcedores do Sport e brasileiros em geral não gostaram muito de ler Flamengo e irmãos Wright nas respostas.
Você pode concordar com estas respostas e dizer “mas o ChatGPT está certo, só disse a verdade”. O ponto agora não é esse. A questão é a falta de reconhecimento de que, há anos, essas perguntas são motivo de discussões acaloradas. Esses exemplos são piadas de internet, mas a preocupação é séria: na medida em que a ferramenta ganhar escala entre os usuários, será necessário educá-los sobre essas limitações. Lembrá-los que o que diferencia o robô de nós é justamente a capacidade de interpretar, dar nuance e pensamento crítico. Tal nuance não vai aparecer de um modelo de IA como o ChatGPT.
Outras preocupações vêm de setores como educação e jornalismo, já que o ChatGPT produz textos sem indicar fontes e sem que tais textos sejam classificados como plágio porque a ferramenta escreve versões novas a cada pedido. Há uma preocupação generalizada com o uso antiético da ferramenta para realização de trabalhos e provas, por exemplo. Também há críticas à frequência com a qual o ChatGPT entrega respostas imprecisas ou até falsas, preocupação que ganha uma relevância diferenciada no tempo das fake news.
A própria OpenAI reconhece tal limitação e argumenta que o modelo vai aprendendo com o que é alimentado pelos usuários, o que não dissuadiu críticos de reforçarem a ameaça que isso representa. Por trás desse questionamento há uma crítica mais abrangente que envolve o lançamento do ChatGPT sem que tenha ficado clara a aplicação de princípios de ética em IA, um campo de estudo em rápida expansão. Houve comentários, inclusive, sobre a OpenAI não ser a única a desenvolver o tipo de tecnologia por trás do ChatGPT, apenas a que a lançou primeiro enquanto outras empresas estão passando suas versões por escrutínios maiores.
Ainda há a grande pergunta que quase todos que trabalham produzindo textos (jornalistas, advogados, publicitários e outros) se fez: vou ser substituído pelo ChatGPT? A possibilidade de escrever petições, artigos, colunas e copys na ferramenta retomou o já antigo debate sobre automatização e mercado de trabalho. Não só essa preocupação específica, mas ela em conjunto com todas as outras: se profissionais humanos serão substituídos por uma máquina que produz materiais sem nuance, imprecisos e que mascarem plágio.
Mas é realmente esse o cenário? O quanto de ruído e o quanto de relevante há nas críticas?
Nem Hal 9000, nem bala de prata: o ChatGPT será integrado ao dia-a-dia
A verdade é que, em meio ao hype, às críticas e às comparações com inteligências artificiais de filmes, o ChatGPT nada mais é do que uma ferramenta cujos benefícios e problemas estarão diretamente relacionados como nós a usarmos. Tal reconhecimento não minimiza as críticas levantadas, mas as contextualiza no sentido de que a qualidade do que o ChatGPT vai devolver de output depende da qualidade do que o usuário oferece para ele como input, ou seja, da qualidade da capacidade crítica e educação digital da população.
Isso não isenta a OpenAI de cobranças em relação aos princípios éticos de IA, mas nos ajuda a não ver o ChatGPT como o vilão de um filme do Kubrick ou como uma bala de prata que vai fazer tudo sozinha. E é justamente a partir dessa lógica que conseguimos entender qual será o papel dele na sociedade: ele, assim como a maior parte das tecnologias do tipo, será integrado a ela. Não substituirá humanos no sentido mais ficção científica da expressão, uma vez que depende de nós para interpretar, enriquecer e fazer checagem de fatos do que produz.
O que o ChatGPT pode (e provavelmente vai) fazer é aumentar a produtividade de certas atividades ao ponto de menos pessoas serem necessárias para executá-las. Isso é um problema sério para o futuro do trabalho, mas é uma questão diferente da que vem sendo apresentada de que tais profissões serão 100% automatizadas e, para resolver bem um problema, é preciso defini-lo corretamente. É preciso, justamente, dar nuance e precisão à questão sendo colocada.
O ponto, assim, deixa de ser como impedir que os alunos usem, mas identificar como pode ser integrado à educação para exercitar o pensamento crítico, que é o que as diferencia de máquinas
O mesmo pode ser dito sobre o debate da educação: poderemos continuar com um modelo baseado em avaliar conhecimento a partir de perguntas que um robô responde? Essa pergunta já era válida antes do ChatGPT devido ao Google e só ganhou força. Ela é mais elaborada do que a mera questão de se alunos estão usando o ChatGPT para colar e plagiar trabalhos. O ponto, assim, deixa de ser como impedir que os alunos usem, mas identificar como pode ser integrado à educação para exercitar o pensamento crítico, que é o que as diferencia de máquinas e – coincidentemente – minimiza as questões de falta de nuance e imprecisão do robô.
Assim, o ChatGPT passar em provas de revalidação de diplomas não deveria gerar uma empolgação exagerada sobre sua inteligência nem um desespero sobre seus problemas. Deveria nos fazer pensar que modelo educacional promove o tipo de conhecimento que não é replicado por máquinas. Vale dizer que, na realidade brasileira, pensar em inserir a ferramenta no dia-a-dia seria totalmente descolado do que a maioria das escolas pode oferecer, uma vez que muitas escolas sequer tem luz e professores são sistematicamente desvalorizados. Ainda assim, é possível usar a existência desse tipo de ferramenta como ponto de partida para uma reflexão sobre o que e como queremos ensinar a nossos jovens.
Apesar de tudo apresentado até aqui, a verdade é que o ChatGPT está operando há menos de 1 trimestre, de modo que muitas mudanças ainda vão acontecer e especialistas vão conseguir apontar com mais precisão os riscos que devem ser mitigados pela OpenAI e os que estão associados à necessidade de incentivar o uso adequado da tecnologia. Também ficará mais claro com o tempo como os benefícios esperados se manifestarão nos mais variados setores.
Assim, será um período em que acompanhar pessoas que se dedicam academicamente ao estudo de inteligência artificial será especialmente importante. Você pode, inclusive, pedir recomendações para o próprio ChatGPT por algumas recomendações. Perguntei, fiz o fact check e o resultado foi bastante positivo. O importante é que, enquanto esses pesquisadores trabalham para aprofundar a compreensão de como esse tipo de IA afeta nosso dia-a-dia (positiva e negativamente), podemos deixar em Hollywood o medo de robôs do mal.
Bruna Cataldo é pesquisadora do Instituto Propague e doutoranda em economia pela UFF.
Veja mais:
Alto endividamento das famílias é desafio urgente para a economia brasileira
O ChatGPT vai mudar as relações de trabalho? Tudo sobre a nova inteligência artificial do momento
Inteligência artificial: o que é e como ela se aplica ao setor financeiro