Inteligência Artificial (IA) está na moda. Fico sempre cauteloso quando trato de “modinhas”, já
que as pessoas costumam banalizar o assunto. Isto está acontecendo com os sistemas chamados
de Inteligência Artificial Generativa, cujo melhor exemplo é o famigerado ChatGPT.
Leia mais:
Aeroporto de Londrina terá voos diretos para Maceió e Porto Seguro na alta temporada
Bancos vão ao STF contra juros do consignado do INSS
Solução para segurança púbica vence 1º Hackathon Smart Cities, em Londrina
Após polêmica, Marinha anuncia concurso com 800 vagas
Desde 2014 pesquiso e trabalho com essa temática. Publiquei em 2016, quando a grande
maioria sequer imaginava que podiam surgir tecnologias assim, artigo essencial no qual analisei
a possibilidade de uma máquina computacional apresentar um comportamento ético na
produção de conteúdo. É a minha publicação científica mais citada no mundo (44x até hoje)
Falo isso porque é preciso muita prudência para tratar de um tema delicado como ética
computacional. Por mais banal que seja pedir uma receita de bolo ou dicas de como emagrecer
para o ChatGPT, a situação é diferente quando o que está em jogo é o Jornalismo, notadamente
o realizado por entidades públicas.
Fiquei muito honrado e lisonjeado quando comunicadores de todo o Ministério Público (MP)
brasileiro convidaram-me para realizar palestra no 1˚Conacomp, Congresso Nacional dos
Comunicadores do Ministério Público do Brasil, sobre inovação no campo da comunicação,
com destaque para tecnologias com IA. Foi um debate importante e necessário que todas as
instituições públicas brasileiras deveriam fazer, pois está em jogo aspectos imprescindíveis,
como o combate às notícias falsas e desinformação, a relevância do MP para a sociedade, assim
como a ética na informação de utilidade pública.
Um dos pontos que procurei destacar nas minhas ponderações e que gerou um intenso debate
foram os inúmeros erros que as máquinas cometem e a parcela de responsabilidade que cada um
de nós temos quando utilizamos esses sistemas. Mostrei em um simples diálogo com o
ChatGPT fornece informações erradas, ainda que o mesmo afirme taxativamente o contrário.
Como não tenho espaço hábil, não adentrarei a aspectos muito técnicos, como o tipo de
pergunta que fiz, porém posso assegurar que segui protocolos acadêmicos para testes.
Não vejo problema em constatar que a máquina erra. O maior complicador está na confiança
absoluta de que o sistema é infalível, o que é um grande engano. O sistema não só é passível de
erros, como o faz com maior frequência conforme a complexidade do assunto em questão. Por
exemplo, a probabilidade de a máquina errar ao ser questionada sobre métodos de
emagrecimento é infinitamente menor quando comparada com aspectos políticos, como
liberalismo e comunismo, ou ainda temas delicados como o aborto.
Se o usuário está ciente disso, podemos criar uma boa relação com o sistema e utilizá-lo de
forma profícua no dia a dia. Caso contrário, nos tornamos reféns de máquinas sem condições de
agir eticamente, assim como das empresas que criaram esses sistemas. Afinal, não nos
esqueçamos que existem interesses comerciais, políticos e ideológicos em cada uma dessas
tecnologias que usamos ;)
*Lucas V. de Araujo: PhD em Comunicação e Inovação (USP).
Jornalista Câmara de Mandaguari, Professor UEL, parecerista internacional e mentor de startups.
@professorlucasaraujo (Instagram) @professorlucas1 (Twitter)