Não poderia ter escolhido assunto melhor para tratar aqui nessa coluna neste período. Aquilo
que era uma discussão adstrita a especialistas ganhou ares de luta de gigantes envolvendo as
empresas mais poderosas do mundo, o Governo Federal e até parte do Poder Judiciário.
Leia mais:
Carne acumula inflação de 15,43% em 12 meses, a maior desde 2021
Fórum Desenvolve Londrina apresenta indicadores e pesquisa de percepção
Moradora de Londrina ganha R$ 100 mil no sorteio do Nota Paraná
Uber defende no STF que não há vínculo de emprego com motoristas
O jogo sujo das grandes empresas de tecnologia, chamadas de Big Techs, que eu alertei em
colunas anteriores, fez as autoridades brasileiras tomarem decisões drásticas, como multas e
processos na justiça. Tudo em razão do PL 2630 que tramita no Congresso Nacional.
Isso já tendo em vista que o Governo Federal retirou do texto a proposta de uma agência
reguladora e a possibilidade de o jornalista receber parte dos recursos pela produção jornalística,
o que fez as empresas de mídia tradicionais mudarem de lado no debate e incentivarem as
críticas às Big Techs, já que as firmas brasileiras ficarão com os recursos oriundos da taxação
extra das grandes empresas de tecnologia.
Estas mesmas firmas colocaram seus algoritmos para trabalharem a favor de seus interesses.
Além de cartas abertas aos usuários, estão usando de artimanhas, como promover links e
comentários nas redes sociais, para manipular as pessoas estimulando falsos debates, muitos
deles por meio de fake news.
As mesmas firmas que afirmam não ser possível controlar o que as pessoas postam em suas
plataformas e a favor de uma suposta liberdade de expressão, estão restringindo o acesso a
informações e opiniões favoráveis ao PL 2630. Isto é, quando o assunto é do interesse deles, os
sistemas estão aptos a trabalharem em prol deles. Quando a legislação tenta impor limites a
atuação delas, não tem como.
Escrevi na coluna anterior que os sistemas computacionais têm plenas condições de contribuir
no filtro daquilo que é criminoso, como mensagens de ódio e apologia ao nazismo. O ministro
do Supremo Tribunal Federal (STF) se posicionou muito bem quando disse que os mecanismos
usados para defender direitos autorais nas plataformas poderiam ter o mesmo emprego para
evitar a desinformação e as fake news. Da mesma maneira, os sistemas já detectam vídeos,
comentários, fotos de apologia à pedofilia, o que é extremamente importante. Porém, isso é
básico, não uma virtude. É preciso ir além, como aprimorar os sistemas computacionais para
evitar vieses embutidos.
Quando uma máquina é ensinada a fazer algo, ela pode aprender do jeito errado ou certo.
Depende da forma. Fora o fato de que os dados utilizados para forjar o sistema precisam ser o
mais isento possível. Por exemplo, se o sistema aprende que violência contra a mulher é uma
mimimi, ele vai reproduzir essa visão absurda nos seus filtros e liberar conteúdo que estimule
esse pensamento perverso. Por isso defendi que as máquinas auxiliem no processo de curadoria
do que é certo ou errado nas redes, do que é criminoso ou não no ambiente virtual.
Obviamente que isso é difícil, já que demanda altos investimentos em aprimorar a ética das
máquinas, porém é imperioso. A criação de uma lei é apenas o primeiro passo ;)
*Lucas V. de Araujo: PhD em Comunicação e Inovação (USP). Jornalista Câmara de Mandaguari
Professor UEL, parecerista internacional e mentor de startups.
@professorlucasaraujo (Instagram) @professorlucas1 (Twitter)