Pesquisar

Canais

Serviços

Publicidade
Publicidade
Publicidade
Imbróglio

Vídeos que simulam cenas são nova ameaça à informação

Agência Estado
25 jun 2018 às 09:05

Compartilhar notícia

- Reprodução
siga o Bonde no Google News!
Publicidade
Publicidade

Imagine o seguinte cenário: o ano é 2020 e a situação diplomática entre Estados Unidos e Coreia do Norte é tensa. Uma rede de TV recebe um vídeo inédito, de fonte anônima, que mostra o líder Kim Jong-un discutindo com generais o lançamento de um ataque nuclear. Na Casa Branca, o vídeo é analisado, mas a inteligência não consegue verificar a autenticidade. O presidente americano tem de agir - e ordena um contra-ataque. Uma guerra começa.

O pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, imaginou o cenário acima para alertar sobre uma preocupante modalidade de informação falsa: os deepfakes. São vídeos que simulam cenas aplicando técnicas de inteligência artificial a imagens existentes. Até pouco tempo, o fenômeno se restringia ao mundo de filmes adultos. Mas, com a criação de novas tecnologias, existe a preocupação entre especialistas de que filmagens falsas possam comprometer também o processo eleitoral e outros aspectos da vida moderna.

Cadastre-se em nossa newsletter

Publicidade
Publicidade


"Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas", diz Patrini, que trabalha no Delta Lab (Deep Learning Technologies Amsterdam), da Universidade de Amsterdã e Bosch.

Leia mais:

Imagem de destaque
País que mais mata jornalistas

Jornalista paranaense é assassinado a tiros no México, diz imprensa local

Imagem de destaque
Spartans

Time de vôlei dos EUA sofre boicote e atrai polêmica sobre participação de transgêneros em esportes

Selton Mello e Fernanda Torres estrelam novo filme de Walter Salles
Citado

'Ainda Estou Aqui' é incluído na NBR, prêmio tradicional da crítica americana

Imagem de destaque
Apelo pela paz

ONU aprova conferência para discutir criação de Estado palestino


Patrini afirma que, de tão forte o impacto de um vídeo falso, a mensagem manipulada tende a ser aceita por quem quer acreditar nela - mesmo que comprovada a falsidade. "Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirmam nossas crenças anteriores."

Publicidade


O cientista da computação brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, que a produção de vídeos falsos sem grande refinamento já é acessível hoje. "Se pensarmos que já em 2014 usaram bots (redução de robôs em inglês), isso certamente vai ser utilizado. Mas as pessoas acreditam muito no que veem. Muitos não vão acreditar, mas muitos vão. O processo eleitoral passa a ser muito levado por isso", afirmou ele.


Se as eleições deste ano já podem ter o rebuliço do compartilhamento de vídeos falsos, Patrini salienta que as possíveis repercussões da manipulação audiovisual vão além da política. Considere, por exemplo, o uso de áudios e vídeos como provas em processos criminais. Se não pudermos mais confiar em sua autenticidade, como poderemos aceitá-los como evidência?

Publicidade


Soluções


Se o prognóstico das deepfakes é pessimista, isso se dá, em grande parte, porque ainda não há técnica desenvolvida para identificar os audiovisuais falsos. "É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás", aponta Almeida.

Publicidade


Patrini sugere que a tecnologia de defesa contra deepfakes siga dois caminhos. O primeiro seria a criação de uma assinatura digital em vídeos - análoga a marcas d'água em notas de dinheiro -, que garantiria a autenticidade da câmera que deu origem a um filme e a ausência de edições. No entanto, uma assinatura digital seria invalidada por qualquer tipo de edição, mesmo os "benignos" - incluindo mudança de contraste e pequenos cortes. Além disso, não haveria como assegurar a veracidade de vídeos antigos, anteriores a uma possível implementação de assinaturas.


Outra solução vai na linha do "feitiço contra o feiticeiro": usar inteligência artificial e machine learning para criar detectores de vídeos falsos. A ideia é treinar computadores para identificar sinais de adulteração que seriam invisíveis a olhos humanos. O pesquisador considera esta a melhor opção.

"Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador, informando-nos quando o conteúdo audiovisual parece ser uma falsificação." As informações são do jornal O Estado de S. Paulo.


Publicidade

Últimas notícias

Publicidade
LONDRINA Previsão do Tempo