12. Além (e aquém) do fake

Victor Moussa – ShutterStock

Nesse módulo, você vai aprender como os avanços tecnológicos permitiram a criação de conteúdo falso muito profissional, com vídeos capazes de enganar até especialistas. Por outro lado, vamos discutir a explosão de conteúdos bem toscos, fáceis de criar e bastante sedutores ao adotar uma linguagem amadora. Você vai ver os desafios para detectar esses novos formatos. E, no final, vamos testar suas habilidades para não ser enganado por conteúdos que não seguem o modelo tradicional das fake news – e ainda deixam muita gente confusa.

Caramba… foi bem mals
Caramba… foi razoável
Caramba… foi muito bem
Anton Khrupin – ShutterStock

Para acreditar em algo, muita gente prefere ver com seus próprios olhos. Mas e quando os seus olhos te enganam?

Quem assistiu ao filme “O curioso caso de Benjamin Button” viu o rosto do ator Brad Pitt em um corpo de idoso, um bebê com rosto de velhinho e muitas outras imagens inacreditáveis. Mas estava bem claro para todos que era só a magia do cinema em ação: usando tecnologia, a equipe de efeitos especiais inseriu digitalmente o rosto do astro nas cenas com atores mais velhos e com bebês. A equipe responsável por esse milagre investiu milhões de dólares nesse processo, passou meses tratando as imagens e, no final, ganhou até um Oscar.

Isso foi em 2008. Dez anos depois, com o avanço (e o barateamento) da tecnologia, um simples aplicativo de celular é capaz de trocar rostos em imagens em movimento com qualidade assombrosa – e em tempo real!

Criar cenas que nunca aconteceram com qualidade de cinema está ao alcance dos dedos de qualquer um. Não precisamos mais de um estúdio de Hollywood para construir essas imagens inacreditáveis – os computadores podem manipular automaticamente vídeos de forma a colocar qualquer rosto em outro corpo.

Para fazer isso, usam uma tecnologia em que as máquinas criam modelos digitais dos rostos a partir de uma amostra de imagens – alguns vídeos de uma pessoa, por exemplo. Depois, são capazes de inserir esse modelo em outros corpos. Com muitas imagens de amostra, é possível inclusive manipular a boca desse frankenstein digital para que ele diga o que você quiser.

Com mais um simulador de voz, ou um bom imitador, pronto: você tem um personagem que pode manipular para fazer ou dizer qualquer coisa.

Esses vídeos são chamados de “deepfakes”, porque eles usam um algoritmo de “deep learning”, ou seja, de “aprendizado profundo”, que permite aos computadores “aprenderem” a manusear quantidades gigantescas de informações – por exemplo, as cores, proporções, texturas e movimentos de um determinado rosto. Uma vez que a máquina “aprende” essa lição, é capaz de adaptar esses dados em um modelo maleável.

Estudo desenvolvido por dupla de pesquisadores da Universidade Purdue, nos EUA, explica que essa tecnologia foi popularizada por meio de aplicativo desenvolvido por um usuário do site de mídia social Reddit que usava o termo “deepfakes” como seu apelido.

Alguns usuários se divertiam de forma inofensiva trocando o rosto de atores de Hollywood em filmes e colocando rostos de celebridades no corpo de bebês. Mas essa tecnologia rapidamente passou a ser usada de forma maliciosa, criando pornografia falsa com rostos de celebridades, como a atriz Gal Gadot, que interpreta a Mulher Maravilha – e até de pessoas comuns, como você, seus amigos ou familiares.

Os pesquisadores norte-americanos destacam que desde o começo surgiram preocupações de que essa ferramenta poderia ser usada para arruinar carreiras, com um impacto particularmente grande para atacar políticos durante eleições. O cineasta norte-americano Jordan Peele mostrou que a qualidade dessas imagens pode ser tão grande quanto seu impacto na reputação dos retratados, criando um vídeo falso do ex-presidente Barack Obama xingando o atual líder do país, Donald Trump.

O maior problema é que não é fácil de perceber que as imagens são falsas, e os deepfakes mais sofisticados podem confundir até especialistas. Na eleição para governador de São Paulo, em 2018, um vídeo supostamente mostrava o candidato que liderava as pesquisas na cama, nu, durante encontro sexual com três mulheres.

Alguns peritos apontaram que o vídeo apresentava sinais de manipulação, enquanto outros especialistas apontavam que não seria possível ter certeza se as imagens eram falsas ou não.

Quem é leigo no assunto tem dificuldade de identificar a fraude, mas é possível ficar alerta para alguns sinais suspeitos. Reportagem especial do UOL TAB recomenda prestar atenção em problemas de sincronização do áudio com a boca, ficar atento às proporções do rosto e diferenças de iluminação, prestando atenção se as expressões faciais são naturais ou se parecem artificiais, como um robô.

Vídeos com qualidade das imagens muito baixa são particularmente difíceis de verificar se houve ou não manipulação, e por isso merecem cuidado dobrado. E não custa lembrar: em casos de informação de interesse público, vale confirmar se a informação foi publicada em veículos jornalísticos com credibilidade. Antes de tomar qualquer decisão ou atitude drástica, precisamos de cautela para não se arrepender depois.

Finalmente, não podemos ignorar um dano colateral nessa histeria coletiva com os deepfakes. Se as fraudes estão ficando tão sofisticadas que não podemos mais acreditar nos nossos olhos, no que ainda podemos confiar?

A pesquisadora britânica Claire Wardle alerta que não devemos nos desesperar e precisamos tomar cuidado para que essa desconfiança generalizada não acabe tendo efeitos ainda mais negativos. Algum espertinho pode tentar desacreditar denúncias comprovadas com vídeos ou áudio, dizendo que é tudo falso, por exemplo.

Por enquanto fraudes sofisticadas como os deepfakes ainda são raras. É inacreditável, mas as enganações mais frequentes (e, pelo jeito, mais eficientes) continuam sendo bastante simples, toscas até – como veremos a seguir.

Caramba… foi bem mals
Caramba… foi razoável
Caramba… foi muito bem

Parece contraditório, mas ao mesmo tempo em que os conteúdos enganosos se aproveitam dos avanços tecnológicos para ficar cada vez mais sofisticados, alguns dos itens que mais viralizam são também os mais toscos. E o motivo para isso talvez seja nossa desconfiança em relação à imprensa e a valorização das informações que são passadas por pessoas como nós.

Mas vamos por partes. Em primeiro lugar, vale lembrar alguns dos conteúdos que foram mais compartilhados nas eleições de 2018. Segundo compilação da agência Aos Fatos, dos cinco conteúdos falsos mais populares no primeiro turno da eleição, quatro deles são produções bastante simples, que não demandariam nenhum conhecimento muito complexo de edição de imagens ou manipulação.

São vídeos tirados de contexto, áudios de autoria imprecisa, memes bastante simples. Outro sucesso de público que já discutimos no módulo anterior, o vídeo com a “mamadeira erótica” foi uma das quinze produções mais compartilhadas nessa lista do Aos Fatos. E é uma produção caseira bem simples: basicamente alguém se filmou, segurando o brinquedo erótico, sem muita produção nem nada.

Pelo jeito, não precisa de muitos recursos para enganar muita gente. Pelo contrário, parece que quanto mais tosco, melhor.

É justamente essa falta de sofisticação e o toque amador que dá mais força para esses conteúdos. Uma dupla de pesquisadores da PUC-Minas e da USP tenta explicar porque muitos conteúdos que recentemente viralizaram têm um aspecto simples, quase caseiro.

Para os pesquisadores, essa aparência de espontaneidade pode ser uma reação às acusações de que conteúdos falsos tem motivação partidária. O jeito meio tosco desses vídeos é uma forma de afastar qualquer impressão de que eles sejam resultado de campanhas institucionais. Ao mesmo tempo, eles parecem mais autênticos pois tem um toque caseiro, como algo que seria produzido por um amigo seu, por seu tio – ou por você mesmo.

Por parecerem mais espontâneos e autênticos, eles conquistaram a confiança de muita gente por um processo de identificação: se você vê nessas imagens alguém parecido ou próximo de sua realidade, pode acabar confiando na mensagem. Se tem a sua cara, merece a sua confiança.

E, vale destacar, nenhum desses conteúdos poderia ser classificado como “fake news” tradicionais, já que esse conceito se aplica a conteúdo que simula o formato jornalístico para enganar. É como se as fake news estivessem ficando menos “news”, e mais “fake”.

Nenhum desses conteúdos se parece com algo que a imprensa publicaria. Mas muitos têm a cara de postagens que usuários comuns publicariam em redes sociais. Mais uma vez a dupla de pesquisadores da PUC-Minas e da USP considera que isso pode estar relacionado com uma crescente desconfiança de parte do público em relação à mídia profissional.

E faz sentido: pesquisador do MIT, nos EUA, já alertava há anos que o fenômeno das fake news pode abalar a credibilidade de instituições tradicionais como a imprensa. Como o público aprendeu a dura lição que as notícias falsas imitavam o formato jornalístico, muita gente deixou de confiar em notícias de modo geral – sejam elas produzidas com trabalho sério de jornalista profissionais ou em sites falsos sem autoria nem verificação.

Para ainda continuar enganando quem já estava vacinado contra as fake news tradicionais, os fraudadores tiveram que se reinventar. Deixaram de lado a fantasia de jornalistas, e passaram a se vestir como pessoas comuns – o que, de certa forma, não deixa de ser verdade, porque muitos desses conteúdos falsos são realmente produzidos e repassados para frente por pessoas como nós.

Esse novo formato tosco é triplamente eficiente. Em primeiro lugar, é mais fácil de produzir: qualquer um pode filmar algo, ou simplesmente pegar uma imagem que já está na internet e escrever uma legenda absurda para tirar a história do contexto.

Antes, era necessário fazer um site falso, escrever um texto e manipular imagens, um trabalho para uma meia hora, no máximo. As fake news tradicionais já eram muito mais eficientes que o jornalismo tradicional, que levava várias horas para checar e refutar uma informação falsa. Mas agora em um par de minutos qualquer um cria sua própria mentira e difunde diretamente pelas redes sociais. Fica difícil para o jornalismo profissional – e mesmo as fake news tradicionais – competirem.

Além disso, por serem mais fáceis de criar, podem se multiplicar bem mais rapidamente. Entre milhares de conteúdos falsos, os mais eficientes vão ser compartilhados mais. Ao invés de investir muitos recursos na produção de um conteúdo falso sofisticado com tecnologia de ponta, é mais fácil produzir dezenas de tosqueiras amadoras e deixar o público escolher (e replicar) o melhor. É a seleção natural das redes sociais, em que os mais toscos sobrevivem e se proliferam.

Por fim, também são mais eficientes justamente porque não procuram competir em pé de igualdade com o jornalismo. As fake news tradicionais, que usavam o formato jornalístico, estavam disputando com a imprensa no terreno dela: os checadores usavam essa fragilidade para mostrar que, em comparação, a informação deles era mais contextualizada e podia ser verificada.

Mas esses novos conteúdos toscos já partem do pressuposto que muita gente nem confia mais no jornalismo, e prefere acreditar em histórias contadas por gente como a gente. Fica difícil mostrar para essas pessoas que um vídeo falso foi refutado por uma agência de checagem, se essas pessoas não confiam mais na imprensa como um todo.

A disputa saiu do terreno do jornalismo e, agora, ficou pessoal. Os conteúdos parecem produzidos por pessoas comuns: mas qual o interesse dessa galera em sair espalhando mentiras?

O problema é que, no cenário polarizado das redes sociais, a disputa por atenção – e por seu voto, em períodos eleitorais – leva muita gente comum a agir como militantes que só tem compromisso com suas bandeiras políticas. Se tiverem que passar por cima dos fatos, não terão dúvidas. E como o cenário político parece uma grande campanha eleitoral sem fim, essa disputa por corações e mentes não tem trégua.

A sacada genial desses conteúdos falsos amadores é apelar para a ingenuidade. Mas agora que já conhecemos esse novo (e tosco) fake, precisamos ter cuidado dobrado com quem se esforça para nos convencer, insistindo que “é verdade esse bilhete”.

Caramba… foi bem mals
Caramba… foi razoável
Caramba… foi muito bem

Vídeos falsos hiper-realistas que parecem saídos de um estúdio de Hollywood, mas que podem ser feitos por qualquer um em casa. Áudios sem autoria muito clara, ou produzidos por imitadores que simulam muito bem a voz de gente famosa. Perfis falsos de celebridades e jornalistas em redes sociais que enganam muitos fãs desatentos. Esses conteúdos falsos não seguem o formato jornalístico tradicional das fake news, e justamente por isso é muito mais fácil ser enganado. Nesse vídeo, mostramos quais são as novas fronteiras da enganação – e o que devemos fazer para não cair nessa.

Caramba… foi bem mals
Caramba… foi razoável
Caramba… foi muito bem

Parece, mas não é: fatos, mentiras, opiniões e conteúdo duvidoso… tudo, menos fake news!

Zephyr_p – ShutterStock

As fake news originais passaram por muitas mutações. Existem tantos formatos novos de conteúdo falso tentando te enganar, que é fácil se confundir com o que é e o que não é fake news. Nem tudo o que é falso é fake news… e muita coisa que anda sendo chamada de fake não é falsa não.

Abaixo você tem conteúdos que não são “fake news” – ou seja, aquele formato tradicional de mentiras que podem ser provadas como falsas, tentam enganar simulando o formato jornalístico e viralizam em redes sociais com autoria pouco clara. Mas isso não quer dizer que sejam necessariamente dignas de confiança. Dá para acreditar?

Caramba… foi bem mals
Caramba… foi razoável
Caramba… foi muito bem

Faça o curso completo

@2018 Vaza, Falsiane