ANTONIO GAVAZZONI
Advogado e doutor em Direito Público
contatogavazzoni@gmail.com

Realidade distorcida

06 Abril 2018 15:41:00

Você já ouviu falar em Infocalypse? Esse é o termo que vem sendo utilizado nos meios tecnológicos para se referir a tecnologias que podem distorcer a realidade de uma forma que não consigamos distinguir verdadeiro e falso em termos de informação. Ferramentas já existentes de manipulação de áudio e vídeo combinam e misturam gravações com monitoramento facial e permitem, por exemplo, reproduzir e sincronizar os movimentos faciais de alguém com algo que ele não disse na realidade. O resultado é próximo do perfeito e fica quase impossível detectar a manipulação. O impacto disso tem potencial negativo muito maior do que o das fake News, as notícias falsas que vieram à tona por conta da manipulação de dados de usuários do Facebook para uso na campanha eleitoral americana. 

Quem prevê essa próxima transformação em grande escala é Aviv Ovadya, chefe-tecnólogo do Centro de Responsabilidade de Mídias Sociais da Universidade de Michigan, que em 2016 já havia feito um alerta sobre o fim da credibilidade dos fatos por conta da grande quantidade de plataformas otimizadas por algoritmos. Na época, ele disse que a propaganda, a desinformação e os anúncios direcionados eram uma grande ameaça. Mas não foi ouvido.

Vamos imaginar algumas aplicações dessa nova tecnologia: ela permite, por exemplo, usar o rosto de qualquer pessoa em um corpo de atriz ou ator de filme pornográfico. Também é possível mostrar um político fazendo um discurso com palavras que ele não disse, mas perfeitamente sincronizadas aos seus movimentos labiais. Ainda como exemplo, podemos ter um vídeo de alguém em perigo pedindo que paguem um resgate para liberá-lo. As possibilidades são assustadoras. Simulações das capacidades desses aplicativos já foram feitas como testes por equipes de universidades americanas, e o resultado mostra uma bomba armada para explodir se cair em mãos erradas. Turbinadas pela inteligência artificial e técnicas de realidade aumentada, essas aplicações têm potencial para uma guerra de informação bem mais prejudicial que a das notícias falsas. A inteligência artificial, uma ferramenta com potencial maravilhoso de evolução das tecnologias como as conhecemos hoje, também pode ser utilizada "para o mal". Ao detectar nossa presença em redes sociais, por exemplo, é possível criar mensagens falsas vindas de pessoas que conhecemos.

Em resumo, com alguma habilidade de uso da ferramenta, qualquer um pode fazer com que pareça que qualquer coisa aconteceu, tenha ou não acontecido. E um dos maiores riscos de tudo isso é que, aterrorizadas pelo medo da falsificação, as pessoas se isolem e simplesmente deixem de se informar e de querer interagir. Nem mesmo a evolução dessas tecnologias é previsível, mas há potencial para fraudes cada vez mais sofisticadas e difíceis de detectar.

Como bem sabemos, difícil também será ficar à margem das transformações tecnológicas. Mas para não acabarmos como em alguns catastróficos filmes de ficção, onde não se sabe o que é real ou fabricado, precisaremos nos agarrar cada vez mais aos valores humanos. Confiança, ética, empatia, olho no olho, palavra dada ainda são nossas ferramentas mais poderosas. Ainda.

Antonio Gavazzoni, advogado e doutor em Direito Público

contatogavazzoni@gmail.com






logo_rodape.png

Rua Adolfo Melo, 38 - Sala 901 - Centro | Florianópolis-SC | CEP: 88015-090 |
(48) 3298-7979 | jornalismo@adjorisc.com.br