Cresci ouvindo o provérbio popular: “o que os olhos não veem, o coração não sente”. Dizem que este provérbio foi pensado para amenizar os efeitos do adultério e se tornou uma frase icônica para diferentes dilemas do dia a dia.
Vivemos com uma imagem ideal em nossa mente, sobre as coisas e as pessoas. Se não vemos como é a cozinha de um restaurante, não temos nojo. Se não acompanhamos os nossos filhos em uma festa, acreditamos que eles se comportaram.
A confiança está sempre presente em nossas avaliações e decisões. Desenvolvemos uma crença a partir de um juízo de valor, de um julgamento que criamos. Logo, constituímos “uma verdade” sobre algo baseado nas informações que temos, nas relações e nos laços de confiança estabelecidos. E como tem sido cada vez mais difícil confiar nas pessoas, tem se ampliado a importância do ditado de São Tomé, preciso “ver para crer”.
As pesquisas qualitativas realizadas pelo IPO – Instituto Pesquisas de Opinião têm demonstrado que desde a massificação das redes sociais e a ampliação das Fake News os entrevistados vêm tentando adotar técnicas de proteção social e sobrevivência digital, ampliando a importância das fotos e vídeos para validação e julgamento da realidade. Na prática, passamos a considerar como verdade o que pode ser visto, assistido.
A propaganda da Volkswagen sobre a nova Kombi elétrica, que juntou a saudosa Elis Regina e Maria Rita em um vídeo, conseguiu estimular sentimentos positivos e negativos e ‘acender a luz’ sobre os perigos da inteligência artificial.
Sem dúvida, o comercial é emocionante, principalmente para quem tem mais de 40 anos de idade. Por outro lado, o mesmo comercial é aterrorizante, pois pode ser caracterizado como uma “Deepfake”, que é quando se usa a inteligência artificial para trocar o rosto de pessoas em vídeos, sincronizar movimentos labiais, voz e demais detalhes corporais. Ou seja, a tecnologia está sendo usada para criar vídeos que parecem ser reais, mas não o são!
No atual contexto, podemos entrar nas redes sociais e ver o Papa andando de skate e ligar a televisão e vê-lo em uma cadeira de rodas. Qual será a imagem que vamos reter como verdadeira? É até capaz de uma família discutir no jantar, uns dizendo que o Papa está na cadeira de rodas e outros jurando que viram ele andando de skate, dizendo que o Papa é pop.
E se virmos um vídeo de um político recebendo uma propina na internet e à noite assistirmos ao jornal dizendo que se tratava de uma deepfake? Ninguém vai dar bola, como é político a condenação é sumária.
Se os exemplos acima são muito genéricos, podemos pensar em algo mais pessoal. Imagine ver um vídeo da pessoa que você ama fazendo algo errado, lhe traindo e ainda debochando de você? Com a inteligência artificial isso pode acontecer. A imagem e a voz da pessoa que você ama podem ser manipuladas e colocadas em uma situação ou em um lugar que ela nunca esteve, mas de forma tão realista que seria difícil provar sua inocência.
Se a desconfiança já estava entre nós, tornando a verdade ainda mais relativa, a inteligência artificial deve dificultar e bagunçar ainda mais a nossa capacidade de compreensão da realidade. Teremos que acompanhar de perto a implementação da inteligência artificial e debater seus limites, estabelecendo marcos legais. Caso contrário, parafraseando o Exterminador do Futuro, não teremos como saber se alguém terá a capacidade de desligar a “Skynet”.