Você leu {{ signinwall.data.visits }} de {{ signinwall.data.limit }} notícias.
Possui cadastro? Faça login aqui
{{ signinwall.metadata.blocked_text }}
Você atingiu o limite de conteúdos que pode acessar.
Para acessar o conteúdo, faça seu login abaixo:
Faça login ou cadastre-seUm vídeo no qual o jornalista William Bonner revelaria o resultado das eleições de 2022 viralizou na rede social TIKTOK. A polêmica escancara uma das maiores dificuldades do uso da internet na atualidade.
No entanto, o registro compartilhado pelo perfil @mosconi.deepfake, não se trata de uma declaração feita pelo jornalista. As imagens, bastante convincentes, trata-se do uso do recurso edição de áudio.
“Boa noite, 1º de janeiro de 2023. Bolsonaro não é mais oficialmente o presidente do Brasil. Até que enfim, né, pessoal?”, diz a suposta voz do jornalista.
O vídeo acumula mais 1,6 milhão de visualizações e pouco mais de 110 mil curtidas. Confira:
@mosconi.deepfake Jornal Nacional | Deepfake - Bolsonaro não é mais presidente do Brasil #deepfakebrasil #forabolsonaro #jornalnacional ? Jornal Nacional Deepfake - Mosconi Deepfake
O truque usado pelo gestor do perfil utiliza-se de uma imagem real de Bonner na bancada do Jornal Nacional. É possível notar uma falta de sincronização do áudio com os lábios do jornalista, o que não tem sito impeditivo para o vídeo ganhar repercussão.
Mesmo com forte característica em atingir o humor político do expectador, a prática do uso da inteligência artificial para manipulação de áudios e vídeos deste tipo é perigosa. Visto que a internet passa por um período de enxurrada de desinformação e material de conteúdo duvidoso.
Uma das metas do Tribunal Superior Eleitoral (TSE) e do jornalismo profissional, por exemplo, é combater o uso da inteligência artificial na produção desse tipo de material que pode confundir e influenciar o eleitor.