Falsificações de Maduro geradas por IA confundem redes sociais
Após a divulgação da prisão do presidente venezuelano Nicolás Maduro pelos Estados Unidos, numerosas imagens falsas, provavelmente produzidas por inteligência artificial, circularam rapidamente nas redes sociais. Essas manipulações mostravam Maduro algemado, cercado por agentes ou dentro de uma aeronave militar, levando a uma crescente preocupação com a disseminação de deepfakes em momentos críticos.
Imagens falsas de Maduro em meio a controvérsia
Segundo o especialista em checagem de fatos Jeanfreddy Gutiérrez, que atua em Caracas e está baseado na Colômbia, várias dessas imagens se espalharam na internet, incluindo veículos de comunicação na América Latina. Ele ressaltou que algumas dessas fotos foram substituídas por uma imagem oficial compartilhada pelo próprio Donald Trump, demonstrando a rapidez com que conteúdo manipulado pode se disseminar.
Gutiérrez realizou uma análise na semana passada, identificando deepfakes criados por ferramentas como o Gemini, IA do Google, e revelou que várias dessas imagens apresentavam sinais claros de manipulação digital. A NewsGuard, empresa que monitora confiabilidade de informações online, rastreou mais de 14 milhões de visualizações dessas falsificações em menos de dois dias, principalmete na plataforma X (antigo Twitter).
Desafios e limites das ferramentas de IA na criação de deepfakes
Apesar das regras restritivas de grandes geradores de imagens por IA, muitas dessas plataformas aceitaram criar imagens similares em testes feitos pelo The New York Times. Modelos como o Grok, da X.ai, produziram imediatamente uma imagem realista da prisão de Maduro, mesmo quando a solicitação foi feita de maneira que deveria impedir esse tipo de conteúdo.
O Google, por sua vez, possui diretrizes que proíbem a geração de desinformação envolvendo processos democráticos, mas um porta-voz afirmou que imagens de figuras públicas podem ser criadas se não violarem regras específicas. Ainda assim, a facilidade de produção dessas falsificações acende um alerta sobre os riscos de engano na era digital.
Reação de especialistas e desafios da checagem
Jeanfreddy Gutiérrez destacou que muitas dessas imagens foram criadas em questão de segundos e de forma gratuita, usando ferramentas acessíveis ao público. Para ele, a questão central é a dificuldade de convencer a população da verdade, especialmente em um país como a Venezuela, onde há restrições severas à imprensa convencional, o que aumenta a confusão e a desconfiança.
Organizações de checagem de fato na região estão cada vez mais preparadas para identificar deepfakes. Desde a pandemia, esses grupos vêm colaborando para enfrentar rumores e teorias conspiratórias relacionadas a eventos internacionais e eleições.
Perspectivas futuras e responsabilidade das plataformas
Especialistas apontam que a popularidade das ferramentas de IA gera um dilema entre inovação e ética. Plataformas como Meta, OpenAI, Google e X têm regras contra conteúdo enganoso, mas sua aplicação nem sempre é eficiente na prática. A introdução de marcas d’água digitais, como o SynthID do Google, é uma tentativa de diferenciar imagens reais de manipulações, mas sua efetividade ainda é debatida.
Segundo o porta-voz das empresas, a expectativa é que a tecnologia continue evoluindo para oferecer mais segurança e transparência, permitindo que os usuários detectem facilmente conteúdo gerado por IA. No entanto, a responsabilidade também recai sobre os criadores e disseminadores do conteúdo, reforçando a necessidade de uma relação mais crítica com as informações na internet.
Este episódio reforça a importância de a sociedade estar cada vez mais vigilante diante das novas possibilidades da inteligência artificial e dos riscos associados à manipulação digital em momentos de grande tensão política.
Com informações do Jornal Diário do Povo
Share this content:










Publicar comentário