Matéria
Imagem da família do soldado franco-israelense Eli Valentin Ghenassia, morto no Kibutz Beeri em 7 de outubro deste ano, em seu funeral. Mais de 1.400 israelense morreram nos ataques do grupo terrorista Hamas. Imagem CBS. Divulgação.
A guerra entre Israel e o grupo terrorista Hamas na Faixa de Gaza traz imagens de ruas devastadas, mas algumas dessas imagens se destacam pelo horror absoluto: crianças ensanguentadas e abandonadas.
Em uma publicação da agência de notícias Associated Press (AP), de 28 de novembro, traz uma denúncia grave sobre imagens falsas na web. Segundo a matéria, desde o início da guerra, essas imagens – vistas milhões de vezes online – são deepfakes criadas com inteligência artificial. “Se você olhar de perto, poderá ver pistas: dedos que se curvam de maneira estranha ou olhos que brilham com uma luz não natural”, diz a AP. São muitos os sinais que revelam o engano digital.
No entanto, a indignação que estas imagens causam na população é altamente realista. As imagens da guerra Israel-Hamas ilustram a quão dolorosa e potencial pode ser a Inteligência Artificial (AI) como ferramenta de propaganda nefasta. Essas ilustrações são usadas para criar imagens realistas de carnificina. Desde o começo da guerra, o Hamas tem se favorecido dessas imagens e mensagens alteradas digitalmente, espalhadas nas redes sociais para serem usadas para construir falsas alegações sobre a responsabilidade de Israel pelas vítimas ou para enganar a população mundial sobre atrocidade que nunca aconteceram.
A AP chama a atenção para as alegações falsas que circulam online sobre a guerra Israel-Hamas que não vem de criação AI, mas esses avanços tecnológicos estão atuando com mais frequência e com pouca supervisão. O potencial da AI pode se tornar outra forma de arma e “oferece um vislumbre do que está por vir durante futuros conflitos, eleições e outros grandes eventos”, diz o texto.
De acordo com o CEO da CREOpoint, Jean-Claude Goldenstein, uma empresa de tecnologia que utiliza AI, “vai piorar muito – antes de melhorar”. Um dos bancos de dados dos deepfakes mais virais sobre Gaza foi criado pela empresa CREOpoint. “Imagens, Vídeos e áudios: com a AI generativa será uma escalada que você nunca viu”, disse Goldenstein a AP.
Nessa onda de deepfake, fotos de outros desastres foram reaproveitadas e consideradas novas, como, por exemplo, a de um bebê chorando em meio aos destroços de um bombardeio – imagem que se tornou viral nos primeiros dias de conflito.
Outros exemplos são de vídeos criados por AI que mostram supostos ataques de mísseis israelenses a Gaza, ou tanques se deslocando por ruínas. Essas imagens também mostram famílias revirando os escombros à procura de sobreviventes.
Geralmente, essas falsificações procuram evocar uma forte comoção e uma reação, quando incluem corpos de bebês, crianças ou famílias mortas. Nos primeiros dias da ofensiva de Israel contra o grupo terrorista Hamas, apoiadores do grupo palestino alegaram com imagens falsas que Israel teria atacado deliberadamente crianças e bebês – os quais aparecem chorando nas imagens –, oferecendo como “evidências” fotografias falsas apresentadas como prova.
De acordo com Imran Ahmed, CEO do Centro de Combate ao Ódio Digital, “Quer se trate de um bebê falso ou da imagem real de uma criança de outro conflito, o impacto emocional no espectador é o mesmo”.
A probabilidade do espectador partilhá-la é muito maior quando se trata de imagens repugnantes – espalhando involuntariamente mais e mais desinformação. No entanto, cabe a cada utilizador verificar se o conteúdo que ele recebeu é verídico ou não. É dever de cada cidadão verificar a fonte tanto da informação quanto da imagem antes de compartilhá-la.
Vários especialistas em AI e cientistas políticos alertam para os riscos no próximo ano, quando vários países realizaram eleições importantes, incluindo os EUA. Segundo alguns pesquisadores, essa desinformação está aumentando consideravelmente o antissemitismo no mundo, principalmente entre os jovens universitários.
Empresas de AI em todo o mundo estão trabalhando em novos programas para tentar detectar deepfakes. No entanto, essas novas tecnologias podem não serem eficazes, pois os propagadores de desinformação então sempre um passo a frente. Além da padronização de imagens AI, “será necessários investimentos em programas de alfabetização digital para ajudar os usuários da Internet a descobrir maneiras de distinguir a verdade da fantasia”, diz David Doermann, professor da Universidade de Buffalo.
“Cada vez que lançamos uma ferramenta que detecta isso, nossos adversários podem usar a AI para encobrir essas evidências”, disse Doermann a AP.
Fonte: AP