Aprenda idiomas de forma natural com conteúdo fresco e autêntico!

Tópicos populares
Explorar por região
A IA deepfakes falsamente implicado um oficial do ICE e vítimas mal identificadas em um tiroteio janeiro 2026 Minneapolis, espalhando-se rapidamente on-line, apesar de nenhuma filmagem real.
Os deepfakes gerados pela IA da vítima e atirador em janeiro de 2026, em um tiroteio fatal em Minneapolis, se espalharam rapidamente nas mídias sociais, revelando falsamente a identidade do oficial do ICE, alterando digitalmente as imagens da vítima e identificando erroneamente indivíduos não relacionados.
Apesar de nenhuma filmagem autêntica mostrando o rosto do oficial, ferramentas como o Grok de Elon Musk foram usadas para criar imagens hiper-realistas, mas fabricadas, incluindo representações explícitas e desumanizantes.
Informações erradas ligaram falsamente o policial a um homem chamado Steve Grove e deturparam outras pessoas, enquanto um trecho do governador da Flórida
Ron DeSantis foi falsamente apresentado como comentário sobre o incidente.
Os especialistas confirmam que o oficial é Jonathan Ross, e a vítima era Renee Nicole Good.
O incidente destaca os perigos da desinformação alimentada por IA nas notícias de última hora, corroendo a confiança do público e distorcendo a realidade.
AI deepfakes falsely implicated an ICE officer and misidentified victims in a Jan 2026 Minneapolis shooting, spreading rapidly online despite no real footage.