Aprenda idiomas de forma natural com conteúdo fresco e autêntico!

Tópicos populares
Explorar por região
Golpes de voz de IA que se passam por entes queridos estão aumentando, enganando 25% das pessoas para perder dinheiro.
Em outubro de 2025, os golpes de clonagem de voz com inteligência artificial estão aumentando, com fraudadores usando apenas segundos de áudio para imitar entes queridos em chamadas urgentes e noturnas, alegando crises como acidentes ou prisões.
Uma pesquisa da McAfee descobriu que 25% das pessoas já encontraram tais golpes, e 77% das vítimas perderam dinheiro, muitas vezes milhares, com 70% incapazes de detectar a voz falsa.
Especialistas pedem que as famílias estabeleçam palavras de código privado e usem ferramentas de localização como “Find My” ou Life 360, enfatizando a preparação e a verificação para evitar ser vítima de fraude emocionalmente manipuladora e orientada por IA.
AI voice scams impersonating loved ones are rising, tricking 25% of people into losing money.