Aprenda idiomas de forma natural com conteúdo fresco e autêntico!

Tópicos populares
Explorar por região
Desde o início de 2024, hackers usaram a IA para aumentar phishing, golpes e operações de influência, visando Taiwan, escolas dos EUA e críticos chineses, mas nenhuma nova ameaça surgiu.
O último relatório de ameaças da OpenAI revela que, desde o início de 2024, atores maliciosos – incluindo golpistas e grupos apoiados pelo Estado – têm cada vez mais usado ferramentas de IA como ChatGPT, Claude e DeepSeek para aprimorar as táticas de cibercrime existentes, como phishing, criação de conteúdo fraudulento e operações de influência, em vez de desenvolver novas.
A empresa interrompeu mais de 40 redes maliciosas, com ataques direcionados ao setor de semicondutores de Taiwan, instituições acadêmicas dos EUA e críticos do Partido Comunista Chinês, muitas vezes usando a IA para automatizar mensagens, construir sites de investimento falsos e fabricar personas de consultores financeiros.
Embora a IA melhore a eficiência e a escala, não surgiram ameaças fundamentalmente novas.
Alguns atores estão se adaptando removendo marcadores estilísticos como em traços para evitar a detecção.
Notavelmente, a IA é agora usada três vezes mais frequentemente para detectar golpes do que para criá-los, destacando seu duplo papel tanto na habilitação quanto no combate ao cibercrime.
As salvaguardas da OpenAI continuam a bloquear pedidos claramente maliciosos.
Since early 2024, hackers have used AI to boost phishing, scams, and influence ops, targeting Taiwan, U.S. schools, and Chinese critics, but no new threats have emerged.