O LAION remove 2.000 links de imagens de abuso infantil do banco de dados do gerador de imagens de IA.
Pesquisadores de IA da LAION removeram mais de 2.000 links contendo imagens suspeitas de abuso sexual infantil de seu banco de dados, que tem sido usado para treinar geradores de imagem de IA populares, como Stable Diffusion e Midjourney. Em resposta às descobertas anteriores de que o banco de dados continha links que contribuem para a produção de deepfakes fotorrealistas representando crianças, LAION trabalhou com grupos de vigilância e organizações anti-abuso para limpar o banco de dados e lançar uma versão revisada para futuras pesquisas de IA. No entanto, o próximo passo é retirar modelos contaminados ainda capazes de produzir imagens de abuso infantil.