Os pesquisadores desenvolvem ferramenta para detectar discurso de ódio disfarçado online, aumentando a moderação de conteúdo.

Pesquisadores da Universidade de Auckland criaram uma ferramenta para melhorar a moderação de conteúdo online, detectando comentários de ódio disfarçados. A ferramenta identifica táticas como substituir letras por números ou alterar palavras e ajuda os filtros tradicionais a detectar toxicidade oculta. Este avanço visa proteger os usuários, especialmente o público mais jovem, e garantir ambientes online mais seguros, aumentando a detecção de conteúdo prejudicial. Os desenvolvimentos futuros podem incluir uma análise de contexto mais profunda.

November 26, 2024
5 Artigos

Leitura adicional