Estudo revela que os sistemas de IA não têm treinamento em empatia e ética, propondo um novo método para alinhar a IA com valores sociais.

Pesquisadores da Universidade Purdue descobriram que os sistemas de IA são treinados principalmente em valores de informação e utilidade, muitas vezes com vista para valores pró-sociais, bem-estar e cívicos. O estudo examinou três conjuntos de dados usados pelas principais empresas de IA e encontrou uma falta de treinamento em empatia, justiça e direitos humanos. A equipe introduziu um método chamado de aprendizado por reforço a partir do feedback humano para ajudar os sistemas de IA a se alinharem com os valores da sociedade, usando conjuntos de dados selecionados para garantir o comportamento ético e melhor servir os valores da comunidade.

Há 2 meses
3 Artigos

Leitura adicional