Autores processam a startup de IA Anthropic, acusando-a de usar livros pirateados para treinamento de chatbot.
Em um processo inédito, autores acusaram a startup de IA Anthropic de usar cópias piratas de livros protegidos por direitos autorais para treinar seu chatbot, Claude. A startup, que se apresenta como uma desenvolvedora de IA responsável, está enfrentando alegações de "roubo em larga escala" e minando suas alegações de ser focada em segurança. Este caso se junta a um número crescente de ações judiciais contra desenvolvedores de modelos de linguagem AI de grande porte, como as empresas de tecnologia argumentam que o treinamento de modelos AI cai sob a doutrina de "uso justo", enquanto os autores disputam isso e acusam a Anthropic de usar um conjunto de dados pirateado chamado The Pile.