Os sites de notícias usam "robots.txt" para bloquear a Apple de raspar seus sites para dados de treinamento de IA.
Grandes plataformas como o Facebook e o New York Times estão usando um arquivo chamado "robots.txt" para impedir a Apple de raspar seus sites para fins de treinamento de IA. A Apple tem oferecido aos editores milhões de dólares para raspar seus sites, com o objetivo de usar os dados para o treinamento de IA. O arquivo robots.txt, que permite que os proprietários de sites indiquem que não querem que seus sites sejam raspados, demonstra que muitos sites de notícias estão optando por impedir que a Apple Intelligence acesse seu conteúdo.
August 29, 2024
130 Artigos