A Anthropic, criadora do chatbot Claude, obteve uma significativa vitória judicial nos Estados Unidos, após um tribunal ter determinado que o uso de dados protegidos por direitos autorais pela empresa para treinar seus modelos de IA foi "uso justo".
De acordo com o processo, a empresa, que tem investimento da Amazon e negócios com a Apple, usou milhões de livros protegidos por direitos autorais, inclusive obtidos por sites de pirataria ou digitalizados de cópias físicas.
Um juiz de San Francisco determinou fair use (uso justo) do conteúdo, algo que pode reverberar em toda a indústria de IA, considerando que há muitos processos ativos de detentores de direitos autorais contra empresas de tecnologia sobre uso de conteúdo protegido para treinar modelos de linguagem.
Um dos principais casos, por exemplo, é o processo do New York Times contra a OpenAI, pelo uso não permitido do acervo do jornal para treinar os sistemas por trás do ChatGPT. Outros escritores também processaram a empresa.
A Anthropic foi a primeira empresa de IA a ganhar uma disputa judicial do tipo nos EUA – que, por abrigar as maiores empresas de tecnologia do mundo, pode estabelecer o padrão legal a ser usado em outros países.
Mas a Anthropic não vai sair ilesa disso: o juiz determinou que a empresa pirateou de fato os conteúdos, armazenando mais de 7 milhões de livros, o que violou os direitos dos autores e não foi uso justo. Ou seja, o juiz determinou que o conteúdo pode ser usado para treinar modelos, mas não poderia ter sido copiado para uma "biblioteca central".
Deve haver um novo julgamento no fim do ano pra decidir quanto a empresa tem que pagar.