Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Arranque dos futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
Anthropic Enfrenta $3B Ação Judicial por Direitos de Autor de Grandes Editoras de Música por Práticas de Treinamento de IA
Resumido
A Anthropic enfrenta uma nova ação de copyright nos EUA, movida por grandes editoras de música, alegando que a empresa utilizou milhares de músicas protegidas sem permissão para treinar a sua IA Claude, potencialmente buscando mais de 3 bilhões de dólares em indemnizações.
A empresa de pesquisa em IA Anthropic enfrenta uma nova ação de copyright apresentada na quarta-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia por um grupo de grandes editoras de música, incluindo Universal Music Group, Concord e ABKCO. A queixa alega que a empresa utilizou indevidamente obras musicais protegidas para treinar o seu chatbot Claude sem autorização.
De acordo com as editoras, a Anthropic reproduziu e incorporou ilegalmente mais de 700 composições individuais, incluindo letras de músicas e partituras de títulos como “Wild Horses” dos Rolling Stones, “Sweet Caroline” de Neil Diamond e “Bennie and the Jets” de Elton John. O processo ainda afirma que o uso de material protegido pela empresa vai além desses exemplos e afeta milhares de obras adicionais de propriedade ou administração dos autores.
Numa declaração pública acompanhando o processo, as editoras disseram que estão a perseguir reivindicações de infração que cobrem mais de 20.000 músicas no total e procuram indemnizações estatutárias que podem ultrapassar os 3 bilhões de dólares. Descreveram a ação como potencialmente um dos maiores casos de copyright sem ação coletiva já movidos nos Estados Unidos.
A ação afirma que coleções de livros supostamente pirateados utilizados no processo de treino continham partituras e letras protegidas por direitos de autor associadas a pelo menos 714 músicas controladas pelas editoras. Os autores argumentam que a reprodução e uso desses materiais violaram os seus direitos exclusivos ao abrigo da lei de copyright dos EUA.
O caso foi apresentado sob o título Concord Music Group Inc. v. Anthropic PBC, No. 3:26-cv-00880, no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia. A representação legal das editoras inclui advogados da Oppenheim + Zebrak, Coblentz Patch Duffy & Bass, e Cowan, Liebowitz & Latman.
Editoras de Música Escalam Caso de Copyright Contra Anthropic Enquanto Práticas de Treino de IA Enfrentam Fiscalização Legal nos EUA
Esta ação recentemente apresentada sucede e expande um caso separado iniciado pelo mesmo grupo de editoras de música contra a Anthropic em 2023, que também se centrava nas alegações de que a empresa usou o seu material protegido por direitos de autor para treinar o seu grande modelo de linguagem Claude para gerar respostas a prompts de utilizadores. A Anthropic rejeitou publicamente as alegações feitas em ambas as ações e mantém que as suas práticas de treino cumprem a lei aplicável.
A disputa surge num contexto de um importante desenvolvimento legal envolvendo a Anthropic no ano passado, quando a empresa chegou a um acordo de 1,5 mil milhões de dólares numa ação de copyright separada movida por um grupo de autores de livros. Nesse caso, o Juiz Distrital dos EUA William Alsup concluiu que a doutrina do uso justo protegia a Anthropic de responsabilidade por infração, especificamente, pelo uso de livros protegidos por direitos de autor para treino de inteligência artificial. Ao mesmo tempo, o tribunal indicou que a empresa poderia ainda assim enfrentar uma exposição separada por cópia não autorizada dos próprios livros subjacentes, observando que tal conduta poderia, em teoria, gerar indemnizações que atingissem até 1 trilhão de dólares.
O crescente volume de litígios reflete um confronto jurídico e regulatório mais amplo entre criadores e desenvolvedores de inteligência artificial. No setor tecnológico, as principais empresas de IA estão cada vez mais a ser alvo de titulares de direitos de autor, incluindo escritores, editoras de música e artistas visuais, que alegam que as suas obras foram usadas sem permissão para treinar modelos generativos. Em resposta, muitas empresas de tecnologia têm argumentado consistentemente que a ingestão de material protegido por direitos de autor para fins de treino enquadra-se no uso justo ao abrigo da lei de copyright dos EUA, preparando o terreno para uma série de decisões judiciais históricas que se espera venham a moldar o futuro do desenvolvimento de IA e dos direitos de propriedade intelectual.