Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Anthropic Enfrenta $3B Ação Judicial por Direitos de Autor de Grandes Editoras de Música por Práticas de Treinamento de IA
Resumido
A Anthropic enfrenta uma nova ação de copyright nos EUA, movida por grandes editoras de música, alegando que a empresa utilizou milhares de músicas protegidas sem permissão para treinar a sua IA Claude, potencialmente buscando mais de 3 bilhões de dólares em indemnizações.
A empresa de pesquisa em IA Anthropic enfrenta uma nova ação de copyright apresentada na quarta-feira no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia por um grupo de grandes editoras de música, incluindo Universal Music Group, Concord e ABKCO. A queixa alega que a empresa utilizou indevidamente obras musicais protegidas para treinar o seu chatbot Claude sem autorização.
De acordo com as editoras, a Anthropic reproduziu e incorporou ilegalmente mais de 700 composições individuais, incluindo letras de músicas e partituras de títulos como “Wild Horses” dos Rolling Stones, “Sweet Caroline” de Neil Diamond e “Bennie and the Jets” de Elton John. O processo ainda afirma que o uso de material protegido pela empresa vai além desses exemplos e afeta milhares de obras adicionais de propriedade ou administração dos autores.
Numa declaração pública acompanhando o processo, as editoras disseram que estão a perseguir reivindicações de infração que cobrem mais de 20.000 músicas no total e procuram indemnizações estatutárias que podem ultrapassar os 3 bilhões de dólares. Descreveram a ação como potencialmente um dos maiores casos de copyright sem ação coletiva já movidos nos Estados Unidos.
A ação afirma que coleções de livros supostamente pirateados utilizados no processo de treino continham partituras e letras protegidas por direitos de autor associadas a pelo menos 714 músicas controladas pelas editoras. Os autores argumentam que a reprodução e uso desses materiais violaram os seus direitos exclusivos ao abrigo da lei de copyright dos EUA.
O caso foi apresentado sob o título Concord Music Group Inc. v. Anthropic PBC, No. 3:26-cv-00880, no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia. A representação legal das editoras inclui advogados da Oppenheim + Zebrak, Coblentz Patch Duffy & Bass, e Cowan, Liebowitz & Latman.
Editoras de Música Escalam Caso de Copyright Contra Anthropic Enquanto Práticas de Treino de IA Enfrentam Fiscalização Legal nos EUA
Esta ação recentemente apresentada sucede e expande um caso separado iniciado pelo mesmo grupo de editoras de música contra a Anthropic em 2023, que também se centrava nas alegações de que a empresa usou o seu material protegido por direitos de autor para treinar o seu grande modelo de linguagem Claude para gerar respostas a prompts de utilizadores. A Anthropic rejeitou publicamente as alegações feitas em ambas as ações e mantém que as suas práticas de treino cumprem a lei aplicável.
A disputa surge num contexto de um importante desenvolvimento legal envolvendo a Anthropic no ano passado, quando a empresa chegou a um acordo de 1,5 mil milhões de dólares numa ação de copyright separada movida por um grupo de autores de livros. Nesse caso, o Juiz Distrital dos EUA William Alsup concluiu que a doutrina do uso justo protegia a Anthropic de responsabilidade por infração, especificamente, pelo uso de livros protegidos por direitos de autor para treino de inteligência artificial. Ao mesmo tempo, o tribunal indicou que a empresa poderia ainda assim enfrentar uma exposição separada por cópia não autorizada dos próprios livros subjacentes, observando que tal conduta poderia, em teoria, gerar indemnizações que atingissem até 1 trilhão de dólares.
O crescente volume de litígios reflete um confronto jurídico e regulatório mais amplo entre criadores e desenvolvedores de inteligência artificial. No setor tecnológico, as principais empresas de IA estão cada vez mais a ser alvo de titulares de direitos de autor, incluindo escritores, editoras de música e artistas visuais, que alegam que as suas obras foram usadas sem permissão para treinar modelos generativos. Em resposta, muitas empresas de tecnologia têm argumentado consistentemente que a ingestão de material protegido por direitos de autor para fins de treino enquadra-se no uso justo ao abrigo da lei de copyright dos EUA, preparando o terreno para uma série de decisões judiciais históricas que se espera venham a moldar o futuro do desenvolvimento de IA e dos direitos de propriedade intelectual.