Empresa de IA se compromete a reforçar proteções contra uso indevido de letras de músicas em modelos futuros
A Anthropic firmou um acordo para resolver parcialmente um processo de violação de direitos autorais movido por editoras musicais, que acusaram a empresa de usar letras de músicas protegidas para treinar seu modelo de IA, Claude.
O acordo, assinado pela juíza Eumi Lee, exige que a Anthropic aplique as proteções existentes em seus futuros modelos de IA e crie um processo para que as editoras musicais possam intervir caso haja suspeita de violação de direitos autorais.
Mais detalhes sobre o caso
- Em outubro de 2023, editoras como Universal Music, ABKCO, Concord Music Group e Greg Nelson Music processaram a Anthropic.
- A alegação foi que o Claude, chatbot da startup, gerou trechos de músicas protegidas, como “Halo” de Beyoncé, “Uptown Funk” de Mark Ronson e “Moves Like Jagger” do Maroon 5, sem pagar pelas licenças necessárias.
- Embora as editoras reconheçam que sites como Genius também distribuem letras, elas argumentam que esses sites pagam por licenciamento, algo que não teria ocorrido com a Anthropic.

Leia mais:
Com o acordo, a Anthropic se compromete a manter e reforçar as proteções contra violação de direitos autorais e a trabalhar de “boa fé” com as editoras para resolver possíveis falhas nas medidas de proteção.
O tribunal também deve decidir nos próximos meses sobre a solicitação das editoras para impedir que a Anthropic use suas letras protegidas no treinamento de futuros modelos de IA.
A disputa entre empresas de IA e gravadoras musicais não é nova, e em agosto de 2024, Suno e Udio, duas startups de IA que usam músicas de artistas em seus modelos, responderam a ações judiciais de direitos autorais movidas por grandes gravadoras, como Sony Music, Universal Music Group e Warner Records. Leia mais aqui.

Fonte: olhardigital.com.br
Comente