'Chats' de IA violam conteúdo de acesso restrito a assinantes de veículos jornalísticos
A crescente utilização de inteligência artificial para acessar conteúdos jornalísticos restritos levanta preocupações sobre violação de direitos autorais. Especialistas apontam a necessidade urgente de regulamentação para proteger a propriedade intelectual na era digital.
Ferramentas de IA, como o ChatGPT, têm contornado bloqueios de sites jornalísticos para fornecer informações de artigos e reportagens que são acessíveis apenas a assinantes.
A IA cita as fontes, mas revela conteúdos sem que o usuário precise acessar os sites, mesmo em materiais protegidos.
Esse cenário gera um novo campo para ações judiciais relacionadas a direitos autorais, especialmente para publicações que restringiram o uso de seus conteúdos no treinamento de modelos de IA, como os veículos da Editora Globo.
Testes demonstraram que o ChatGPT não apenas resume, mas também oferece trechos literais de textos restritos. Em um exemplo, a IA forneceu um resumo detalhado da coluna da Malu Gaspar, incluindo citações e análises aprofundadas.
Outras IAs, como Grok e Perplexity, também demonstraram a capacidade de extrair trechos inteiros de textos restritos, com o último fornecendo parágrafos exatamente idênticos.
De acordo com Luca Belli, professor da FGV, isso configura uma apropriação indevida de propriedade intelectual. Mesmo com bloqueios técnicos, existe a dificuldade de controlar o uso de conteúdo durante respostas em tempo real de IA.
A News Corp e diversas outras organizações entraram com ações judiciais contra ferramentas de IA por usar conteúdo jornalístico sem autorização. O uso não autorizado de conteúdo ainda carece de regulação no Brasil, mas já é classificado como infração à legislação de direitos autorais.
Os especialistas pedem um marco regulatório que assegure o consentimento e a remuneração para o uso de conteúdo jornalístico, afirmando que qualquer uso sem autorização pelo titular dos direitos representa violação.