Anthropic acusa DeepSeek de usar Claude para melhorar seus modelos de IA

Conflito entre empresas levanta debate sobre ética, dados e concorrência na inteligência artificial

Acusações graves no setor de IA

A Anthropic, empresa americana de inteligência artificial conhecida pelo desenvolvimento do modelo Claude, fez uma acusação pública contra a DeepSeek, outra companhia que atua na área. Segundo a Anthropic, a DeepSeek estaria utilizando seu modelo Claude como base para treinar e aprimorar seus próprios sistemas de IA, sem autorização ou acordo formal entre as partes.

A denúncia aponta que isso representaria uma violação das normas éticas da indústria e poderia desequilibrar a competição entre desenvolvedores de modelos de linguagem. A Anthropic afirma que a prática prejudica diretamente seu trabalho de pesquisa e desenvolvimento e cria um ambiente no qual empresas menores poderiam se beneficiar indevidamente de tecnologias criadas por outras.

O que estaria sendo usado indevidamente

De acordo com as alegações, a DeepSeek teria alimentado seus processos de treinamento com dados gerados ou intermediados por Claude, aproveitando as respostas e padrões de linguagem do modelo para “ensinar” seus próprios algoritmos. A Anthropic afirma que essa prática configura uso indevido de propriedade intelectual e mina o valor do trabalho original desenvolvido por sua equipe de engenheiros e pesquisadores.

A denúncia aconteceu em um momento em que o tema de uso de dados, consentimento e propriedade intelectual está cada vez mais sensível no mercado de IA generativa. Empresas de tecnologia enfrentam um dilema crescente sobre como obter dados para treinar seus modelos sem infringir direitos ou explorar indevidamente sistemas de terceiros.

A resposta da DeepSeek

A DeepSeek refutou as acusações e declarou que suas práticas de desenvolvimento são legítimas e baseadas em dados públicos e alinhadas às diretrizes de uso de APIs e serviços de terceiros. A empresa afirmou que qualquer semelhança com respostas de Claude se deve à convergência natural de muitos modelos de linguagem ao aprenderem padrões similares de linguagem humana.

A DeepSeek também disse que está aberta ao diálogo com a Anthropic e que acredita que a concorrência saudável é essencial para o avanço da tecnologia. Na visão da companhia, debates como esse devem ser resolvidos com discussões técnicas e acordos de transparência entre as partes envolvidas.

O impacto dessa disputa

Essa acusação pública revela um problema mais amplo no ecossistema de inteligência artificial: como balancear inovação aberta com proteção de propriedade intelectual e ética nos dados. À medida que os modelos se tornam mais sofisticados, a fronteira entre “dados públicos”, “dados de terceiros” e “criação original” torna-se cada vez mais tênue.

Especialistas em IA apontam que é fundamental definir regras claras sobre uso de modelos existentes para treinar novos sistemas, incluindo limites de acesso a respostas de outros modelos e acordos de compartilhamento de dados. Sem isso, disputas como a entre Anthropic e DeepSeek podem se tornar mais frequentes, com implicações legais, técnicas e de competitividade no mercado global.

O que isso significa para o futuro

A disputa entre as empresas sinaliza que, além de questões técnicas, ações legais e éticas serão cada vez mais relevantes no desenvolvimento de inteligência artificial. A forma como a indústria — e os órgãos reguladores — responderem a conflitos desse tipo pode influenciar não apenas quem lidera o mercado, mas como os modelos de IA evoluem em termos de responsabilidade, transparência e respeito à propriedade intelectual.

Um pouco mais sobre o autor:

Picture of Marketing Team

Marketing Team

Time de marketing da Web7 Digital

Gostou? Compartilhe este post

últimas do blog

Blog

Desde 2017, a Web7 Digitall atua no mercado de tecnologia com a missão de proporcionar inovação através de soluções inteligentes e criativas.

Newsletter

Entre em contato para saber mais informações