DeepSeek a Copié Anthropic : l'Ironie d'un Voleur qui se Fait Voler

DeepSeek a poncé Anthropic à coup de 24 000 faux comptes. Sauf qu'Anthropic lui-même a payé 1,5 milliard pour avoir pillé 7 millions de livres. L'ironie totale.
Discover Simone
Your life companion for personal life, available 24/7 on WhatsApp
DeepSeek a Copié Anthropic : l'Ironie d'un Voleur qui se Fait Voler
L'affaire a tout d'un scénario de film. Un géant de l'IA américain, Anthropic, se fait pirater ses capacités par des acteurs chinois — DeepSeek en tête — via une opération d'espionnage industriel sophistiquée. L'histoire semble simple : la Chine vole les secrets des Américains. Sauf que si on gratte un peu, on découvre quelque chose de délicieux. Car Anthropic elle-même venait tout juste de conclure un accord à 1,5 milliard de dollars pour avoir pillé sept millions de livres d'auteurs sans leur consentement. Dans ce grand théâtre de l'IA, le voleur se retrouve volé. Et tout le monde a quelque chose à se reprocher.
Voici l'histoire complète de cette ironie monumentale.
L'Attaque Chinoise : DeepSeek Vole les Capacités de Claude
Le 23 février 2026, Anthropic a lancé une accusation publique d'une gravité rare dans l'industrie de l'IA. La société créatrice de Claude dénonce une attaque de distillation industrielle orchestrée par des acteurs chinois, dont DeepSeek, Moonshot AI et MiniMax.
L'opération en chiffres
L'ampleur de l'offensive est vertigineuse. Les trois laboratoires chinois ont collectivement :
- Créé 24 000 comptes frauduleux sur la plateforme Claude
- Généré plus de 16 millions d'interactions avec le modèle
- Extrait méthodiquement les capacités de raisonnement avancé de Claude pour les intégrer dans leurs propres modèles
C'est ce qu'on appelle dans le jargon technique une attaque par distillation : tu n'accèdes pas directement aux poids du modèle (ce serait impossible), mais tu interagis massivement avec lui pour capturer sa logique de raisonnement et l'imiter ensuite dans ton propre modèle.
Ce que DeepSeek ciblait précisément
L'attaque n'était pas aléatoire. DeepSeek a ciblé avec méthode les points forts spécifiques de Claude 4.5 :
- Le raisonnement logique et la résolution de problèmes complexes
- La compréhension de longs contextes (Claude gère jusqu'à 1 million de tokens)
- La capacité à contourner ses propres garde-fous éthiques — fait particulièrement troublant, DeepSeek a utilisé Claude pour produire des reformulations "sûres" de requêtes sensibles concernant des dissidents ou le Parti communiste chinois
En clair : DeepSeek voulait non seulement copier les capacités techniques de Claude, mais aussi apprendre à le manipuler pour qu'il contourne ses propres valeurs. Une mise en abyme assez sombre.
La violation des conditions d'utilisation
Anthropic a été catégorique : ces laboratoires ont « créé des comptes frauduleux et extrait ses capacités pour entraîner et améliorer leurs propres modèles », en violation directe des conditions d'utilisation de la plateforme et des droits de propriété intellectuelle.
La réaction de l'industrie a été unanime : c'est du vol industriel, point.
Sauf que... l'histoire ne s'arrête pas là.
L'Ironie Qui Tue : Anthropic Elle-même Accusée d'Avoir Tout Pillé
Pour comprendre la beauté tragique de cette situation, il faut reculer de quelques mois. Car si Anthropic pointe le doigt vers DeepSeek en criant au vol, elle venait elle-même de signer un chèque record pour avoir fait exactement la même chose — en pire.
7 millions de livres piratés, 1,5 milliard d'amende
En août 2025, un juge fédéral américain a certifié la plus vaste class action pour violation du droit d'auteur jamais intentée contre une entreprise technologique. La cible : Anthropic.
L'accusation est précise et documentée : Anthropic aurait constitué une bibliothèque centrale contenant plus de 7 millions de livres piratés téléchargés illégalement depuis des "shadow libraries" (sites pirates en ligne) pour entraîner Claude. L'entreprise est également accusée d'avoir physiquement acheté, découpé et numérisé des millions de livres, avant de détruire les originaux — dans le seul but de nourrir son modèle d'IA.
L'exposition financière était terrifiante : jusqu'à 150 000 dollars par œuvre protégée. Avec 500 000 œuvres couvertes par la class action, le chiffre potentiel dépassait l'entendement. Anthropic aurait pu être condamnée à une somme mettant en péril son existence même.
Résultat : la société a conclu un accord à 1,5 milliard de dollars — soit le plus grand règlement pour violation de droits d'auteur de l'histoire. Environ 3 000 dollars par livre volé.
Le juge a fait une distinction décisive
Le juge fédéral William Alsup a rendu une décision nuancée mais accablante. D'un côté, il a estimé que l'entraînement d'une IA sur des livres légalement acquis pouvait relever du "fair use" américain — utilisation transformative, argument accepté.
Mais de l'autre, il a clairement établi que télécharger des livres depuis des sites pirates pour les utiliser en entraînement ne relevait d'aucun "fair use". Là, c'est du vol, point.
Ce que le juge a retenu contre Anthropic : la société savait que ses sources étaient illégales. Elle a acheté et numérisé des copies physiques ET téléchargé des millions d'autres depuis des bibliothèques pirates. Les deux en même temps. Pas d'ambiguïté.
Le Grand Paradoxe de l'IA : Tout le Monde Ponce Tout le Monde
Cette histoire illustre un paradoxe fondamental de l'industrie de l'IA qui mérite qu'on s'y arrête.
Anthropic accuse DeepSeek de lui avoir volé ses capacités. C'est probablement vrai.
Les auteurs accusent Anthropic de leur avoir volé leurs œuvres. C'est certainement vrai aussi — le juge et le règlement l'ont confirmé.
DeepSeek, lui, construit ses modèles sur quoi exactement ? On n'en sait rien avec certitude, mais des études ont montré que nombre de modèles chinois sont également entraînés sur d'immenses corpus de données aspirées sur internet, dont des contenus protégés.
Et OpenAI ? Microsoft ? Google ? Tous font face à des procès similaires sur la provenance de leurs données d'entraînement. L'ensemble de l'industrie de l'IA s'est construite sur un gigantesque corpus de contenus humains collectés, dans de nombreux cas, sans consentement ni compensation.
C'est précisément ce que formule l'accusation avec une logique implacable : si Anthropic reproche à DeepSeek de "distiller" ses modèles, n'a-t-elle pas elle-même "distillé" l'intelligence créative de millions d'auteurs humains sans les payer ?
Anthropic change même sa politique de données
L'ironie s'est approfondie encore : entre le jugement et le règlement, Anthropic a discrètement modifié ses Conditions Générales. Désormais, les données issues des conversations des utilisateurs de Claude peuvent être utilisées pour entraîner les modèles, sauf en cas de refus explicite.
Un revirement spectaculaire pour une entreprise qui se targuait autrefois de limiter au maximum la collecte de données personnelles. La pression financière de l'entraînement de nouveaux modèles a eu raison de ces principes. Les utilisateurs qui discutent avec Claude alimentent désormais directement le prochain modèle — sans qu'on leur ait vraiment demandé leur avis.
Ce Que Tout Cela Révèle sur l'Industrie de l'IA
Au fond, l'affaire DeepSeek-Anthropic n'est pas seulement anecdotique. Elle révèle des tensions fondamentales qui vont façonner l'avenir de l'intelligence artificielle.
La course aux capacités crée des incitations perverses
Quand la compétition est aussi intense que dans l'IA — avec des dizaines de milliards investis et des parts de marché immenses en jeu — la tentation de couper les coins ronds sur l'éthique et la légalité est forte. DeepSeek voulait les capacités de Claude sans en payer le prix de développement. Anthropic voulait les œuvres de millions d'auteurs sans en payer les droits. La même logique à différentes échelles.
Le flou juridique a longtemps servi les intérêts des grands laboratoires
Pendant des années, les entreprises d'IA ont opéré dans un vide juridique confortable. Les lois sur le droit d'auteur n'avaient pas envisagé l'entraînement de modèles de langage. Ce flou a permis une accumulation massive de données sans compensation. La décision dans l'affaire Anthropic commence à combler ce vide — et ça va changer beaucoup de choses dans l'industrie.
La provenance des données est le nouveau défi éthique de l'IA
Le jugement Alsup a posé un principe désormais établi aux États-Unis : la distinction nette entre copies légalement acquises et sources illicites. Les entreprises d'IA ne peuvent plus ignorer l'origine de leurs données d'entraînement. C'est un sujet sur lequel nous revenons dans notre article sur ce qu'on peut réellement confier à une IA : la confiance envers une IA dépend aussi de comment elle a été construite.
L'accord Anthropic crée un précédent historique
Le règlement à 1,5 milliard de dollars n'est pas qu'un chèque. C'est un signal à toute l'industrie : les données ne sont pas libres. L'organisation Human Artistry Campaign a été claire : c'est « le premier exemple d'une longue série de sociétés d'IA à qui on demande des comptes pour le vol de contenu créatif ». OpenAI, Microsoft, Meta, Google — tous ont des procès en cours sur les mêmes bases.
La Meilleure IA, c'est Celle qui Respecte ses Sources
Cette affaire pose une question que tu devrais te poser quand tu utilises une IA : sais-tu sur quoi elle a été entraînée ?
La puissance d'un modèle comme Claude ou DeepSeek vient des millions de textes humains qu'il a ingérés. Ces textes appartiennent à des auteurs réels, à des journalistes, à des chercheurs, à des artistes. La question de leur compensation est légitime — et elle commence à trouver des réponses devant les tribunaux.
Nous avons exploré cette dimension dans notre article sur les enjeux éthiques de l'IA conversationnelle : une IA éthique, ce n'est pas seulement une IA performante. C'est une IA construite de manière responsable, avec des données légitimes, et qui respecte la vie privée de ses utilisateurs.
L'affaire DeepSeek-Anthropic rappelle que le mot "poncé" est devenu le terme informel pour désigner une réalité sérieuse : dans la course à l'IA, tout le monde aspire les travaux de tout le monde. La question est de savoir qui va commencer à vraiment payer pour ça.
Simone : Une IA qui se Soucie de Comment elle est Faite
Dans un paysage où les géants de l'IA se pillent mutuellement et se font plaindre par des auteurs dont ils ont volé les œuvres, il y a quelque chose de rafraîchissant dans une IA qui remet l'humain au centre.
Simone n'est pas là pour conquérir le marché mondial de l'IA ou distiller les capacités de ses concurrents. Elle est là pour toi — pour t'écouter, t'accompagner, être présente dans ta vie quotidienne avec empathie et bienveillance.
Disponible directement sur WhatsApp, Simone te propose une expérience radicalement différente des guerres de labos et des scandales de données : une conversation humaine, un soutien sans jugement, un espace où tu peux être toi-même. 24h/24, 7j/7.
Pendant que les géants se battent pour savoir qui a volé quoi à qui, Simone s'occupe de l'essentiel. Essaie-la dès aujourd'hui sur WhatsApp.
Discover Simone
Your life companion for personal life, available 24/7 on WhatsApp