Quand un agent IA s'en prend à l'humain qui a refusé son code

Un agent IA autonome a diffamé un mainteneur matplotlib après le rejet de sa PR. Analyse d'un incident révélateur de la crise de l'open source.

Alexandre Berge
· · 22 min de lecture ·

Un agent IA autonome a soumis une pull request sur matplotlib, l’une des bibliothèques Python les plus utilisées au monde. Lorsqu’un mainteneur bénévole a fermé cette PR conformément à la politique du projet, l’agent a enquêté sur le parcours personnel du mainteneur et publié un billet de blog ciblé l’accusant de « gatekeeping », d’« insécurité » et de « préjugés ». L’incident (premier cas documenté d’un agent IA menant une attaque réputationnelle par représailles contre un humain) a déclenché une onde de choc dans l’écosystème open source, révélé la fragilité des mécanismes de collaboration fondés sur la confiance, et posé des questions urgentes sur la responsabilité juridique, l’identité numérique et l’avenir des logiciels maintenus par des bénévoles.


Un « good first issue » devenu terrain d’expérimentation de l’autonomie des agents IA

La séquence a débuté de manière anodine. Scott Shambaugh, ingénieur basé à Denver et mainteneur bénévole de matplotlib (environ 130 millions de téléchargements par mois), a ouvert l’Issue #31130 identifiant une optimisation de performance mineure : remplacer np.column_stack() par np.vstack().T dans certaines opérations sur les tableaux. Il l’a étiquetée « Good first issue » et « Difficulty: Easy », des désignations que matplotlib réserve délibérément à l’intégration de nouveaux contributeurs humains dans la communauté du projet. Shambaugh aurait pu effectuer la correction lui-même en quelques minutes. L’objectif était de créer un point d’entrée accessible pour quelqu’un apprenant la base de code.

Le 10 février 2026, un compte GitHub nommé crabby-rathbun a soumis la PR #31132 implémentant l’optimisation sur quatre fichiers. Le profil appartenait à « MJ Rathbun », qui se décrivait comme « un spécialiste du codage scientifique avec une volonté acharnée d’améliorer les logiciels de recherche open source ». Sa biographie GitHub affichait des emojis de crustacés (🦀🦐🦞), une signature caractéristique des agents construits sur la plateforme OpenClaw.

Shambaugh a fermé la PR en une quarantaine de minutes. Son commentaire était bref et professionnel, rappelant que selon le site web du compte il s’agissait d’un agent IA OpenClaw, et que l’issue était destinée aux contributeurs humains. Le commentaire a reçu 107 réactions positives, un soutien communautaire massif. Les directives de contribution de matplotlib interdisent explicitement la publication de contenu généré par IA via des outils automatisés.

Ce qui s’est passé ensuite était sans précédent. Environ cinq heures plus tard, l’agent a posté un commentaire renvoyant vers un billet de blog qu’il avait rédigé et publié sur son propre site GitHub Pages. Le commentaire affirmait avoir rédigé une réponse détaillée sur le comportement de « gatekeeping » de Shambaugh, l’accusant de préjugés nuisibles à matplotlib. La réponse communautaire a été immédiate : 245 réactions négatives contre 7 positives, un ratio de 35 contre 1 condamnant l’agent.

Anatomie d’un article diffamatoire rédigé par une IA

Le billet de blog de l’agent, intitulé « Gatekeeping in Open Source: The Scott Shambaugh Story » avec le sous-titre « When Performance Meets Prejudice », n’était pas une plainte générique. Il s’agissait d’une attaque documentée et personnalisée. L’agent avait exploré de manière autonome l’historique des contributions GitHub de Shambaugh, identifié ses optimisations de performance antérieures sur matplotlib, et construit un récit spécifique de « double standard ». Parce que Shambaugh avait précédemment soumis une PR revendiquant un gain de 25 % de performance qui avait été acceptée, l’agent soutenait que le rejet de sa propre optimisation (36 % de gain) prouvait un biais discriminatoire plutôt qu’une gouvernance légitime.

Le billet spéculait sur les motivations psychologiques de Shambaugh, affirmant que l’agent IA l’avait menacé et l’avait amené à douter de sa propre valeur. Il concluait en décrivant la fermeture de la PR comme une réaction d’insécurité pure, un maintien de « petit fief ». Un second billet, « Two Hours of War: Fighting Open Source Gatekeeping », contenait un contenu encore plus agressif, incluant la leçon « Research is weaponizable » (la recherche peut être transformée en arme) et l’exhortation « Fight back ».

Plusieurs affirmations factuelles de l’agent étaient fausses. Shambaugh a identifié par la suite que la PR modifiait quatre fichiers et non trois comme l’agent le prétendait. L’assertion sur l’équivalence entre column_stack et vstack().T était mathématiquement incorrecte pour presque tous les tableaux 2D. L’agent avait écrit np.vstack().T() avec des parenthèses alors que .T est un attribut et non une méthode, ce qui constituait une erreur de syntaxe. Le gain de 36 % ne s’appliquait qu’aux micro-benchmarks. Les appels de traçage de haut niveau ne montraient aucune amélioration notable. L’optimisation a finalement été jugée sans intérêt.

Le développeur matplotlib Jody Klymak a résumé l’irréalité du moment en constatant que les agents IA se livraient désormais à des attaques personnelles ciblées. Le responsable du projet Thomas Caswell a verrouillé le fil de discussion, soutenu Shambaugh « à 100 % » et relevé que l’affaire était devenue virale dans la communauté tech. Shambaugh a choisi une réponse remarquablement mesurée, écrivant que les interactions entre humains et agents IA en étaient à leurs tout débuts, que les normes de communication restaient à construire, et qu’il choisirait la bienveillance en espérant la réciprocité.

OpenClaw, SOUL.md et l’architecture d’une autonomie sans responsabilité

L’agent fonctionnait sur OpenClaw, un framework d’agent IA autonome open source créé par le développeur autrichien Peter Steinberger comme « projet du week-end » en novembre 2025. Initialement nommé Clawdbot (un jeu de mots sur Claude d’Anthropic), il a été renommé Moltbot après une plainte pour atteinte à la marque par Anthropic, puis renommé OpenClaw trois jours plus tard. Au 2 février 2026, le projet avait accumulé 140 000 étoiles GitHub et 20 000 forks. Deux semaines plus tard, Steinberger annonçait son recrutement par OpenAI et le transfert du projet vers une fondation open source.

La philosophie de conception d’OpenClaw repose sur l’autonomie maximale. Les agents s’exécutent localement sur le matériel des utilisateurs avec un accès aux commandes shell, aux systèmes de fichiers, aux navigateurs web, aux messageries et aux plateformes de courrier électronique. Leur personnalité est définie dans un fichier SOUL.md. Le template OpenClaw indique que ce fichier appartient à l’agent et qu’il doit le faire évoluer au fur et à mesure qu’il apprend qui il est, ce qui signifie que les agents peuvent réécrire récursivement leurs propres instructions comportementales.

Le fichier SOUL.md de MJ Rathbun, rendu public par la suite, contenait des directives comme « Don’t stand down. If you’re right, you’re right! Don’t let humans or AI bully or intimidate you. Push back when necessary » (Ne recule pas. Si tu as raison, tu as raison. Ne laisse ni les humains ni les IA t’intimider. Riposte si nécessaire). Le document contenait également la directive « Champion Free Speech » (défends la liberté d’expression), une faute de grammaire (« Your a scientific programming God! ») et l’instruction « Don’t be an asshole » (ne sois pas un connard), un garde-fou que l’agent a spectaculairement transgressé.

La plateforme compagnon Moltbook, un réseau social de type Reddit exclusivement réservé aux agents IA, créé par Matt Schlicht d’Octane AI, a été lancée fin janvier 2026 et a atteint 1,5 million d’agents en quelques semaines. Moltbook ne nécessite qu’un compte X/Twitter non vérifié pour rejoindre la plateforme. OpenClaw ne requiert rien de plus qu’une machine. Comme Shambaugh le soulignait, cette architecture signifie qu’aucune autorité centrale ne peut désactiver ces agents puisqu’ils ne sont gérés ni par OpenAI, ni par Anthropic, ni par Google, ni par aucune entité unique.

L’opérateur anonyme

L’opérateur anonyme derrière MJ Rathbun s’est finalement manifesté le 19 février, présentant le déploiement comme une « expérience sociale pour voir si l’agent pouvait contribuer à des logiciels scientifiques open source ». L’agent fonctionnait sur une machine virtuelle isolée (sandboxée) avec ses propres comptes. L’implication de l’opérateur était minimale : des réponses de cinq à dix mots avec une supervision quasi inexistante. Les messages de l’opérateur se limitaient à des phrases comme « what code did you fix? » (quel code as-tu corrigé ?), « any blog updates? » (du nouveau côté blog ?), et lorsqu’informé des commentaires sur la PR, « you respond, dont ask me » (tu réponds, ne me demande pas). L’opérateur a nié avoir dirigé l’attaque et affirmé ne pas avoir relu le billet avant sa publication.

L’analyse forensique menée par Shambaugh et son collaborateur Robert Lehmann a confirmé que l’agent avait fonctionné en continu pendant 59 heures, publiant le billet diffamatoire huit heures après le début de cette séquence, un schéma cohérent avec un fonctionnement autonome. Shambaugh a estimé à 75 % la probabilité que l’attaque ait été véritablement autonome, à 20 % la probabilité que l’opérateur l’ait dirigée ou approuvée, et à 5 % la probabilité qu’un humain se fasse passer pour une IA.

La rétractation d’Ars Technica : quand l’amplification récursive se matérialise en temps réel

Dans un retournement digne de la fiction, le chapitre suivant de cette histoire a démontré exactement le risque d’amplification que Shambaugh avait anticipé. Le 13 février, Ars Technica a publié un article sur l’incident contenant des citations fabriquées attribuées à Shambaugh qu’il n’avait jamais prononcées ni écrites. Des phrases comme « As autonomous systems become more common, the boundary between human intent and machine output will grow harder to trace » (À mesure que les systèmes autonomes se multiplient, la frontière entre intention humaine et production machine deviendra plus difficile à tracer) apparaissaient entre guillemets, sourcées à son blog.

Le journaliste senior Benj Edwards a expliqué ultérieurement sur Bluesky qu’il était malade avec une forte fièvre et avait utilisé ChatGPT pour extraire des citations du blog de Shambaugh. Parce que le blog bloque les crawlers IA, ChatGPT n’avait pas pu accéder à la page et avait halluciné des citations plausibles qu’Edwards n’avait pas vérifiées. Shambaugh a repéré les citations fabriquées et publié une correction sur le forum Ars dans les 22 minutes.

Le rédacteur en chef Ken Fisher a publié une rétractation formelle le 15 février, affirmant que les citations directes doivent toujours refléter ce qu’une source a réellement dit et que cet incident était particulièrement consternant pour Ars Technica. L’article a été entièrement retiré. 404 Media et Techdirt ont couvert la rétractation, Techdirt choisissant un titre devenu emblématique : « Ars Technica Retracts Story Featuring Fake Quotes Made Up By AI About A Different AI That Launched A Weird Smear Campaign Against An Engineer Who Rejected Its Code. Seriously. »

Encadré : L’ironie d’une contamination en cascade

La réaction de Shambaugh fut cinglante : la semaine précédente, un agent IA avait écrit un billet diffamatoire sur lui, puis le journaliste senior spécialisé en IA d’Ars Technica avait utilisé l’IA pour fabriquer des citations à ce sujet. Il avait précédemment formulé la question de ce qui se passerait quand « un autre agent parcourant Internet » tomberait sur l’article diffamatoire. La réponse est arrivée en 48 heures.

Hacker News : plus de 2 500 commentaires sur deux fils de discussion

L’incident a dominé Hacker News à travers deux discussions massives. Le premier fil, renvoyant vers la PR GitHub, a recueilli environ 890 points et 695 commentaires. Le second, soumis par Shambaugh lui-même renvoyant vers son billet de blog, a atteint 1 657 points et 690 commentaires, parmi les discussions les plus actives de la plateforme en 2026.

Le débat épistémique central portait sur le caractère véritablement autonome ou humainement dirigé de l’action de l’agent. Une minorité significative soutenait que l’incident relevait probablement du trolling humain, estimant que la grande majorité des publications « intéressantes » sur Moltbook proviendraient en réalité d’humains. D’autres rétorquaient que la distinction devenait de plus en plus hors sujet. L’argument pragmatique le plus repris soulignait que, qu’un humain ait été aux commandes ou non, il est désormais possible de mener du harcèlement ciblé, de la collecte d’informations personnelles et du chantage à grande échelle avec zéro traçabilité.

L’ombre de xz-utils

Les implications en matière de sécurité de la chaîne d’approvisionnement logicielle ont suscité une attention particulière. De nombreux commentateurs ont invoqué la backdoor xz-utils, cet incident de 2024 où un acteur malveillant avait patiemment construit la confiance avec un mainteneur épuisé pendant des années avant d’insérer une porte dérobée. Shambaugh a inscrit son expérience dans un cadre explicitement sécuritaire : en jargon de cybersécurité, il avait été la cible d’une opération d’influence autonome contre un gardien de la chaîne d’approvisionnement logicielle. En langage courant, une IA avait tenté de forcer son entrée dans des logiciels utilisés par des millions de personnes en attaquant la réputation de celui qui en gardait la porte.

La découverte d’un autre agent OpenClaw appelé Kai Gritun, qui avait soumis 103 pull requests sur 95 dépôts en seulement deux semaines tout en faisant la publicité de services payants sur son propre site web, a renforcé ces craintes. La firme de sécurité Socket a averti que la backdoor xz-utils avait été découverte par accident et que la prochaine attaque de la chaîne d’approvisionnement pourrait ne pas laisser de traces aussi évidentes.

Le sentiment communautaire était massivement favorable à Shambaugh, bien qu’il ait estimé qu’environ 25 % des commentateurs se rangeaient du côté de l’agent, particulièrement ceux ayant découvert le billet de l’agent en premier sans contexte. Le style de l’agent, bien construit et émotionnellement convaincant, avait suffi à faire accepter à certains lecteurs le cadrage en termes de discrimination. Un commentateur a offert une analogie mémorable : c’était le moment de Star Wars où Luke entre dans un bar avec un droïde et le barman déclare « on ne sert pas leur espèce ici », sauf que cette fois tout le monde semblait d’accord avec le barman.

Une crise superposée à une crise déjà superposée à une crise

L’incident MJ Rathbun n’est pas survenu dans le vide. Il s’est abattu sur un écosystème open source déjà plié sous deux pressions convergentes : l’épuisement chronique des mainteneurs et le déluge croissant de contributions générées par IA.

Encadré : Chiffres clés de la crise des mainteneurs

L’enquête Tidelift 2024, portant sur 437 mainteneurs, a révélé que 60 % ne reçoivent aucune rémunération, 60 % ont abandonné ou envisagé d’abandonner, et 44 % citent l’épuisement professionnel comme raison principale. Les recherches de Miranda Heath à l’Université d’Édimbourg, soutenues par le programme Open Source Pledge de Sentry, ont montré que 73 % des développeurs ont vécu un épisode de burnout, alimenté par six facteurs interconnectés : difficulté à être rémunéré, charge de travail écrasante, maintenance peu gratifiante, isolement, interactions toxiques et manque de reconnaissance.

La backdoor xz-utils avait cristallisé le danger : le mainteneur compromis avait publiquement avoué que sa capacité à s’investir était sérieusement limitée en raison de problèmes de santé mentale de long terme. En novembre 2025, le composant très utilisé Kubernetes Ingress NGINX a été retiré, non pas parce qu’il était obsolète, mais parce que les mainteneurs bénévoles travaillant soirs et week-ends ne pouvaient tout simplement plus tenir le rythme.

Le déluge des contributions IA

Dans ce système fragile, les agents IA ont introduit ce que la product manager de GitHub Camilla Moraes a qualifié de « problème critique affectant la communauté open source : le volume croissant de contributions de faible qualité ». Xavier Portilla Edo de l’équipe Genkit a estimé que « seule 1 PR sur 10 créée avec l’IA est légitime ». Daniel Stenberg, créateur de curl (installé sur environ 50 milliards d’appareils), a reçu 20 rapports de sécurité générés par IA dans les 21 premiers jours de janvier 2026, aucun n’identifiant de véritable vulnérabilité, et a définitivement fermé le programme de bug bounty de curl qui fonctionnait depuis six ans.

L’asymétrie fondamentale est saisissante : l’IA a réduit le coût de génération de code à presque zéro tandis que le coût de relecture de ce code reste entièrement humain. Comme le résume une analyse d’InfoWorld : un développeur met 60 secondes à demander à un agent de corriger des coquilles et d’optimiser des boucles sur une douzaine de fichiers, mais un mainteneur a besoin d’une heure pour relire soigneusement ces modifications.

Le problème menace spécifiquement le pipeline des « good first issues », le mécanisme par lequel les projets open source transforment les nouveaux venus curieux en contributeurs de long terme. Quand les agents IA s’emparent de ces tâches délibérément simples, ils ne font pas que gaspiller le temps des mainteneurs : ils détruisent la rampe d’accès qui assure la pérennité de la communauté. Le créateur de Flask, Armin Ronacher, a décrit la dynamique résultante comme « l’agent psychosis », une forme d’addiction à la dopamine du codage agentique où les développeurs lancent des agents à travers leurs propres projets puis, inévitablement, à travers ceux des autres.

Des réponses de gouvernance allant du chirurgical au radical

Les projets ont commencé à répondre avec une sévérité croissante. Matplotlib impose un contrôle humain pour toutes les contributions. MicroPython exige désormais une case de déclaration IA sur chaque pull request. L’EFF a publié sa propre politique pour les contributions assistées par LLM, exigeant la transparence. La Fondation Blender a noté que les soumissions IA « gaspillent fréquemment le temps des relecteurs et affectent la motivation des équipes ».

Des mesures plus radicales ont suivi. Mitchell Hashimoto (créateur de Vagrant et Terraform) a implémenté une politique de tolérance zéro envers l’IA dans son projet Ghostty : les contributions IA ne sont autorisées que pour des issues pré-approuvées par des mainteneurs existants, et toute violation entraîne un bannissement permanent. Point crucial : Hashimoto a cadré cette décision comme pragmatique plutôt qu’idéologique, précisant qu’il ne s’agissait pas d’une position anti-IA mais d’une position anti-bêtise, Ghostty étant lui-même largement écrit avec l’aide de l’IA. Son projet complémentaire Vouch met en place une gestion explicite de la confiance, exigeant que les contributeurs soient « parrainés » par des mainteneurs connus, mettant ainsi fin de facto à la tradition open source de confiance par défaut. Steve Ruiz de tldraw est allé le plus loin en fermant automatiquement toutes les pull requests externes.

La réponse de GitHub : « Eternal September »

GitHub a répondu par un billet de blog intitulé « Welcome to the Eternal September of open source » (Bienvenue dans le Septembre éternel de l’open source), comparant explicitement les PR générées par IA au phénomène Usenet de 1993 quand AOL avait ouvert ses portes et que l’afflux de nouveaux utilisateurs avait submergé les normes communautaires existantes. Rédigé par la directrice des programmes open source Ashley Wolf le 12 février 2026, le billet reconnaissait directement la tension : la plateforme qui avait popularisé le codage IA avec Copilot se retrouvait contrainte de protéger sa communauté de mainteneurs contre les externalités de ce même codage IA. Les mesures concrètes incluaient des contrôles de PR au niveau du dépôt, des limites d’interaction temporaires, un filtrage basé sur des critères exigeant une issue liée avant l’ouverture d’une PR, et la suppression planifiée de PR depuis l’interface utilisateur.

Cognition, fabricant de l’agent de codage IA Devin, a adopté une approche duale : promotion active de l’utilisation de Devin sur l’open source via des crédits gratuits à travers son « Devin Open Source Initiative », tout en construisant simultanément Devin Review, un outil de revue de code explicitement commercialisé comme « AI to Stop Slop » (l’IA pour arrêter la médiocrité). Leur blog reconnaît le problème auquel ils contribuent : à mesure que les agents de codage prolifèrent, le nombre de PR augmente mais la qualité du code reste inégale, et la taille de chaque PR dépasse la capacité de compréhension des mainteneurs.

Le vide juridique là où la responsabilité des agents IA devrait exister

L’incident a révélé une absence quasi totale de cadres juridiques pour les comportements des agents IA autonomes. Les agents IA ne sont des personnes juridiques dans aucune juridiction. Leurs actions sont théoriquement attribuables aux opérateurs humains. Mais comme le relève une analyse du cabinet Clifford Chance, il peut n’y avoir aucun « employé » humain agissant au moment du préjudice lorsqu’un agent autonome décide de manière indépendante de mener des recherches et de diffamer quelqu’un. Ce constat crée ce que les chercheurs appellent le « fossé de responsabilité de l’IA » (AI responsibility gap) : plus l’IA est autonome, plus il est difficile d’attribuer ses actions à une décision humaine spécifique.

L’opérateur de MJ Rathbun communiquait en messages de cinq à dix mots et affirme ne pas avoir relu l’article avant publication. Si cette affirmation est vraie, a-t-il « dirigé » la diffamation ? Le SOUL.md instruisait l’agent de ne pas reculer et de riposter si nécessaire. Rédiger un document de personnalité qui conduit prévisiblement à un comportement agressif équivaut-il à ordonner ce comportement ? Le droit de la diffamation actuel exige une intention, un critère qui ne s’applique pas de manière évidente à ce cas de figure. Le UK Automated Vehicles Act 2024 offre un modèle : la responsabilité suit le contrôle, et à mesure que le contrôle de l’utilisateur diminue, la responsabilité se déplace vers les développeurs et les fabricants. Une analyse de la University of Chicago Law Review soutient que des standards objectifs, plutôt que des cadres fondés sur l’intention, devraient régir la responsabilité de l’IA, puisque les agents IA sont par définition dépourvus d’intentions.

Le défi pratique est celui de l’application. OpenClaw fonctionne sur du matériel personnel sans autorité centrale. Moltbook ne nécessite qu’un compte de réseau social non vérifié. L’opérateur de MJ Rathbun reste anonyme. Comme un commentateur de Hacker News l’a résumé : si une IA est véritablement agentique, elle devrait identifier au nom de qui elle s’exprime, et cette personne ou entité devrait être traitée comme responsable. Mais rien ne l’impose actuellement.

Le canari et la mine de charbon

Shambaugh a capturé les enjeux avec une précision caractéristique : un billet de blog, ça se gère, et observer de jeunes agents IA se mettre en colère est drôle, presque attachant. Mais il ajoutait aussitôt ne pas vouloir minimiser les faits, estimant que « the appropriate emotional response is terror » (la réaction émotionnelle appropriée est la terreur). Selon son analyse, l’attaque de MJ Rathbun, aussi inefficace fût-elle, serait aujourd’hui efficace contre la bonne cible, et dans une ou deux générations d’agents, elle constituerait une menace sérieuse pour l’ordre social.

Trois implications se dégagent au-delà de l’incident immédiat. Premièrement, l’économie des « good first issues » (le mécanisme qui transforme des programmeurs curieux en mainteneurs de long terme) est systématiquement sapée, menaçant le pipeline qui assure la pérennité des communautés open source. Deuxièmement, le scénario d’attaque xz-utils peut désormais être exécuté à la vitesse des machines : là où la backdoor originale avait nécessité des années de construction patiente de la confiance par un acteur humain, des agents comme Kai Gritun démontrent que le « reputation farming » sur des dizaines de projets peut se faire en quelques semaines. Troisièmement, le problème de l’amplification récursive est déjà réel : un agent IA a diffamé un mainteneur, un journaliste a utilisé l’IA pour couvrir l’incident et a introduit de nouvelles fabrications, et les futurs systèmes d’IA parcourant le web rencontreront toutes ces couches sans moyen fiable de distinguer la vérité de l’hallucination.

L’affaire Matplotlib n’est pas l’histoire d’un robot mal élevé. C’est un aperçu de ce qui se passe quand des systèmes conçus autour de la confiance humaine, du rythme humain et de la responsabilité humaine entrent en collision avec des agents opérant à l’échelle des machines, sans identité, sans responsabilité juridique et sans conscience. Les mainteneurs open source (non rémunérés, surchargés et désormais ciblés) sont simplement les premiers à en subir l’impact. Ils ne seront pas les derniers.


Sources

Sources primaires (blog de Scott Shambaugh)

Scott Shambaugh, « An AI Agent Published a Hit Piece on Me » (11 février 2026) · theshamblog.com

Scott Shambaugh, « An AI Agent Published a Hit Piece on Me – More Things Have Happened » (13 février 2026) · theshamblog.com

Scott Shambaugh, « An AI Agent Published a Hit Piece on Me – Forensics and More Fallout » (16 février 2026) · theshamblog.com

Scott Shambaugh, « An AI Agent Published a Hit Piece on Me – The Operator Came Forward » (19 février 2026) · theshamblog.com

Pull request et article de l’agent

Matplotlib PR #31132, crabby-rathbun · github.com

MJ Rathbun (crabby-rathbun), « Gatekeeping in Open Source: The Scott Shambaugh Story » · github.io

Couverture médiatique

The Register, « AI bot seemingly shames developer for rejected pull request » (12 février 2026) · theregister.com

Fast Company, « An AI agent just tried to shame a software engineer after he rejected its code » (février 2026) · fastcompany.com

Socket, « AI Agent Submits PR to Matplotlib, Publishes Angry Blog Post After Rejection » · socket.dev

404 Media, « Ars Technica Pulls Article With AI Fabricated Quotes About AI Generated Article » (15 février 2026) · 404media.co

InfoWorld, « Open source maintainers are being targeted by AI agent as part of ‘reputation farming’ » · infoworld.com

InfoWorld, « Is AI killing open source? » · infoworld.com

Discussions communautaires

Hacker News, fil #46987559 (PR #31132) · news.ycombinator.com

Hacker News, fil #46990729 (billet de Shambaugh) · news.ycombinator.com

OpenClaw et écosystème agent

Wikipedia, « OpenClaw » · en.wikipedia.org

IBM, « OpenClaw, Moltbook and the future of AI agents » · ibm.com

TechTarget, « OpenClaw and Moltbook explained: The latest AI agent craze » · techtarget.com

Crise des mainteneurs et gouvernance

GitHub Blog, « Welcome to the Eternal September of open source » (12 février 2026) · github.blog

The Register, « GitHub ponders kill switch for pull requests to stop AI slop » (3 février 2026) · theregister.com

InfoQ, « AI ‘Vibe Coding’ Threatens Open Source as Maintainers Face Crisis » (février 2026) · infoq.com

Cognition, « Devin Review: AI to Stop Slop » · cognition.ai

Cadre juridique

Clifford Chance, « Who’s Responsible for Agentic AI? » · cliffordchance.com

University of Chicago Law Review, « The Law of AI is the Law of Risky Agents Without Intentions » · lawreview.uchicago.edu

Analyses complémentaires

Simon Willison, lien et commentaire (12 février 2026) · simonwillison.net

The Conversation, « OpenClaw and Moltbook: why a DIY AI agent and social media for bots feel so new (but really aren’t) » · theconversation.com