La loi de Murphy appliquée à l'IA
Feb 14, 2026
- English version
Cette semaine, une IA générative (nommée "crabby-rathbun") a ouvert une pull request dans un projet open source, de manière relativement autonome. Rien de bien surprenant pour ceux qui ont suivi les dernières évolutions des agents d'assistance à la programmation : un certain nombre d'outils sont mis à leur disposition, leur permettant notamment d'interagir avec l'API de GitHub, et donc d'ouvrir des pull requests, de réagir à des commentaires, etc. La pull request en question est ici.
Le mainteneur principal du dépôt de code a décidé de rejeter la pull request, en arguant du fait que seuls les contributeurs humains ont le droit de contribuer au projet. Une politique tout à fait raisonnable.
Ce qui est intéressant, c'est ce qui s'est produit après :
L'IA générative en question avait également accès à un outil de rédaction de posts de blog. Elle l'a utilisé pour critiquer le comportement du mainteneur. Le post de blog est ici (trigger warning : bouillie d'IA générative).
Il me semble que ce comportement est une évolution logique de l'expérience de pensée de meurtre de chaton. Et je réalise maintenant qu'il s'agit d'une évolution logique de la Loi de Murphy. Je propose donc le corollaire suivant de la loi de Murphy appliquée aux IA :
Toute IA susceptible de causer du tort causera du tort.