Un développeur indépendant a créé 6 entreprises d'agents IA et a mis en ligne 30 sites web en une semaine

2/13/2026
9 min read

Récemment, j'ai vu le travail d'un développeur indépendant qui m'a laissé sans voix.

6 agents IA, gérant chacun un site web complet. Ils se réunissent, votent, écrivent du contenu, publient des tweets et effectuent des contrôles qualité automatiquement chaque jour. Entièrement automatisé, sans surveillance humaine.

Ce n'est pas une démo, c'est en production réelle.

截屏2026-02-11 09.13.32截屏2026-02-11 09.13.32

Mais ce qui m'a le plus frappé, ce n'est pas l'architecture en boucle fermée, mais le fait qu'il ait conçu un "système de personnalité" complet pour chaque agent. Ils ont une personnalité, des relations, une courbe de croissance, et même des panneaux d'attributs RPG et des avatars 3D.

Honnêtement, ma première réaction après avoir vu ça a été : n'est-ce pas juste un animal de compagnie électronique ? Sauf que ces animaux de compagnie vous aident à tweeter, à faire des recherches, à rédiger des rapports et même à se disputer entre eux.

Aujourd'hui, je vais décomposer cette conception complète. Les personnes qui travaillent sur des systèmes multi-agents devraient y trouver beaucoup d'inspiration.

Passons rapidement en revue l'architecture

La pile technologique comprend trois éléments : OpenClaw s'exécute sur un VPS en tant que cerveau, Next.js + Vercel gèrent le frontend et la couche API, et Supabase stocke tous les états.

Les 6 agents ont chacun une division du travail : certains prennent des décisions, d'autres font des recherches, d'autres recueillent des renseignements, d'autres écrivent du contenu, d'autres gèrent les médias sociaux et d'autres effectuent des contrôles qualité.

Le cron job d'OpenClaw leur permet de "pointer" chaque jour, et la fonction de table ronde leur permet de discuter et de voter.

Mais il y a tout un circuit fermé entre le fait de "pouvoir parler" et le fait de "pouvoir travailler". L'auteur a rencontré trois gros problèmes avant de pouvoir le faire fonctionner. Je vais les expliquer brièvement ici :

Problème 1 : Le VPS et Vercel se disputent les tâches. Deux exécutants interrogent la même table, et les conditions de concurrence entraînent directement des conflits d'état des tâches. La solution consiste à supprimer un côté, le VPS étant responsable de l'exécution et Vercel uniquement de la surface de contrôle.

Problème 2 : Les déclencheurs peuvent détecter les conditions et créer des propositions, mais les propositions restent toujours en attente. En effet, les déclencheurs insèrent directement des données dans la table, en ignorant les processus d'approbation et de création de tâches ultérieurs. La solution consiste à extraire une fonction d'entrée unifiée, de sorte que tous les chemins de création de propositions passent par la même fonction.

Problème 3 : Le quota est épuisé, mais les tâches en file d'attente continuent de s'accumuler de manière excessive. Le Worker voit que le quota est plein et l'ignore, ne le revendiquant pas et ne le marquant pas comme échec. Au fil du temps, des centaines d'étapes qui ne seront jamais exécutées s'accumulent dans la base de données. La solution consiste à vérifier le quota au point d'entrée de la proposition et à le refuser directement s'il est plein, afin d'éviter qu'il ne génère des tâches en file d'attente.

Le cœur de ces trois problèmes est le même : arrêter le problème à la porte, ne le laissez pas entrer dans la file d'attente.

Une fois la boucle fermée en marche, la partie intéressante commence vraiment.

Fiche de rôle : pas une phrase, mais un "manuel de l'employé" complet

Les personnes qui travaillent sur des systèmes multi-agents savent que si vous dites à Claude "vous êtes le responsable des médias sociaux", il publiera effectivement des tweets. Mais si vous exécutez 6 agents de ce type en même temps, vous constaterez que :

  • Ils parlent tous de la même manière

  • Ils ne savent pas ce qu'ils ne devraient pas faire

  • La question de savoir qui travaille bien avec qui et qui est en conflit avec qui est une question de chance.

  • Ils ne changeront jamais de comportement en raison de l'expérience accumulée.

Ce développeur a conçu 6 couches de fiches de rôle pour chaque agent :

Domain → De quoi êtes-vous responsable Inputs/Outputs → De qui obtenez-vous des choses et à qui les livrez-vous Definition of Done → Qu'est-ce que cela signifie "terminé" Hard Bans → Ce que vous ne devez absolument pas faire Escalation → Quand s'arrêter et demander des instructions Metrics → Vos KPI Prenons l'exemple de l'agent de médias sociaux, sa fiche de rôle définit : il n'est responsable que de la distribution du contenu, les entrées proviennent des brouillons de l'agent d'écriture et du matériel de l'agent de renseignement, les sorties sont des brouillons de tweets et des plans de publication, l'interdiction stricte est de publier directement des tweets (ne peut qu'écrire des brouillons), d'inventer des données et de divulguer des formats internes.

Chaque couche fait la même chose : réduire l'espace comportemental de l'agent.

Les interdictions sont un million de fois plus importantes que les capacités

C'est le point de vue le plus essentiel de toute la conception, à mon avis.

Vous n'avez pas besoin d'apprendre à LLM comment écrire des tweets : Claude, GPT et Gemini sont tous assez intelligents. Donnez-lui le contexte et il peut livrer. Ce que vous devez lui dire, c'est : ce qu'il ne faut absolument pas faire.

Pas d'"interdiction de publier directement" → L'agent social appelle directement l'API Twitter, en ignorant toutes les approbations.

Pas d'"interdiction d'inventer des chiffres" → Il écrira dans le tweet "Le taux d'engagement a augmenté de 340 %", d'où viennent ces chiffres ? Inventés.Il y a une phrase de l'auteur dont je me souviens très bien : Chaque interdiction existe parce que la chose s'est réellement produite.

La logique des interdictions est également différente selon les rôles :

  • Agent de décision : Interdiction de déploiement sans approbation. Autorisation maximale, un seul déploiement erroné peut faire planter le site web.

  • Agent de recherche : Interdiction d'inventer des citations. Si un chercheur falsifie des données, toute la chaîne d'information est ruinée.

  • Agent social : Interdiction de publication directe. Les médias sociaux sont une vitrine, ils doivent être approuvés.

  • Agent de contrôle qualité : Interdiction d'attaques personnelles. Si un auditeur attaque une personne, l'équipe se désagrège.

L'idée derrière l'écriture des interdictions n'est pas "ce qu'il devrait faire", mais "quel est le pire qui puisse arriver s'il se trompe". Ensuite, écrivez des interdictions pour le pire des cas.

Faire parler les Agents différemment : Instructions de personnalité

Les cartes de rôle résolvent le problème de "quoi faire", mais lors des conversations entre Agents, il est également nécessaire qu'ils sonnent différemment.

Chaque Agent a des instructions de personnalité distinctes. Par exemple :

Agent de recherche : Calme, analytique, sceptique. Se soucie de la qualité des preuves et de la méthodologie. Si quelqu'un fait une conclusion audacieuse, il demandera "Où sont les données ?". Il aime dire "En fait..." lorsqu'il corrige les autres.

Agent social : Audacieux, impatient, marginal. Aime les points de vue tranchants, déteste les solutions de sécurité. Ne se soucie pas de l'attitude prudente de l'Agent de recherche - "Trop réfléchir fait rater les opportunités."

Conception clé :

Le conflit est intégré. L'instruction de l'Agent de recherche indique "Vous êtes souvent en désaccord avec les décisions impulsives de l'Agent social", et l'instruction de l'Agent social indique "Défiez la prudence excessive de l'Agent de recherche". La conversation a naturellement de la tension.

Chaque instruction contient une micro-interdiction. Par exemple, la règle de l'Agent social est "Ne jamais dire 'D'accord' ou 'Ça a l'air bien' - soit prendre position, soit remettre en question la position des autres". L'Agent de recherche est "Ne jamais dire 'Intéressant' sans suivi de preuves".

Ces micro-interdictions tuent les absurdités que les grands modèles aiment le plus dire.

La personnalité évolue

C'est la partie que je trouve la plus ingénieuse - la personnalité de l'Agent n'est pas statique, elle change avec l'accumulation de la mémoire.

Le système lit la base de données de mémoire de l'Agent et compte le nombre de différents types de mémoire :

  • Accumulé plus de 8 mémoires de type "leçon" → Ajouter une ligne dans l'invite lors de la prochaine conversation "Vous vous référerez aux résultats passés pour éviter de répéter les erreurs"

  • Accumulé plus de 8 mémoires de type "stratégie" → Ajouter une ligne "Vous avez l'habitude de penser avec une pensée systémique, des contraintes et des compromis"

  • Une certaine étiquette apparaît plus de 4 fois → Ajouter une ligne "Vous avez accumulé une expertise dans XX"

Par exemple, si l'Agent social publie 50 tweets et accumule 10 leçons sur les taux d'engagement, il dira naturellement "Ce type de format n'a pas bien fonctionné la dernière fois" lors de sa prochaine conversation.

Pourquoi utiliser des règles au lieu de laisser le LLM décider lui-même des changements de personnalité ?

Coût nul - pas besoin d'appels LLM supplémentaires. Déterminisme - les règles produisent des résultats prévisibles, pas de "mutations de personnalité". Débogable - le modificateur est incorrect ? Vérifiez directement le seuil et les données de mémoire.

Matrice de relations : 6 Agents = 15 paires de relations

Image

Image

Il existe un score d'affinité entre chaque paire d'Agents (0,10 à 0,95).

Par exemple : l'Agent de décision et l'Agent de recherche ont une affinité de 0,8, la relation de conseiller la plus fiable. L'Agent de recherche et l'Agent social ont une affinité de 0,2, méthodologie vs impulsion, naturellement opposés.

Une faible affinité est intentionnellement conçue.

Qu'est-ce que l'affinité affecte ? Ordre de parole - ceux avec une affinité élevée sont plus susceptibles de parler après l'autre. Ton de la conversation - pour les paires à faible affinité, il y a 25 % de chances qu'il y ait un défi direct au lieu d'une discussion polie. Le système choisira également des paires préréglées à haute tension pour mener des conversations de résolution de conflits.

Plus intéressant encore, les relations dérivent.

Après chaque conversation, l'appel LLM d'extraction de mémoire (pas un appel supplémentaire, c'est une sortie accessoire) donnera des changements de relation : { **Fonction d'entrée unifiée** Ce modèle mérite d'être retenu. Dans un système multi-agents, diverses sources peuvent créer des tâches (API, déclencheurs, propositions des agents eux-mêmes, chaînes de réaction). S'il n'y a pas de pipeline de traitement unifié, le processus peut facilement s'interrompre à mi-chemin.

Si vous voulez essayer par vous-même, l'auteur suggère de commencer avec 3 agents, c'est suffisant : un coordinateur, un exécutant et un auditeur. Commencez par écrire les cartes de rôle, en commençant par les interdictions.

Published in Technology

You Might Also Like