Ce que l'IA a réellement fait ici
Ce système fait partie de notre suite de contenus IA. Le message est simple : environ 99 % de ce que vous voyez ici a été produit par l'IA.
Cela inclut la création et le raffinement de contenu, l'idéation de flux de travail pour cette étude de cas, les composants et la structure du site web, les traductions, la génération d'images, la publication, la gestion de contenu, le remplissage des champs du CMS et l'assemblage des pages.
Nous considérons l'IA comme un outil, pas comme de la magie. Nous surveillons de près la qualité des entrées et des sorties, c'est pourquoi cela fonctionne.
L'IA ne produit pas de bons résultats toute seule. Des données médiocres en entrée donnent des résultats médiocres en sortie. Des instructions claires, des entrées de haute qualité et une configuration structurée produisent des résultats fiables. Le système amplifie le bon contenu ; il n'invente pas la stratégie.
Étape par étape : comment le pipeline a construit cette page
L'IA a affiné le brouillon initial pour obtenir une prose de qualité publication et a analysé le contenu, les sujets et les relations. Elle a conçu l'architecture de la page en utilisant des composants prédéfinis, sélectionné les blocs appropriés pour le hero, le corps et la FAQ, et organisé les sections pour créer un fil narratif clair. Les métadonnées SEO — notamment les titres, descriptions et mots-clés — ont été générées automatiquement.
Le système a également dérivé des FAQ à partir du contenu et des questions probables des lecteurs, déterminé l'emplacement des images, rédigé des prompts et des descriptions d'images, généré les médias et appliqué une mise en forme riche telle que des titres, des listes et des emphases. Lorsque cela s'appliquait, le contenu a été traduit dans les langues prises en charge. Enfin, un flux de travail automatisé a publié la page via le CMS.
Des réviseurs humains ont ensuite vérifié le résultat, effectué les ajustements finaux nécessaires et l'ont approuvé.
Le problème : la publication de contenu traditionnelle est manuelle et lente
Le problème que nous avons cherché à résoudre est familier à toutes les équipes de contenu.
La publication de contenu traditionnelle est lente et manuelle. Elle repose sur l'édition, la réécriture et l'ajustement du ton effectués manuellement ; la structuration manuelle des sections et de la mise en page ; la sélection manuelle des composants pour chaque page ; la recherche et l'optimisation SEO manuelles ; les décisions manuelles sur le placement des images ; et la saisie répétitive dans le CMS — copier, coller, formater, répéter.
Chaque article peut demander des heures de travail humain. Multipliez cela par des dizaines ou des centaines de pages, et le goulot d'étranglement devient évident.
La solution : un pipeline multi-agents, natif pour les CMS
Notre réponse est un pipeline de contenu IA multi-agents.
Au lieu d'un agent unique et surchargé essayant de tout faire en une seule invite, nous utilisons plusieurs agents spécialisés, chacun avec une responsabilité claire.
Le pipeline est multi-agents, chaque agent traitant une tâche spécifique de la chaîne ; piloté par la configuration, le comportement étant contrôlé par celle-ci plutôt que par une logique codée en dur ; natif pour les CMS, la sortie étant conçue autour de composants et de champs réels du CMS ; et entièrement automatisé, produisant du JSON prêt pour le CMS sans aucune transformation manuelle.
Du point de vue de l'utilisateur, le flux est simple : fournissez du contenu brut dans presque n'importe quel format, choisissez le type de page et les options de base, laissez le système analyser la structure, l'intention et les ressources, recevez une charge utile (payload) CMS raffinée et prête pour la production, puis révisez et approuvez.
Le but est un pipeline de contenu piloté à 99 % par l'IA, les humains n'intervenant que pour la validation finale.
À l'intérieur du pipeline : six agents spécialisés
Chaque agent du pipeline a une seule tâche.
Le sanitizer nettoie et normalise les entrées et charge la configuration pertinente. Le refiner polit la prose pour une qualité de publication tout en respectant le ton et les contraintes. L'extractor analyse la structure et extrait des éléments tels que les titres, les citations, les liens, les indications média et des candidats aux métadonnées. L'architect conçoit la structure de la page en utilisant le modèle de composants du CMS et les règles de configuration. L'agent SEO optimise les titres, les descriptions et autres champs SEO. Le builder assemble la charge utile finale sous forme de JSON prêt pour le CMS.
Chaque étape transmet une sortie structurée à la suivante, plutôt que de passer un bloc de texte libre.
Comportement, contrôle et messages JX-System
Sous le capot, les agents ne se comportent pas de façon statique. Ils ajustent dynamiquement leur comportement en fonction du contexte et des instructions tout en restant prévisibles pour l'utilisateur.
Une invite courte et bien structurée suffit à les diriger vers le bon résultat. Lorsque vous demandez une modification, ils se concentrent sur celle-ci au lieu de tout réécrire.
Nous avons construit ce comportement en utilisant quelque chose que nous appelons messages JX-System. C'est une manière de structurer les instructions système afin que les agents puissent s'adapter au contexte sans devenir chaotiques.
Nous expliquerons les messages JX-System plus en détail dans de futurs articles. Si vous voulez voir comment cela fonctionne sous le capot, assurez-vous de vous abonner à la liste de diffusion pour ne pas le manquer.






Comment l'architecture a évolué au fil du temps
D'un agent monolithique à un pipeline multi-agents piloté par configuration.
Agent monolithique
Premières semainesUn agent unique prenait le contenu brut et tentait de produire un rendu prêt pour le CMS en une seule étape. Il avait du mal à assumer toutes les responsabilités en même temps, ce qui entraînait une qualité inégale et un débogage pénible.
Pipeline scindé
Semaines suivantesLe travail a été divisé entre l'affinement du contenu et l'architecture/construction des pages. La qualité s'est améliorée, mais des problèmes de coordination, une logique dupliquée et une gestion d'état complexe ont rendu l'approche difficile à faire évoluer.
Pipeline multi-agent
ActuelUn véritable pipeline multi-agent avec Sanitizer, Refiner, Extractor, Architect, SEO agent et Builder. Chaque agent a une responsabilité unique, le comportement est piloté par la configuration, et la sortie est native au CMS et plus facile à valider et à maintenir.