Ceci est une ancienne révision du document !
Table des matières
AI Agent
- Openclaw
Agent pour codage: ai_coding
- Agents réflexes simples / simple reflex agent
- Agents basés sur des modèles / model based agent
- Agents basés sur des objectifs / goal based agent
- Agents basés sur l'utilité / utility based agent
- Agents d'apprentissage / learning agent
- Agents hiérarchiques / hierarchical agent
- The Agent Client Protocol Agent Client Protocol (ACP) standardizes communication between code editors/IDEs and coding agents and is suitable for both local and remote scenarios.
- Retour d'expérience sur la création d'un agent autonome avec AutoPhp (Youtube, janvier 2024)
- Retour expé entreprises:
- Exploring AI riding an LLPhant - An Open Source Library to use LLMs and vector DBs in PHP (slide, juillet 2023) - RAG, embeddings …
À quoi ça sert ?
J'ai mis du temps à me faire une idée sur l'utilité des agents …
Spécialiser un Chat conversationnel
Les contraintes des LLM:
- Éviter un modèle dédié : au lieu de créer (entraîner) un modèle sur un sujet spécifique, on part d'un modèle généraliste et une orchestration d'agents permet un traitement adapté pour générer une réponse correcte.
- Quantité de données : un modèle est contraint dans le volume de données qu'il peut traiter (context window), on ne peut pas lui donner la bible d'un coup et lui poser une question, il faut découper le problème.
Cas d'usage:
Modération: un 1er agent génère un réponse, un 2eme la vérifie selon des règles et la valide ou demande au 1er de corriger.
Domaine de connaissance volumineux et complexe (arbre conditionnel) : l'utilisateur ne fournira pas toutes les informations dans sa question, il faudra chercher les conditions manquantes pour lui poser des questions, tout en n'oubliant pas où on en est pour éviter de:
- répondre à côté en matchant sur la mauvaise situation
- répondre de façon incomplète en ignorant des cas qui s'appliquent peut-être
- halluciner une certitude là où il devrait exprimer une incertitude conditionnelle
La solution est donc l'orchestration d'agents spécialisés sur des tâches, des connaissances, des compétences.
Assistants personnel
Assistants personnel pour des usages au quotidien
Une autre catégorie d'agents apparaît pour des usages du quotidien, pour faire “à notre place”:
- faire une synthèse des emails reçus
- surveiller le tarif d'un billet de train pour l'acheter au bon moment
- …
| Agent | Github ⭐ | Primary use |
|---|---|---|
| Agent Zero | 17.2k | General-purpose autonomous assistant |
| OpenClaw | 363k | Multi-channel personal assistant |
| Hermes Agent | 113k | Self-improving learning-loop agent |
| ZeroClaw | 30.5k | Lean, hardware-friendly personal assistant |
| NanoClaw | 27.8k | Container-isolated Claude assistant |
| Evolver | 6.7k | Auditable agent self-evolution engine |
| EvoAgentX | 2.9k | Self-evolving multi-agent workflows |
- 7 Open-Source AI Agent Frameworks Nick Launches 2026-04
- Hermes Agent vs OpenClaw : deux visions de l'agent autonome Louis-Clément Schiltz 2026-03
- En bref: Hermes Agent et OpenClaw adressent des problèmes différents. Hermes Agent, créé par NousResearch, est un agent personnel qui apprend de ses interactions, génère ses propres skills et construit un modèle persistant de l'utilisateur. OpenClaw, créé par Peter Steinberger, est un gateway self-hosted qui orchestre des agents via WhatsApp, Telegram, Discord et iMessage. L'un apprend, l'autre distribue.
- Métaphore : OpenClaw est le standard téléphonique. Hermes Agent est l'employé senior qui décroche.
Agents
Hermes Agent
Artciles:
- 40+ outils intégrés : terminal, navigateur, vision, TTS, recherche web, exécution de code, subagents. MCP natif pour l'extensibilité via des serveurs MCP externes.
- Système de mémoire persistante en 2 couches: 1 pour injection automatique dans le system prompt, l'autre pour recherche à la demande.
- Routage automatique entre modèles: bascule entre un modèle puissant pour les requêtes complexes et un modèle rapide pour les tâches simples.
- Workflow / multi-steps task
- 💡 Hermes Agent supporte des subagents avec isolation de contexte. Le parent ne voit que le résumé, pas le contexte des enfants, ça évite le “context poisoning”.
- features delegation et la réflexion associée qui envoie du lourd. 🦄
Intégration à VSCode
- Hermes AI Agent (2026-04-27: 195 installs)
- Hermes Agent Chat (2026-04-27: 1399 installs)
Frameworks
LlamaIndex / LlamaAgents
LLPhant
A comprehensive PHP Generative AI Framework, inspired by Langchain and LlamaIndex, sur lequel est construit AutoPHP an agent PHP framework. Avec notamment présentation et usage de vectorstores et embeddings
PrismPhp
A unified interface for working with LLMs in Laravel.
- Et son client MCP
LangChain
Un framework open-source conçu pour faciliter la création d’applications alimentées par des modèles de langage (comme GPT, Llama, etc.). Il permet de combiner des LLMs avec d’autres sources de données, outils externes, ou encore des bases de connaissances, pour construire des workflows complexes.
- LangSmith: une plateforme de débogage, de test et de monitoring pour les applications construites avec LangChain ou d’autres frameworks similaires
LangGraph
Une extension de LangChain qui permet de modéliser des workflows d’IA sous forme de graphes. Contrairement à LangChain, qui utilise des chaînes linéaires ou séquentielles, LangGraph permet de créer des processus dynamiques et non linéaires, où les étapes peuvent s’enchaîner de manière conditionnelle ou parallèle.
Might excel with its native graph optimizations when allowed to use parallel execution, state caching, and its conditional edge system for complex branching logic.
DSPy
Programming—not prompting—LMs - Signature-first programs (fewer lines of code)
Define a task via a signature (inputs/outputs + intent), then implement it with Modules that encapsulate prompting and LLM calls. Centralizes prompt/usage handling and removes glue code; swapping internals (e.g., Predict ↔ CoT) doesn’t change the contract.
- Choose DSPy for: minimal boilerplate, readable single-file flows, contract-driven development (with optional optimizers).
- could show dramatically different results when using its signature optimizers (like MIPROv2) and Chain-of-Thought prompting, which can significantly improve answer quality.
