Outils pour utilisateurs

Outils du site


informatique:ai_lm:ai_agent

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
informatique:ai_lm:ai_agent [29/04/2026 21:46] – [LLPhant] cyrilleinformatique:ai_lm:ai_agent [06/05/2026 14:14] (Version actuelle) – [Spécialiser un Chat conversationnel] cyrille
Ligne 1: Ligne 1:
 ====== AI Agent ====== ====== AI Agent ======
- 
-  * Openclaw 
-  * [[https://hermes-agent.org|Hermes Agent]] 
  
 Agent pour codage: [[/informatique/ai_lm/ai_coding#agents_ia|ai_coding]] Agent pour codage: [[/informatique/ai_lm/ai_coding#agents_ia|ai_coding]]
Ligne 12: Ligne 9:
   * Agents d'apprentissage / learning agent   * Agents d'apprentissage / learning agent
   * Agents hiérarchiques / hierarchical agent   * Agents hiérarchiques / hierarchical agent
 +  * [[https://learn.microsoft.com/en-us/azure/architecture/ai-ml/guide/ai-agent-design-patterns|Patterns d'orchestration]]
 +
  
   * The  [[https://agentclientprotocol.com/get-started/introduction|Agent Client Protocol]] Agent Client Protocol (ACP) standardizes communication between code editors/IDEs and coding agents and is suitable for both local and remote scenarios.   * The  [[https://agentclientprotocol.com/get-started/introduction|Agent Client Protocol]] Agent Client Protocol (ACP) standardizes communication between code editors/IDEs and coding agents and is suitable for both local and remote scenarios.
  
   * [[https://www.youtube.com/watch?v=ZnYUxTtS6IU|Retour d'expérience sur la création d'un agent autonome]] avec [[https://github.com/LLPhant/AutoPHP|AutoPhp]] (Youtube, janvier 2024)   * [[https://www.youtube.com/watch?v=ZnYUxTtS6IU|Retour d'expérience sur la création d'un agent autonome]] avec [[https://github.com/LLPhant/AutoPHP|AutoPhp]] (Youtube, janvier 2024)
-  * Retour expé entreprises: 
-    * [[https://www.youtube.com/watch?v=q3LtMMbg5YQ|Leboncoin - La GenAI au service de la relation client]] (2025-01) 
-    * [[https://www.youtube.com/watch?v=CV13E5i_cuo|Aramis Auto - Nouvelles frontières de l'automatisation avec les agents autonomes]] (2025-01) 
   * [[https://fr.slideshare.net/slideshow/exploring-ai-riding-an-llphant-an-open-source-library-to-use-llms-and-vector-dbs-in-php/272059145#1|Exploring AI riding an LLPhant - An Open Source Library to use LLMs and vector DBs in PHP]] (slide, juillet 2023) - RAG, embeddings ...   * [[https://fr.slideshare.net/slideshow/exploring-ai-riding-an-llphant-an-open-source-library-to-use-llms-and-vector-dbs-in-php/272059145#1|Exploring AI riding an LLPhant - An Open Source Library to use LLMs and vector DBs in PHP]] (slide, juillet 2023) - RAG, embeddings ...
   * [[https://research.aimultiple.com/rag-frameworks/|RAG frameworks benchmark results: LangChain vs LangGraph vs LlamaIndex vs Haystack vs DSPy]]   * [[https://research.aimultiple.com/rag-frameworks/|RAG frameworks benchmark results: LangChain vs LangGraph vs LlamaIndex vs Haystack vs DSPy]]
 +
 +Retour d'expériences (REX) d'entreprises:
 +    * [[https://www.youtube.com/watch?v=q3LtMMbg5YQ|Leboncoin - La GenAI au service de la relation client]] (2025-01)
 +    * [[https://www.youtube.com/watch?v=CV13E5i_cuo|Aramis Auto - Nouvelles frontières de l'automatisation avec les agents autonomes]] (2025-01)
 +
 +Les frameworks d'agents permettent l'appel à des outils ''tool_calls'' mais aussi les interactions avec l'utilisateur ''clarify'', ''ask_user''.
  
 ===== À quoi ça sert ? ===== ===== À quoi ça sert ? =====
  
 J'ai mis du temps à me faire une idée sur l'utilité des agents ... J'ai mis du temps à me faire une idée sur l'utilité des agents ...
 +
 +==== Agent de codage ====
 +
 +  * voir [[/informatique/ai_lm/ai_coding|AI coding]]
  
 ==== Spécialiser un Chat conversationnel ==== ==== Spécialiser un Chat conversationnel ====
Ligne 41: Ligne 47:
   * halluciner une certitude là où il devrait exprimer une incertitude conditionnelle   * halluciner une certitude là où il devrait exprimer une incertitude conditionnelle
  
-La solution est donc l'orchestration d'agents spécialisés sur des tâches, des connaissances, des compétences.+La solution est donc l'orchestration d'agents spécialisés sur des tâches, des connaissances, des compétences. Accompagnés de tools eux aussi spécialisés (description précise, simple et courte). 
 + 
 +J'ai fait des expériences avec de petits <del>LLM</del>/SLM et sans découpage et spécialisation des tâches ça ne va pas. Avec les ''tools descriptions'' + un gros ''System Prompt'' il ne reste plus beaucoup de ''Context Window'' pour le reste. Aussi l'inférence sur le sujet de l'utilisateur est encombrée par toutes ces données. 
 + 
 +<code> 
 +* Problème de la fenêtre de contexte (Context Window) 
 +  * Un System Prompt détaillé peut facilement consommer 5-10k tokens (surtout avec des exemples JSON, des règles strictes, etc.). 
 +  * Les descriptions des outils (ex: describe_collection, search) ajoutent 2-5k tokens supplémentaires. 
 +  * Résultat : Il reste peu de place pour : 
 +    * La question de l’utilisateur (ex: 50-200 tokens). 
 +    * Les réponses intermédiaires (ex: résultats de describe_collection). 
 +    * Les requêtes/réponses Typesense (ex: JSON de 1-2k tokens). 
 +  * Conséquences : 
 +    * Le modèle oublie des parties du System Prompt (ex: include_fields). 
 +    * Il ignore les contraintes (ex: utiliser uniquement les champs indexés). 
 +    * L’inférence devient moins précise car le contexte est "pollué" par des données techniques. 
 +* Problème de l’inférence encombrée 
 +  * Les petits LLMs (8B) ont une capacité limitée à gérer des instructions complexes en parallèle. 
 +  * Ils excellent pour des tâches simples et ciblées (ex: classification, Q&A basique). 
 +  * Ils saturent quand on leur demande de : 
 +    * Analyser une question utilisateur. 
 +    * Appeler describe_collection. 
 +    * Filtrer les champs indexés. 
 +    * Construire une requête search valide. 
 +    * Extraire des conditions des résultats. 
 +    * Générer des questions ciblées. 
 +  * Résultat : Le modèle saute des étapes ou invente des solutions (ex: utiliser des champs non indexés). 
 +</code>
  
 ==== Assistants personnel ==== ==== Assistants personnel ====
Ligne 66: Ligne 99:
     * Métaphore : OpenClaw est le standard téléphonique. Hermes Agent est l'employé senior qui décroche.     * Métaphore : OpenClaw est le standard téléphonique. Hermes Agent est l'employé senior qui décroche.
  
-===== Agents =====+===== Agents "autonomes", orchestrateurs =====
  
 +==== Openclaw ====
 +
 +OpenClaw est plus un "gateway" pour communiquer avec des agents.
 ==== Hermes Agent ==== ==== Hermes Agent ====
 +
 +[[https://hermes-agent.org|Hermes Agent]]
  
 Artciles: Artciles:
Ligne 78: Ligne 116:
   * Système de mémoire persistante en 2 couches: 1 pour injection automatique dans le system prompt, l'autre pour recherche à la demande.   * Système de mémoire persistante en 2 couches: 1 pour injection automatique dans le system prompt, l'autre pour recherche à la demande.
   * Routage automatique entre modèles: bascule entre un modèle puissant pour les requêtes complexes et un modèle rapide pour les tâches simples.   * Routage automatique entre modèles: bascule entre un modèle puissant pour les requêtes complexes et un modèle rapide pour les tâches simples.
-  * Workflow / multi-steps task+  * **Workflow** / multi-steps task
     * 💡 Hermes Agent supporte des subagents avec isolation de contexte. Le parent ne voit que le résumé, pas le contexte des enfants, ça évite le "context poisoning".     * 💡 Hermes Agent supporte des subagents avec isolation de contexte. Le parent ne voit que le résumé, pas le contexte des enfants, ça évite le "context poisoning".
     * [[https://hermes-agent.nousresearch.com/docs/user-guide/features/delegation|features delegation]] et la [[https://github.com/NousResearch/hermes-agent/issues/344|réflexion associée]] qui envoie du lourd. 🦄     * [[https://hermes-agent.nousresearch.com/docs/user-guide/features/delegation|features delegation]] et la [[https://github.com/NousResearch/hermes-agent/issues/344|réflexion associée]] qui envoie du lourd. 🦄
Ligne 105: Ligne 143:
 P'tit problème avec Mistral qui ne retourne pas le "type" du "tool_calls" P'tit problème avec Mistral qui ne retourne pas le "type" du "tool_calls"
   * https://github.com/LLPhant/LLPhant/issues/311   * https://github.com/LLPhant/LLPhant/issues/311
-  * https://github.com/openai-php/client/issues/397 +  * obligé de forker LLPhant pour monter la version openai-php en v0.192 
-  * mais pourtant ya un patch mergé https://github.com/LLPhant/LLPhant/pull/324+ 
 +Le ''clarify'' ou ''ask_user'' a été ajouté : [[https://github.com/LLPhant/LLPhant/issues/481|About ask_user or clarify]] -> [[https://github.com/LLPhant/LLPhant/pull/484|add HumanInTheLoopTool for LLM-initiated user clarification]]
  
  
informatique/ai_lm/ai_agent.1777491995.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki