Outils pour utilisateurs

Outils du site


informatique:ai_lm:ai_agent

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
informatique:ai_lm:ai_agent [30/04/2026 07:38] – [Openclaw] cyrilleinformatique:ai_lm:ai_agent [06/05/2026 14:14] (Version actuelle) – [Spécialiser un Chat conversationnel] cyrille
Ligne 15: Ligne 15:
  
   * [[https://www.youtube.com/watch?v=ZnYUxTtS6IU|Retour d'expérience sur la création d'un agent autonome]] avec [[https://github.com/LLPhant/AutoPHP|AutoPhp]] (Youtube, janvier 2024)   * [[https://www.youtube.com/watch?v=ZnYUxTtS6IU|Retour d'expérience sur la création d'un agent autonome]] avec [[https://github.com/LLPhant/AutoPHP|AutoPhp]] (Youtube, janvier 2024)
-  * Retour expé entreprises: 
-    * [[https://www.youtube.com/watch?v=q3LtMMbg5YQ|Leboncoin - La GenAI au service de la relation client]] (2025-01) 
-    * [[https://www.youtube.com/watch?v=CV13E5i_cuo|Aramis Auto - Nouvelles frontières de l'automatisation avec les agents autonomes]] (2025-01) 
   * [[https://fr.slideshare.net/slideshow/exploring-ai-riding-an-llphant-an-open-source-library-to-use-llms-and-vector-dbs-in-php/272059145#1|Exploring AI riding an LLPhant - An Open Source Library to use LLMs and vector DBs in PHP]] (slide, juillet 2023) - RAG, embeddings ...   * [[https://fr.slideshare.net/slideshow/exploring-ai-riding-an-llphant-an-open-source-library-to-use-llms-and-vector-dbs-in-php/272059145#1|Exploring AI riding an LLPhant - An Open Source Library to use LLMs and vector DBs in PHP]] (slide, juillet 2023) - RAG, embeddings ...
   * [[https://research.aimultiple.com/rag-frameworks/|RAG frameworks benchmark results: LangChain vs LangGraph vs LlamaIndex vs Haystack vs DSPy]]   * [[https://research.aimultiple.com/rag-frameworks/|RAG frameworks benchmark results: LangChain vs LangGraph vs LlamaIndex vs Haystack vs DSPy]]
 +
 +Retour d'expériences (REX) d'entreprises:
 +    * [[https://www.youtube.com/watch?v=q3LtMMbg5YQ|Leboncoin - La GenAI au service de la relation client]] (2025-01)
 +    * [[https://www.youtube.com/watch?v=CV13E5i_cuo|Aramis Auto - Nouvelles frontières de l'automatisation avec les agents autonomes]] (2025-01)
  
 Les frameworks d'agents permettent l'appel à des outils ''tool_calls'' mais aussi les interactions avec l'utilisateur ''clarify'', ''ask_user''. Les frameworks d'agents permettent l'appel à des outils ''tool_calls'' mais aussi les interactions avec l'utilisateur ''clarify'', ''ask_user''.
Ligne 26: Ligne 27:
  
 J'ai mis du temps à me faire une idée sur l'utilité des agents ... J'ai mis du temps à me faire une idée sur l'utilité des agents ...
 +
 +==== Agent de codage ====
 +
 +  * voir [[/informatique/ai_lm/ai_coding|AI coding]]
  
 ==== Spécialiser un Chat conversationnel ==== ==== Spécialiser un Chat conversationnel ====
Ligne 42: Ligne 47:
   * halluciner une certitude là où il devrait exprimer une incertitude conditionnelle   * halluciner une certitude là où il devrait exprimer une incertitude conditionnelle
  
-La solution est donc l'orchestration d'agents spécialisés sur des tâches, des connaissances, des compétences.+La solution est donc l'orchestration d'agents spécialisés sur des tâches, des connaissances, des compétences. Accompagnés de tools eux aussi spécialisés (description précise, simple et courte). 
 + 
 +J'ai fait des expériences avec de petits <del>LLM</del>/SLM et sans découpage et spécialisation des tâches ça ne va pas. Avec les ''tools descriptions'' + un gros ''System Prompt'' il ne reste plus beaucoup de ''Context Window'' pour le reste. Aussi l'inférence sur le sujet de l'utilisateur est encombrée par toutes ces données. 
 + 
 +<code> 
 +* Problème de la fenêtre de contexte (Context Window) 
 +  * Un System Prompt détaillé peut facilement consommer 5-10k tokens (surtout avec des exemples JSON, des règles strictes, etc.). 
 +  * Les descriptions des outils (ex: describe_collection, search) ajoutent 2-5k tokens supplémentaires. 
 +  * Résultat : Il reste peu de place pour : 
 +    * La question de l’utilisateur (ex: 50-200 tokens). 
 +    * Les réponses intermédiaires (ex: résultats de describe_collection). 
 +    * Les requêtes/réponses Typesense (ex: JSON de 1-2k tokens). 
 +  * Conséquences : 
 +    * Le modèle oublie des parties du System Prompt (ex: include_fields). 
 +    * Il ignore les contraintes (ex: utiliser uniquement les champs indexés). 
 +    * L’inférence devient moins précise car le contexte est "pollué" par des données techniques. 
 +* Problème de l’inférence encombrée 
 +  * Les petits LLMs (8B) ont une capacité limitée à gérer des instructions complexes en parallèle. 
 +  * Ils excellent pour des tâches simples et ciblées (ex: classification, Q&A basique). 
 +  * Ils saturent quand on leur demande de : 
 +    * Analyser une question utilisateur. 
 +    * Appeler describe_collection. 
 +    * Filtrer les champs indexés. 
 +    * Construire une requête search valide. 
 +    * Extraire des conditions des résultats. 
 +    * Générer des questions ciblées. 
 +  * Résultat : Le modèle saute des étapes ou invente des solutions (ex: utiliser des champs non indexés). 
 +</code>
  
 ==== Assistants personnel ==== ==== Assistants personnel ====
Ligne 84: Ligne 116:
   * Système de mémoire persistante en 2 couches: 1 pour injection automatique dans le system prompt, l'autre pour recherche à la demande.   * Système de mémoire persistante en 2 couches: 1 pour injection automatique dans le system prompt, l'autre pour recherche à la demande.
   * Routage automatique entre modèles: bascule entre un modèle puissant pour les requêtes complexes et un modèle rapide pour les tâches simples.   * Routage automatique entre modèles: bascule entre un modèle puissant pour les requêtes complexes et un modèle rapide pour les tâches simples.
-  * Workflow / multi-steps task+  * **Workflow** / multi-steps task
     * 💡 Hermes Agent supporte des subagents avec isolation de contexte. Le parent ne voit que le résumé, pas le contexte des enfants, ça évite le "context poisoning".     * 💡 Hermes Agent supporte des subagents avec isolation de contexte. Le parent ne voit que le résumé, pas le contexte des enfants, ça évite le "context poisoning".
     * [[https://hermes-agent.nousresearch.com/docs/user-guide/features/delegation|features delegation]] et la [[https://github.com/NousResearch/hermes-agent/issues/344|réflexion associée]] qui envoie du lourd. 🦄     * [[https://hermes-agent.nousresearch.com/docs/user-guide/features/delegation|features delegation]] et la [[https://github.com/NousResearch/hermes-agent/issues/344|réflexion associée]] qui envoie du lourd. 🦄
Ligne 113: Ligne 145:
   * obligé de forker LLPhant pour monter la version openai-php en v0.192   * obligé de forker LLPhant pour monter la version openai-php en v0.192
  
-Par de ''clarify'' ou ''ask_user''. Je crois que ça pourrait être géré [[https://github.com/LLPhant/LLPhant/blob/main/src/Evaluation/Guardrails/Guardrails.php#L19|Guardrails::generateText()]] si l'on veut ajouter de l’interaction avec l'utilisateur.+Le ''clarify'' ou ''ask_user'' a été ajouté : [[https://github.com/LLPhant/LLPhant/issues/481|About ask_user or clarify]] -> [[https://github.com/LLPhant/LLPhant/pull/484|add HumanInTheLoopTool for LLM-initiated user clarification]] 
  
  
informatique/ai_lm/ai_agent.1777527523.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki