informatique:ai_lm:ai_agent
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| informatique:ai_lm:ai_agent [30/04/2026 07:33] – [AI Agent] cyrille | informatique:ai_lm:ai_agent [06/05/2026 14:14] (Version actuelle) – [Spécialiser un Chat conversationnel] cyrille | ||
|---|---|---|---|
| Ligne 15: | Ligne 15: | ||
| * [[https:// | * [[https:// | ||
| - | * Retour expé entreprises: | ||
| - | * [[https:// | ||
| - | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| + | |||
| + | Retour d' | ||
| + | * [[https:// | ||
| + | * [[https:// | ||
| Les frameworks d' | Les frameworks d' | ||
| Ligne 26: | Ligne 27: | ||
| J'ai mis du temps à me faire une idée sur l' | J'ai mis du temps à me faire une idée sur l' | ||
| + | |||
| + | ==== Agent de codage ==== | ||
| + | |||
| + | * voir [[/ | ||
| ==== Spécialiser un Chat conversationnel ==== | ==== Spécialiser un Chat conversationnel ==== | ||
| Ligne 42: | Ligne 47: | ||
| * halluciner une certitude là où il devrait exprimer une incertitude conditionnelle | * halluciner une certitude là où il devrait exprimer une incertitude conditionnelle | ||
| - | La solution est donc l' | + | La solution est donc l' |
| + | |||
| + | J'ai fait des expériences avec de petits < | ||
| + | |||
| + | < | ||
| + | * Problème de la fenêtre de contexte (Context Window) | ||
| + | * Un System Prompt détaillé peut facilement consommer 5-10k tokens (surtout avec des exemples JSON, des règles strictes, etc.). | ||
| + | * Les descriptions des outils (ex: describe_collection, | ||
| + | * Résultat : Il reste peu de place pour : | ||
| + | * La question de l’utilisateur (ex: 50-200 tokens). | ||
| + | * Les réponses intermédiaires (ex: résultats de describe_collection). | ||
| + | * Les requêtes/ | ||
| + | * Conséquences : | ||
| + | * Le modèle oublie des parties du System Prompt (ex: include_fields). | ||
| + | * Il ignore les contraintes (ex: utiliser uniquement les champs indexés). | ||
| + | * L’inférence devient moins précise car le contexte est " | ||
| + | * Problème de l’inférence encombrée | ||
| + | * Les petits LLMs (8B) ont une capacité limitée à gérer des instructions complexes en parallèle. | ||
| + | * Ils excellent pour des tâches simples et ciblées (ex: classification, | ||
| + | * Ils saturent quand on leur demande de : | ||
| + | * Analyser une question utilisateur. | ||
| + | * Appeler describe_collection. | ||
| + | * Filtrer les champs indexés. | ||
| + | * Construire une requête search valide. | ||
| + | * Extraire des conditions des résultats. | ||
| + | * Générer des questions ciblées. | ||
| + | * Résultat : Le modèle saute des étapes ou invente des solutions (ex: utiliser des champs non indexés). | ||
| + | </ | ||
| ==== Assistants personnel ==== | ==== Assistants personnel ==== | ||
| Ligne 67: | Ligne 99: | ||
| * Métaphore : OpenClaw est le standard téléphonique. Hermes Agent est l' | * Métaphore : OpenClaw est le standard téléphonique. Hermes Agent est l' | ||
| - | ===== Agents ===== | + | ===== Agents |
| + | ==== Openclaw ==== | ||
| + | |||
| + | OpenClaw est plus un " | ||
| ==== Hermes Agent ==== | ==== Hermes Agent ==== | ||
| + | |||
| + | [[https:// | ||
| Artciles: | Artciles: | ||
| Ligne 79: | Ligne 116: | ||
| * Système de mémoire persistante en 2 couches: 1 pour injection automatique dans le system prompt, l' | * Système de mémoire persistante en 2 couches: 1 pour injection automatique dans le system prompt, l' | ||
| * Routage automatique entre modèles: bascule entre un modèle puissant pour les requêtes complexes et un modèle rapide pour les tâches simples. | * Routage automatique entre modèles: bascule entre un modèle puissant pour les requêtes complexes et un modèle rapide pour les tâches simples. | ||
| - | * Workflow / multi-steps task | + | |
| * 💡 Hermes Agent supporte des subagents avec isolation de contexte. Le parent ne voit que le résumé, pas le contexte des enfants, ça évite le " | * 💡 Hermes Agent supporte des subagents avec isolation de contexte. Le parent ne voit que le résumé, pas le contexte des enfants, ça évite le " | ||
| * [[https:// | * [[https:// | ||
| Ligne 108: | Ligne 145: | ||
| * obligé de forker LLPhant pour monter la version openai-php en v0.192 | * obligé de forker LLPhant pour monter la version openai-php en v0.192 | ||
| - | Par de '' | + | Le '' |
informatique/ai_lm/ai_agent.1777527228.txt.gz · Dernière modification : de cyrille
