Outils pour utilisateurs

Outils du site


informatique:ai_lm:ai_coding

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
informatique:ai_lm:ai_coding [28/01/2026 18:08] – [Agents IA] cyrilleinformatique:ai_lm:ai_coding [23/04/2026 18:26] (Version actuelle) cyrille
Ligne 14: Ligne 14:
  
  
-===== Sur les Agents ===== 
  
-  * **LangChain**: un framework open-source conçu pour faciliter la création d’applications alimentées par des modèles de langage (comme GPT, Llama, etc.). Il permet de combiner des LLMs avec d’autres sources de données, outils externes, ou encore des bases de connaissances, pour construire des workflows complexes. 
-  * [[https://github.com/LLPhant/LLPhant|LLPhant]] : A comprehensive PHP Generative AI Framework, inspired by Langchain, sur lequel est construit [[https://github.com/LLPhant/AutoPHP|AutoPHP]] an agent PHP framework. Avec notamment présentation et usage de [[https://github.com/LLPhant/LLPhant?tab=readme-ov-file#vectorstores|vectorstores]] et [[https://github.com/LLPhant/LLPhant?tab=readme-ov-file#embeddings|embeddings]] 
-  * **LangSmith**: une plateforme de débogage, de test et de monitoring pour les applications construites avec LangChain ou d’autres frameworks similaires 
-  * **LangGraph**: une extension de LangChain qui permet de modéliser des workflows d’IA sous forme de graphes. Contrairement à LangChain, qui utilise des chaînes linéaires ou séquentielles, LangGraph permet de créer des processus dynamiques et non linéaires, où les étapes peuvent s’enchaîner de manière conditionnelle ou parallèle. 
   * STM (Short Term Memory): permet à un agent IA de se souvenir des entrées récente. Généralement mise en œuvre à l’aide d’une mémoire tampon circulaire ou d’une fenêtre contextuelle (context window), qui contient une quantité limitée de données récentes avant d’être écrasée.   * STM (Short Term Memory): permet à un agent IA de se souvenir des entrées récente. Généralement mise en œuvre à l’aide d’une mémoire tampon circulaire ou d’une fenêtre contextuelle (context window), qui contient une quantité limitée de données récentes avant d’être écrasée.
   * LTM (Long Term Memory): permet aux agents IA de stocker et de récupérer des informations entre différentes sessions. souvent mise en œuvre à l’aide de bases de données, de [[https://www.ibm.com/fr-fr/think/topics/knowledge-graph|graphes de connaissances]] ou d’[[https://www.ibm.com/fr-fr/think/topics/vector-embedding|embeddings vectoriels]].   * LTM (Long Term Memory): permet aux agents IA de stocker et de récupérer des informations entre différentes sessions. souvent mise en œuvre à l’aide de bases de données, de [[https://www.ibm.com/fr-fr/think/topics/knowledge-graph|graphes de connaissances]] ou d’[[https://www.ibm.com/fr-fr/think/topics/vector-embedding|embeddings vectoriels]].
Ligne 31: Ligne 26:
   * [[https://www.linkedin.com/posts/godefroy_le-rag-est-mort-voici-pourquoi-en-2022-activity-7387725857659723776-h3ff|Le RAG est mort. Voici pourquoi]]. Article comparent RAG et GREP ; les commentaires sont une bonne source de connaissance.   * [[https://www.linkedin.com/posts/godefroy_le-rag-est-mort-voici-pourquoi-en-2022-activity-7387725857659723776-h3ff|Le RAG est mort. Voici pourquoi]]. Article comparent RAG et GREP ; les commentaires sont une bonne source de connaissance.
  
 +==== Guidelines (directives) vs. Skills (compétences) ====
 +
 +  * Les directives (guidelines) sont chargées dès le démarrage de l'agent IA, fournissant un contexte essentiel sur les conventions de codage et les meilleures pratiques qui s'appliquent de manière générale à l'ensemble de la base de code.
 +  * Les compétences (skills) sont activées à la demande lorsqu'on travaille sur des tâches spécifiques, contenant des modèles détaillés pour des domaines particuliers. Le chargement des compétences uniquement lorsque cela est pertinent réduit la surcharge contextuelle et améliore la qualité du code. Elles sont des prompts ou fonctions (tools) documentés dans AGENTS.md.
 +
 +Articles:
 +  * [[https://vercel.com/blog/agents-md-outperforms-skills-in-our-agent-evals|AGENTS.md outperforms skills in our agent evals]] by vercel.com
 +
 +Des skills:
 +    * The Open Agent Skills Ecosystem https://skills.sh
  
 ===== Models ===== ===== Models =====
Ligne 222: Ligne 227:
   * Gemini 3 Pro   * Gemini 3 Pro
  
-Plus de choses [[/informatique/ai_coding/opencode|OpenCode]]+Plus de choses [[informatique:ai_lm:ai_coding:opencode|OpenCode]]
  
 === Essais de models === === Essais de models ===
Ligne 265: Ligne 270:
 ==== Tabby ==== ==== Tabby ====
  
-Contient le [[#tabby_ml|serveur de model]] qu'il faut installer.+Contient le [[#tabby_ml|serveur de model]] (llama.cpp) qu'il faut installer.
  
   * https://www.tabbyml.com/   * https://www.tabbyml.com/
   * source https://github.com/TabbyML/tabby   * source https://github.com/TabbyML/tabby
   * doc https://tabby.tabbyml.com/docs/   * doc https://tabby.tabbyml.com/docs/
 +
 +Tabby ML: https://tabby.tabbyml.com/docs/quick-start/installation/linux/
 +
  
 ==== Gemini CLI ==== ==== Gemini CLI ====
Ligne 388: Ligne 396:
 ==== MySql/MariaDb MCP ==== ==== MySql/MariaDb MCP ====
  
 +  * https://github.com/MariaDB/mcp
   * [[https://github.com/benborla/mcp-server-mysql|benborla/mcp-server-mysql]] (Node.js), 22 contributors, 1.1k stars, 281 forks, 14 releases   * [[https://github.com/benborla/mcp-server-mysql|benborla/mcp-server-mysql]] (Node.js), 22 contributors, 1.1k stars, 281 forks, 14 releases
   * [[https://github.com/designcomputer/mysql_mcp_server|designcomputer/mysql_mcp_server]] (Python), 8 contributors, 1.1k starts, 223 forks, 6 releases   * [[https://github.com/designcomputer/mysql_mcp_server|designcomputer/mysql_mcp_server]] (Python), 8 contributors, 1.1k starts, 223 forks, 6 releases
Ligne 403: Ligne 412:
   * https://github.com/sajithrw/mcp-mysql   * https://github.com/sajithrw/mcp-mysql
   * ... on dirait que c'est un exercice favori 😉   * ... on dirait que c'est un exercice favori 😉
 +
 +==== Fetch ====
 +
 +https://github.com/modelcontextprotocol/servers/tree/main/src/fetch
  
 ==== Frameworks ==== ==== Frameworks ====
Ligne 410: Ligne 423:
   * https://github.com/modelcontextprotocol/php-sdk   * https://github.com/modelcontextprotocol/php-sdk
  
 +=== clients ===
 +
 +https://github.com/php-mcp/client
 ===== LSP Server ===== ===== LSP Server =====
  
Ligne 445: Ligne 461:
 ===== Agents IA ===== ===== Agents IA =====
  
-  * Agents réflexes simples / simple reflex agent +La suite [[/informatique/ai_lm/ai_agent|AI Agent]]
-  * Agents basés sur des modèles / model based agent +
-  * Agents basés sur des objectifs / goal based agent +
-  * Agents basés sur l'utilité / utility based agent +
-  * Agents d'apprentissage / learning agent +
-  * Agents hiérarchiques / hierarchical agent +
- +
-  * The  [[https://agentclientprotocol.com/get-started/introduction|Agent Client Protocol]] Agent Client Protocol (ACP) standardizes communication between code editors/IDEs and coding agents and is suitable for both local and remote scenarios. +
- +
-  * [[https://www.youtube.com/watch?v=ZnYUxTtS6IU|Retour d'expérience sur la création d'un agent autonome]] avec [[https://github.com/LLPhant/AutoPHP|AutoPhp]] (Youtube, janvier 2024) +
-  * [[https://fr.slideshare.net/slideshow/exploring-ai-riding-an-llphant-an-open-source-library-to-use-llms-and-vector-dbs-in-php/272059145#1|Exploring AI riding an LLPhant - An Open Source Library to use LLMs and vector DBs in PHP]] (slide, juillet 2023) - RAG, embeddings ... +
-  * [[https://research.aimultiple.com/rag-frameworks/|RAG frameworks benchmark results: LangChain vs LangGraph vs LlamaIndex vs Haystack vs DSPy]] +
- +
-==== Frameworks ==== +
- +
-=== LLPhant === +
- +
-  * https://github.com/LLPhant/LLPhant +
-  * https://github.com/LLPhant/AutoPHP +
-  * [[/informatique/ai_lm/AutoPhp|Essai AutoPhp]] +
- +
-=== PrismPhp === +
- +
-A unified interface for working with LLMs in Laravel. +
- +
-  * https://prismphp.com +
-  * https://github.com/prism-php/prism +
-  * Et son client MCP +
-    * https://github.com/prism-php/relay+
  
informatique/ai_lm/ai_coding.1769620123.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki