| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente |
| informatique:ai_lm:ai_coding [28/01/2026 21:49] – [/modelcontextprotocol/php-sdk] cyrille | informatique:ai_lm:ai_coding [23/04/2026 18:26] (Version actuelle) – cyrille |
|---|
| |
| |
| ===== Sur les Agents ===== | |
| |
| * **LangChain**: un framework open-source conçu pour faciliter la création d’applications alimentées par des modèles de langage (comme GPT, Llama, etc.). Il permet de combiner des LLMs avec d’autres sources de données, outils externes, ou encore des bases de connaissances, pour construire des workflows complexes. | |
| * [[https://github.com/LLPhant/LLPhant|LLPhant]] : A comprehensive PHP Generative AI Framework, inspired by Langchain, sur lequel est construit [[https://github.com/LLPhant/AutoPHP|AutoPHP]] an agent PHP framework. Avec notamment présentation et usage de [[https://github.com/LLPhant/LLPhant?tab=readme-ov-file#vectorstores|vectorstores]] et [[https://github.com/LLPhant/LLPhant?tab=readme-ov-file#embeddings|embeddings]] | |
| * **LangSmith**: une plateforme de débogage, de test et de monitoring pour les applications construites avec LangChain ou d’autres frameworks similaires | |
| * **LangGraph**: une extension de LangChain qui permet de modéliser des workflows d’IA sous forme de graphes. Contrairement à LangChain, qui utilise des chaînes linéaires ou séquentielles, LangGraph permet de créer des processus dynamiques et non linéaires, où les étapes peuvent s’enchaîner de manière conditionnelle ou parallèle. | |
| * STM (Short Term Memory): permet à un agent IA de se souvenir des entrées récente. Généralement mise en œuvre à l’aide d’une mémoire tampon circulaire ou d’une fenêtre contextuelle (context window), qui contient une quantité limitée de données récentes avant d’être écrasée. | * STM (Short Term Memory): permet à un agent IA de se souvenir des entrées récente. Généralement mise en œuvre à l’aide d’une mémoire tampon circulaire ou d’une fenêtre contextuelle (context window), qui contient une quantité limitée de données récentes avant d’être écrasée. |
| * LTM (Long Term Memory): permet aux agents IA de stocker et de récupérer des informations entre différentes sessions. souvent mise en œuvre à l’aide de bases de données, de [[https://www.ibm.com/fr-fr/think/topics/knowledge-graph|graphes de connaissances]] ou d’[[https://www.ibm.com/fr-fr/think/topics/vector-embedding|embeddings vectoriels]]. | * LTM (Long Term Memory): permet aux agents IA de stocker et de récupérer des informations entre différentes sessions. souvent mise en œuvre à l’aide de bases de données, de [[https://www.ibm.com/fr-fr/think/topics/knowledge-graph|graphes de connaissances]] ou d’[[https://www.ibm.com/fr-fr/think/topics/vector-embedding|embeddings vectoriels]]. |
| * [[https://www.linkedin.com/posts/godefroy_le-rag-est-mort-voici-pourquoi-en-2022-activity-7387725857659723776-h3ff|Le RAG est mort. Voici pourquoi]]. Article comparent RAG et GREP ; les commentaires sont une bonne source de connaissance. | * [[https://www.linkedin.com/posts/godefroy_le-rag-est-mort-voici-pourquoi-en-2022-activity-7387725857659723776-h3ff|Le RAG est mort. Voici pourquoi]]. Article comparent RAG et GREP ; les commentaires sont une bonne source de connaissance. |
| |
| | ==== Guidelines (directives) vs. Skills (compétences) ==== |
| | |
| | * Les directives (guidelines) sont chargées dès le démarrage de l'agent IA, fournissant un contexte essentiel sur les conventions de codage et les meilleures pratiques qui s'appliquent de manière générale à l'ensemble de la base de code. |
| | * Les compétences (skills) sont activées à la demande lorsqu'on travaille sur des tâches spécifiques, contenant des modèles détaillés pour des domaines particuliers. Le chargement des compétences uniquement lorsque cela est pertinent réduit la surcharge contextuelle et améliore la qualité du code. Elles sont des prompts ou fonctions (tools) documentés dans AGENTS.md. |
| | |
| | Articles: |
| | * [[https://vercel.com/blog/agents-md-outperforms-skills-in-our-agent-evals|AGENTS.md outperforms skills in our agent evals]] by vercel.com |
| | |
| | Des skills: |
| | * The Open Agent Skills Ecosystem https://skills.sh |
| |
| ===== Models ===== | ===== Models ===== |
| * Gemini 3 Pro | * Gemini 3 Pro |
| |
| Plus de choses [[/informatique/ai_coding/opencode|OpenCode]] | Plus de choses [[informatique:ai_lm:ai_coding:opencode|OpenCode]] |
| |
| === Essais de models === | === Essais de models === |
| ==== Tabby ==== | ==== Tabby ==== |
| |
| Contient le [[#tabby_ml|serveur de model]] qu'il faut installer. | Contient le [[#tabby_ml|serveur de model]] (llama.cpp) qu'il faut installer. |
| |
| * https://www.tabbyml.com/ | * https://www.tabbyml.com/ |
| * source https://github.com/TabbyML/tabby | * source https://github.com/TabbyML/tabby |
| * doc https://tabby.tabbyml.com/docs/ | * doc https://tabby.tabbyml.com/docs/ |
| | |
| | Tabby ML: https://tabby.tabbyml.com/docs/quick-start/installation/linux/ |
| | |
| |
| ==== Gemini CLI ==== | ==== Gemini CLI ==== |
| ==== MySql/MariaDb MCP ==== | ==== MySql/MariaDb MCP ==== |
| |
| | * https://github.com/MariaDB/mcp |
| * [[https://github.com/benborla/mcp-server-mysql|benborla/mcp-server-mysql]] (Node.js), 22 contributors, 1.1k stars, 281 forks, 14 releases | * [[https://github.com/benborla/mcp-server-mysql|benborla/mcp-server-mysql]] (Node.js), 22 contributors, 1.1k stars, 281 forks, 14 releases |
| * [[https://github.com/designcomputer/mysql_mcp_server|designcomputer/mysql_mcp_server]] (Python), 8 contributors, 1.1k starts, 223 forks, 6 releases | * [[https://github.com/designcomputer/mysql_mcp_server|designcomputer/mysql_mcp_server]] (Python), 8 contributors, 1.1k starts, 223 forks, 6 releases |
| * https://github.com/sajithrw/mcp-mysql | * https://github.com/sajithrw/mcp-mysql |
| * ... on dirait que c'est un exercice favori 😉 | * ... on dirait que c'est un exercice favori 😉 |
| | |
| | ==== Fetch ==== |
| | |
| | https://github.com/modelcontextprotocol/servers/tree/main/src/fetch |
| |
| ==== Frameworks ==== | ==== Frameworks ==== |
| ===== Agents IA ===== | ===== Agents IA ===== |
| |
| * Agents réflexes simples / simple reflex agent | La suite [[/informatique/ai_lm/ai_agent|AI Agent]] |
| * Agents basés sur des modèles / model based agent | |
| * Agents basés sur des objectifs / goal based agent | |
| * Agents basés sur l'utilité / utility based agent | |
| * Agents d'apprentissage / learning agent | |
| * Agents hiérarchiques / hierarchical agent | |
| | |
| * The [[https://agentclientprotocol.com/get-started/introduction|Agent Client Protocol]] Agent Client Protocol (ACP) standardizes communication between code editors/IDEs and coding agents and is suitable for both local and remote scenarios. | |
| | |
| * [[https://www.youtube.com/watch?v=ZnYUxTtS6IU|Retour d'expérience sur la création d'un agent autonome]] avec [[https://github.com/LLPhant/AutoPHP|AutoPhp]] (Youtube, janvier 2024) | |
| * [[https://fr.slideshare.net/slideshow/exploring-ai-riding-an-llphant-an-open-source-library-to-use-llms-and-vector-dbs-in-php/272059145#1|Exploring AI riding an LLPhant - An Open Source Library to use LLMs and vector DBs in PHP]] (slide, juillet 2023) - RAG, embeddings ... | |
| * [[https://research.aimultiple.com/rag-frameworks/|RAG frameworks benchmark results: LangChain vs LangGraph vs LlamaIndex vs Haystack vs DSPy]] | |
| | |
| ==== Frameworks ==== | |
| | |
| === LLPhant === | |
| | |
| * https://github.com/LLPhant/LLPhant | |
| * https://github.com/LLPhant/AutoPHP | |
| * [[/informatique/ai_lm/AutoPhp|Essai AutoPhp]] | |
| | |
| === PrismPhp === | |
| | |
| A unified interface for working with LLMs in Laravel. | |
| | |
| * https://prismphp.com | |
| * https://github.com/prism-php/prism | |
| * Et son client MCP | |
| * https://github.com/prism-php/relay | |
| |