informatique:ai_lm
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| informatique:ai_lm [30/01/2026 15:31] – [Glossaire] cyrille | informatique:ai_lm [01/03/2026 14:05] (Version actuelle) – [Compilation pour GPU] cyrille | ||
|---|---|---|---|
| Ligne 14: | Ligne 14: | ||
| * [[/ | * [[/ | ||
| * [[/ | * [[/ | ||
| + | * [[/ | ||
| ===== Glossaire ===== | ===== Glossaire ===== | ||
| Ligne 318: | Ligne 319: | ||
| user 104m56, | user 104m56, | ||
| sys 3m45, | sys 3m45, | ||
| + | # Plus récemment | ||
| + | real 6m35, | ||
| + | user 61m37, | ||
| + | sys 2m37, | ||
| </ | </ | ||
| + | |||
| + | Avec CUDA 13.1 llama.cpp plante direct à la 1ère requête, mais sans message dans syslog : ce n'est donc pas le driver mais le logiciel llama.cpp qui ne support pas cette version de CUDA : | ||
| + | < | ||
| + | / | ||
| + | CUDA error: invalid argument | ||
| + | current device: 0, in function ggml_cuda_mul_mat_q at / | ||
| + | </ | ||
| + | |||
| ==== ollama ==== | ==== ollama ==== | ||
| Ligne 332: | Ligne 345: | ||
| ==== koboldcpp ==== | ==== koboldcpp ==== | ||
| + | |||
| + | A single self-contained distributable that builds off **llama.cpp** and adds many additional powerful features | ||
| https:// | https:// | ||
| Ligne 355: | Ligne 370: | ||
| * [[https:// | * [[https:// | ||
| - | ==== LiteLLM ==== | ||
| - | |||
| - | https:// | ||
| - | |||
| - | ==== Tabby ML ==== | ||
| - | |||
| - | Est à la fois le serveur de model et l' | ||
| - | |||
| - | https:// | ||
| - | Fourni llama.cpp. | ||
informatique/ai_lm.1769783468.txt.gz · Dernière modification : de cyrille
