informatique:ai_lm
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| informatique:ai_lm [07/02/2026 16:06] – [LiteLLM] cyrille | informatique:ai_lm [01/03/2026 14:05] (Version actuelle) – [Compilation pour GPU] cyrille | ||
|---|---|---|---|
| Ligne 14: | Ligne 14: | ||
| * [[/ | * [[/ | ||
| * [[/ | * [[/ | ||
| + | * [[/ | ||
| ===== Glossaire ===== | ===== Glossaire ===== | ||
| Ligne 318: | Ligne 319: | ||
| user 104m56, | user 104m56, | ||
| sys 3m45, | sys 3m45, | ||
| + | # Plus récemment | ||
| + | real 6m35, | ||
| + | user 61m37, | ||
| + | sys 2m37, | ||
| </ | </ | ||
| + | |||
| + | Avec CUDA 13.1 llama.cpp plante direct à la 1ère requête, mais sans message dans syslog : ce n'est donc pas le driver mais le logiciel llama.cpp qui ne support pas cette version de CUDA : | ||
| + | < | ||
| + | / | ||
| + | CUDA error: invalid argument | ||
| + | current device: 0, in function ggml_cuda_mul_mat_q at / | ||
| + | </ | ||
| + | |||
| ==== ollama ==== | ==== ollama ==== | ||
| Ligne 358: | Ligne 371: | ||
| - | ==== Tabby ML ==== | ||
| - | |||
| - | Est à la fois le serveur de model et l' | ||
| - | |||
| - | https:// | ||
| - | |||
| - | Fourni llama.cpp. | ||
informatique/ai_lm.1770476807.txt.gz · Dernière modification : de cyrille
