informatique:ai_lm
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| informatique:ai_lm [08/02/2026 10:48] – [Compilation pour GPU] cyrille | informatique:ai_lm [01/03/2026 14:05] (Version actuelle) – [Compilation pour GPU] cyrille | ||
|---|---|---|---|
| Ligne 14: | Ligne 14: | ||
| * [[/ | * [[/ | ||
| * [[/ | * [[/ | ||
| + | * [[/ | ||
| ===== Glossaire ===== | ===== Glossaire ===== | ||
| Ligne 318: | Ligne 319: | ||
| user 104m56, | user 104m56, | ||
| sys 3m45, | sys 3m45, | ||
| + | # Plus récemment | ||
| + | real 6m35, | ||
| + | user 61m37, | ||
| + | sys 2m37, | ||
| </ | </ | ||
| - | Avec CUDA 13.1 llama.cpp plante direct à la 1ère requête, mais sans message dans syslog : ce n'est pas le driver | + | Avec CUDA 13.1 llama.cpp plante direct à la 1ère requête, mais sans message dans syslog : ce n' |
| < | < | ||
| / | / | ||
| Ligne 327: | Ligne 332: | ||
| </ | </ | ||
| - | Essai flags compilation llama.cpp pour stabilité avec la RTX 5060 Ti : | ||
| - | |||
| - | < | ||
| - | export CUDA_VERSION=12.5 \ | ||
| - | && cmake -B build \ | ||
| - | -DGGML_CUDA=ON \ | ||
| - | -DGGML_CUDA_GRAPHS=OFF \ | ||
| - | -DGGML_CUDA_FORCE_MMQ=ON \ | ||
| - | -DGGML_CUDA_PEER_MAX_BATCH_SIZE=0 \ | ||
| - | -DGGML_CUDA_F16=OFF \ | ||
| - | -DCMAKE_CUDA_ARCHITECTURES=" | ||
| - | -DCMAKE_CUDA_COMPILER=/ | ||
| - | -DCMAKE_BUILD_WITH_INSTALL_RPATH=ON \ | ||
| - | -DCMAKE_INSTALL_RPATH="/ | ||
| - | </ | ||
| ==== ollama ==== | ==== ollama ==== | ||
informatique/ai_lm.1770544132.txt.gz · Dernière modification : de cyrille
