Outils pour utilisateurs

Outils du site


informatique:ai_lm

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
Prochaine révision
Révision précédente
informatique:ai_lm [27/01/2026 18:08] – [Compilation pour GPU] cyrilleinformatique:ai_lm [01/03/2026 14:05] (Version actuelle) – [Compilation pour GPU] cyrille
Ligne 14: Ligne 14:
   * [[/informatique/ai_lm/ai_image|AI Image]]   * [[/informatique/ai_lm/ai_image|AI Image]]
   * [[/informatique/ai_lm/gpu_bench|GPU Benchmarks]]   * [[/informatique/ai_lm/gpu_bench|GPU Benchmarks]]
 +  * [[/informatique/ai_lm/ai_vision|AI Vision]]
  
 ===== Glossaire ===== ===== Glossaire =====
Ligne 40: Ligne 41:
 [[https://claude.ai/share/5d0d1604-20cd-4ec9-9f39-c2797197603d|Comment faire pour qu'un appel à un LLM ait un résultat reproductible d'une fois sur l'autre ?]] [[https://claude.ai/share/5d0d1604-20cd-4ec9-9f39-c2797197603d|Comment faire pour qu'un appel à un LLM ait un résultat reproductible d'une fois sur l'autre ?]]
  
 +Hugging Face entreprise française créée en 2016 -> [[https://www.youtube.com/watch?v=8UWCLts47Ms|L'IA open source par Hugging Face - Gen AI Nantes]] 2024-01 par [[https://www.youtube.com/@juliensimonfr|Julien Simon]]
  
 ===== Sur les perfs ===== ===== Sur les perfs =====
Ligne 266: Ligne 268:
 APT-Sources: http://fr.archive.ubuntu.com/ubuntu noble/multiverse amd64 Packages APT-Sources: http://fr.archive.ubuntu.com/ubuntu noble/multiverse amd64 Packages
  
-# Je ne comprends pas j'ai pourtant un /etc/apt/sources.list.d/cuda-ubuntu2404-x86_64.list qui pointe sur /etc/apt/sources.list.d/cuda-ubuntu2404-x86_64.list+# Je ne comprends pas j'ai pourtant un /etc/apt/sources.list.d/cuda-ubuntu2404-x86_64.list 
 +qui pointe sur /etc/apt/sources.list.d/cuda-ubuntu2404-x86_64.list
 </code> </code>
  
Ligne 316: Ligne 319:
 user 104m56,615s user 104m56,615s
 sys 3m45,431s sys 3m45,431s
 +# Plus récemment
 +real 6m35,663s
 +user 61m37,436s
 +sys 2m37,613s
 </code> </code>
 +
 +Avec CUDA 13.1 llama.cpp plante direct à la 1ère requête, mais sans message dans syslog : ce n'est donc pas le driver mais le logiciel llama.cpp qui ne support pas cette version de CUDA : 
 +<code>
 +/home/cyrille/Code/bronx/AI_Coding/llama.cpp/ggml/src/ggml-cuda/ggml-cuda.cu:97: CUDA error
 +CUDA error: invalid argument
 +  current device: 0, in function ggml_cuda_mul_mat_q at /home/cyrille/Code/bronx/AI_Coding/llama.cpp/ggml/src/ggml-cuda/mmq.cu:179
 +</code>
 +
  
 ==== ollama ==== ==== ollama ====
Ligne 330: Ligne 345:
  
 ==== koboldcpp ==== ==== koboldcpp ====
 +
 +A single self-contained distributable that builds off **llama.cpp** and adds many additional powerful features
  
 https://github.com/LostRuins/koboldcpp https://github.com/LostRuins/koboldcpp
Ligne 353: Ligne 370:
   * [[https://towardsdatascience.com/how-to-build-an-openai-compatible-api-87c8edea2f06/|How to build an OpenAI-compatible API]]   * [[https://towardsdatascience.com/how-to-build-an-openai-compatible-api-87c8edea2f06/|How to build an OpenAI-compatible API]]
  
-==== LiteLLM ==== 
- 
-https://github.com/BerriAI/litellm 
- 
-==== Tabby ML ==== 
- 
-Est à la fois le serveur de model et l'[[#tabby|assistant de code]]. 
- 
-https://tabby.tabbyml.com/docs/quick-start/installation/linux/ 
  
-Fourni llama.cpp. 
  
informatique/ai_lm.1769533725.txt.gz · Dernière modification : de cyrille

Sauf mention contraire, le contenu de ce wiki est placé sous les termes de la licence suivante : CC0 1.0 Universal
CC0 1.0 Universal Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki