informatique:ai_lm:ai_vision
Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente | ||
| informatique:ai_lm:ai_vision [14/02/2026 16:01] – [llama.cpp] cyrille | informatique:ai_lm:ai_vision [24/02/2026 09:17] (Version actuelle) – [Yolo] cyrille | ||
|---|---|---|---|
| Ligne 1: | Ligne 1: | ||
| ====== AI Vision ====== | ====== AI Vision ====== | ||
| - | Il y a YOLO et tout plein d' | + | Voir aussi: |
| + | * [[/ | ||
| ===== llama.cpp ===== | ===== llama.cpp ===== | ||
| + | |||
| + | Il y a YOLO et tout plein d' | ||
| + | |||
| + | Le prompt demande s'il y a des panneaux solaire dans l' | ||
| + | |||
| + | Par exemple le modèle trouve un panneau solaire dans cette image, mais ne trouve pas les coordonnées géo, on peut donc l' | ||
| + | |||
| + | {{: | ||
| * [[https:// | * [[https:// | ||
| Ligne 9: | Ligne 18: | ||
| Nécessite un modèle multimodal et un fichier '' | Nécessite un modèle multimodal et un fichier '' | ||
| - | | + | Avec **llama-mtmd-cli** et **gemma-3-4b-it** : |
| * [[https:// | * [[https:// | ||
| * [[https:// | * [[https:// | ||
| - | Avec **llama-mtmd-cli** et **gemma-3-4b-it** : | ||
| <code bash> | <code bash> | ||
| # gemma-3-4b-it-UD-Q8_K_XL | # gemma-3-4b-it-UD-Q8_K_XL | ||
| Ligne 121: | Ligne 130: | ||
| </ | </ | ||
| + | |||
| + | ===== Yolo ===== | ||
| + | |||
| + | Comparaison de perf avec modèle '' | ||
| + | ^ ^ real ^ user ^ sys ^ | ||
| + | | CUDA RTX 3060 | 0m25,625s | 0m22,140s | 0m3,480s | | ||
| + | | 13th i7-1360P | 6m3,403s | 48m3,806s | 0m2,906s | | ||
informatique/ai_lm/ai_vision.1771081301.txt.gz · Dernière modification : de cyrille
