Une minute
Installer et tester Ollama sur Ubuntu avec GPU support
Verifier que le GPU est accessible
nvidia-smi
Installer Ollama
curl -fsSL https://ollama.com/install.sh | sh
Cela va installer:
- /usr/bin/ollama
- le service systemd
- le support CUDA si driver NVIDIA détecté
Vérifier l’installation
ollama --version
ollama --info # Pour vérifier GPU visible
Forcer Ollama à utiliser uniquement un eGPU
Identifier l’ID du eGPU**
nvidia-smi -L
GPU 0: RTX 5090 (internal)
GPU 1: RTX 5090 (internal 2)
GPU 2: RTX 4080 (eGPU)
# choisir 2
CUDA_VISIBLE_DEVICES=2 ollama run llama3
sudo systemctl edit ollama
Ajoute:
[Service]
Environment="CUDA_VISIBLE_DEVICES=2"
sudo systemctl daemon-reexec
sudo systemctl restart ollama
Tester un modèle
ollama pull llama3
ollama run llama3
> Explique en détail comment fonctionne un eGPU sous Linux
> Explique en détail le fonctionnement interne d’un LLM, en couvrant l’architecture transformer, l’attention, l’entraînement, l’inférence et les optimisations GPU.
# Vérifier les perfs
# watch -n 0.5 nvidia-smi
# Autre modèles
# léger:
# ollama pull mixtral:8x7b
# plus lourd
# ollama pull llama3:70b && ollama pull gpt-oss:20b && ollama pull qwen:14b && ollama pull wizardlm-uncensored && ollama pull wizard-vicuna-uncensored:7b && ollama pull wizard-vicuna-uncensored:13b && ollama pull wizard-vicuna-uncensored:30b
# Vérifier que le modèle tient en vRAM
nvidia-smi --query-gpu=memory.used,memory.total --format=csv
# Règle simple:
# 7B → ~6–8 Go
# 13B → ~12–16 Go
# 70B → 40+ Go
Voir les logs
journalctl -u ollama -f