Ollama sur VPS Debian : déployer une IA auto-hébergée

Par coderoe · 15 min de lecture

Intelligence ArtificielleDevOpsAuto-hébergement
Ollama sur VPS Debian : déployer une IA auto-hébergée

Introduction : déployer une IA open source sur son propre VPS

Ce tutoriel explique comment installer Ollama sur un VPS Debian, exécuter des modèles IA open source (comme llama3.1:8b), puis exposer une interface web conviviale via Open WebUI, Docker, Nginx et HTTPS.

L’objectif est d’obtenir une solution auto‑hébergée, reproductible et sécurisée pour utiliser des LLM sans dépendre d’un service cloud tiers.


Prérequis et informations techniques

  • Système : VPS sous Debian via Hostinger
  • Version Ollama : 0.15.4
  • Modèle testé : llama3.1:8b
  • Accès : utilisateur avec privilèges sudo

Source du contenu : documentation PDF fournie par l’auteur.


1. Mise à jour du VPS

Avant toute installation, mettez le système à jour :

sudo apt update && sudo apt upgrade -y
sudo apt autoremove -y

2. Installation de Ollama

Installation automatique

curl -fsSL https://ollama.com/install.sh | sh

Vérifier le service Ollama

sudo systemctl status ollama

Lancer un modèle IA

ollama run llama3.1:8b

3. Installation de Docker

Installer les dépendances

sudo apt install apt-transport-https ca-certificates curl gnupg lsb-release -y

Ajouter la clé GPG Docker

curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg

Ajouter le dépôt Docker

echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/debian $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt update

Installer Docker

sudo apt install docker-ce docker-ce-cli containerd.io -y

Vérifier Docker

docker -v
sudo systemctl status docker

4. Installation de Open WebUI

Télécharger l’image Docker

docker pull ghcr.io/open-webui/open-webui:main

Lancer le conteneur

docker run -d -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  ghcr.io/open-webui/open-webui:main

5. Connecter Ollama à Open WebUI

Créer la configuration systemd

sudo mkdir -p /etc/systemd/system/ollama.service.d/
sudo nano /etc/systemd/system/ollama.service.d/override.conf

Contenu du fichier

[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

Redémarrer Ollama

sudo systemctl daemon-reload
sudo systemctl restart ollama

Vérifier l’écoute du port 11434

ss -tulpn | grep 11434

6. Exposer Open WebUI via un nom de domaine

Installer Nginx

sudo apt install nginx -y

Créer la configuration du reverse proxy

sudo nano /etc/nginx/sites-available/ollama
server {
    listen 80;
    server_name tondomaine.com www.tondomaine.com;

    location / {
        proxy_pass http://localhost:3000;
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection 'upgrade';
        proxy_set_header Host $host;
        proxy_cache_bypass $http_upgrade;
    }
}

Activer la configuration

sudo ln -s /etc/nginx/sites-available/ollama /etc/nginx/sites-enabled/
sudo nginx -t
sudo systemctl reload nginx

7. Sécuriser avec HTTPS (Certbot)

sudo apt install certbot python3-certbot-nginx -y
sudo certbot --nginx -d tondomaine.com -d www.tondomaine.com

Vérifier le renouvellement automatique

sudo systemctl status certbot.timer

Bonus : configuration DNS

Chez votre fournisseur DNS (ex. Hostinger) :

TypeNomCibleTTL
AollamaIP_VPS14400
Awww.ollamaIP_VPS14400

Conclusion

Vous disposez désormais d’une plateforme IA auto‑hébergée, combinant Ollama, Open WebUI et une exposition web sécurisée. Cette architecture est adaptée aux tests, à la R&D et à un usage professionnel maîtrisé de modèles open source.

Articles recommandés