Ollama sur Windows : comment lancer une IA locale facilement ?

Après LM Studio, un autre outil revient très souvent quand on parle d’IA locale : Ollama.

Là où LM Studio mise beaucoup sur une interface graphique accessible, Ollama s’adresse davantage aux utilisateurs qui veulent une solution simple, rapide et légère pour lancer des modèles IA depuis leur PC. Il suffit de quelques commandes pour télécharger un modèle, le lancer et discuter avec lui directement depuis Windows.

Ollama permet aussi d’aller plus loin : API locale, intégration avec des applications, automatisation, développement, assistants de code ou interfaces web comme Open WebUI. C’est donc un excellent outil pour passer de la simple découverte à une utilisation plus avancée de l’IA locale.

C’est quoi Ollama ?

Ollama est un outil qui permet d’exécuter des modèles d’intelligence artificielle sur son propre ordinateur. Une fois installé, il peut télécharger des modèles, les lancer localement et les rendre disponibles via le terminal ou une API locale.

Ollama met en avant l’utilisation de modèles ouverts, avec une approche qui peut démarrer localement puis, si besoin, s’étendre vers des modèles cloud plus puissants. Le site officiel indique aussi qu’Ollama peut fonctionner entièrement hors ligne pour certains usages une fois les éléments nécessaires installés.

En clair, Ollama sert à faire tourner une IA sur votre PC sans passer systématiquement par ChatGPT, Claude ou Gemini.

Pourquoi utiliser Ollama plutôt que LM Studio ?

LM Studio est souvent plus rassurant pour débuter, car tout se fait dans une interface graphique. Ollama, lui, est plus direct. On installe, on ouvre le terminal, on tape une commande, et le modèle se lance.

Ollama est particulièrement intéressant si vous voulez :

  • tester rapidement plusieurs modèles ;
  • utiliser une IA locale depuis le terminal ;
  • connecter une IA locale à une application ;
  • créer un assistant personnel local ;
  • utiliser Open WebUI ou d’autres interfaces ;
  • faire du développement avec une API locale ;
  • automatiser certaines tâches.

Pour un débutant complet, LM Studio reste souvent plus simple. Pour quelqu’un qui n’a pas peur de taper quelques commandes, Ollama devient très pratique.

Configuration recommandée

Ollama fonctionne sur Windows 10 ou plus récent, selon la page officielle de téléchargement Windows.

Pour une bonne expérience, TechPi recommande :

Composant Recommandation
Système Windows 10 ou Windows 11
CPU Intel Core ou AMD Ryzen récent
RAM 16 Go minimum, 32 Go conseillé
GPU Optionnel, mais recommandé
VRAM 8 Go conseillé pour plus de confort
Stockage SSD avec 50 Go libres ou plus
Connexion Nécessaire pour télécharger les modèles

Ollama précise que l’installation Windows demande au moins 4 Go d’espace pour les fichiers de base, mais que les modèles téléchargés peuvent ensuite occuper des dizaines, voire des centaines de Go selon ce que vous installez.

Étape 1 — Installer Ollama sur Windows

La méthode la plus simple consiste à télécharger Ollama depuis le site officiel. La page Windows propose un installateur, mais aussi une commande PowerShell :

 
irm https://ollama.com/install.ps1 | iex
 

Pour un débutant, le plus simple reste généralement de cliquer sur Download for Windows, puis de lancer l’installateur.

Une fois installé, Ollama s’ajoute à Windows et peut être utilisé depuis PowerShell, Windows Terminal ou l’invite de commandes.

Étape 2 — Vérifier que Ollama fonctionne

Ouvrez PowerShell ou Windows Terminal, puis tapez :

 
ollama --version
 

Si Ollama est bien installé, Windows doit afficher une version ou répondre sans erreur.

Vous pouvez aussi tester directement le lancement d’un modèle avec :

 
ollama run gemma3
 

La documentation officielle d’Ollama donne justement ollama run gemma3 comme exemple de commande pour lancer un modèle.

Étape 3 — Télécharger et lancer un premier modèle

Avec Ollama, la commande run peut télécharger un modèle s’il n’est pas encore présent sur votre machine, puis le lancer.

Exemple :

 
ollama run gemma3
 

Au premier lancement, Ollama télécharge le modèle. Cela peut prendre du temps selon la taille du fichier et votre connexion. Ensuite, le modèle se lance et vous pouvez écrire directement vos questions dans le terminal.

Exemple de première question :

 
Explique ce qu’est une IA locale en 5 lignes, avec des mots simples.
 

Quel modèle choisir pour commencer ?

Le catalogue officiel d’Ollama propose de nombreux modèles, dont Gemma, Phi, Qwen, LLaVA, TinyLlama ou encore des modèles orientés code comme Qwen Coder et CodeLlama.

Pour débuter, évitez les très gros modèles. Choisissez plutôt un modèle compact, plus rapide à télécharger et plus simple à faire tourner.

Profil Modèle à tester
Découverte TinyLlama, Phi, Gemma compact
Usage général Gemma, Qwen, Llama selon disponibilité
Code Qwen Coder, CodeLlama
Vision / image LLaVA ou modèle vision compatible
PC modeste Modèle 1B à 4B
PC confortable Modèle 7B à 14B

Le bon réflexe : commencer petit, vérifier que tout fonctionne, puis tester des modèles plus lourds si votre PC suit.

Étape 4 — Lister les modèles installés

Pour voir les modèles déjà présents sur votre PC :

 
ollama list
 

Cette commande permet de vérifier ce qui est installé localement. C’est utile si vous testez plusieurs modèles et que vous voulez faire le ménage ensuite.

Étape 5 — Supprimer un modèle inutile

Les modèles peuvent prendre beaucoup de place. Si vous n’utilisez plus un modèle, vous pouvez le supprimer avec :

 
ollama rm nom-du-modele
 

Exemple :

 
ollama rm gemma3
 

C’est une bonne habitude à prendre, surtout si votre SSD est limité.

Où Ollama stocke-t-il les modèles ?

Par défaut, Ollama stocke ses fichiers dans le dossier utilisateur. La documentation Windows indique notamment que les modèles et la configuration se trouvent dans %HOMEPATH%\.ollama.

Si votre disque principal est presque plein, vous pouvez changer l’emplacement des modèles avec la variable d’environnement OLLAMA_MODELS. Ollama explique qu’il faut créer ou modifier cette variable dans les variables d’environnement de l’utilisateur, puis relancer l’application.

C’est un point important : les modèles IA peuvent rapidement remplir le disque C:.

Étape 6 — Utiliser Ollama via une API locale

Ollama ne sert pas seulement à discuter dans le terminal. Il expose aussi une API locale.

Par défaut, l’API d’Ollama est disponible à cette adresse locale :

 
http://localhost:11434/api
 

Cette URL est documentée comme l’adresse de base par défaut de l’API Ollama après installation.

Cela permet de connecter Ollama à des scripts, des applications ou des interfaces web.

Exemple de requête simple :

 
Invoke-WebRequest -method POST `
-Body '{"model":"gemma3", "prompt":"Explique les PC IA simplement.", "stream": false}' `
-uri http://localhost:11434/api/generate
 

Ollama fournit d’ailleurs un exemple PowerShell similaire dans sa documentation Windows.

Ollama est-il fait pour les débutants ?

Oui, mais avec une nuance.

Ollama est simple à installer et très rapide à utiliser. En revanche, il demande d’accepter l’idée de taper des commandes. Pour certains utilisateurs, c’est moins naturel que LM Studio.

Si vous aimez les interfaces visuelles, commencez par LM Studio.
Si vous voulez apprendre, automatiser ou connecter une IA locale à d’autres outils, Ollama est un excellent choix.

Ollama et Open WebUI : le duo intéressant

Beaucoup d’utilisateurs associent Ollama à Open WebUI, une interface web locale qui permet d’utiliser les modèles Ollama dans une interface plus proche de ChatGPT.

L’idée est simple :

  1. Ollama fait tourner les modèles localement.
  2. Open WebUI fournit une interface de chat plus confortable.
  3. Vous obtenez une expérience plus visuelle, tout en gardant vos modèles sur votre machine.

Ce sera un bon sujet pour un prochain tutoriel TechPi.

Ollama peut-il utiliser le GPU ?

Oui, selon le matériel et les pilotes disponibles. Ollama dispose d’une page dédiée au support matériel GPU, avec des informations pour NVIDIA, AMD Radeon et Apple Metal. La documentation indique notamment que l’on peut contrôler l’usage de plusieurs GPU NVIDIA avec CUDA_VISIBLE_DEVICES, et liste aussi des GPU AMD compatibles selon les plateformes.

En pratique, pour Windows, les GPU NVIDIA restent souvent le choix le plus simple pour l’IA locale. Les GPU AMD peuvent fonctionner dans certains cas, mais la compatibilité dépend davantage des pilotes et du support logiciel.

Que faire si Ollama est lent ?

Si les réponses sont lentes, ce n’est pas forcément un bug. Le modèle est peut-être trop gros pour votre PC.

Essayez ces solutions :

  1. Choisir un modèle plus petit.
  2. Fermer les applications inutiles.
  3. Vérifier l’espace disque disponible.
  4. Utiliser un SSD plutôt qu’un disque dur.
  5. Vérifier que le GPU est bien utilisé.
  6. Brancher le PC portable au secteur.
  7. Passer à 32 Go de RAM si vous êtes souvent limité.

La règle est simple : plus le modèle est gros, plus il demande de mémoire, de puissance et parfois de VRAM.

LM Studio ou Ollama : lequel choisir ?

Critère LM Studio Ollama
Facilité pour débuter Très bon Bon
Interface graphique Oui Plus limité / orienté terminal
Terminal Optionnel Central
API locale Oui Oui
Automatisation Bonne Très bonne
Choix pour développeurs Bon Excellent
Usage grand public Très accessible Un peu plus technique

Pour TechPi, le bon choix est simple :

  • LM Studio pour découvrir l’IA locale sans se compliquer la vie ;
  • Ollama pour aller plus loin, automatiser et connecter des outils.

Les erreurs à éviter

Installer depuis une source non officielle

Téléchargez Ollama depuis le site officiel. Évitez les installateurs partagés sur des sites tiers.

Télécharger un modèle trop lourd

Commencez par un petit modèle. Un modèle énorme ne sert à rien si votre PC ne peut pas le faire tourner correctement.

Oublier l’espace disque

Les modèles peuvent vite occuper beaucoup de place. Prévoyez un SSD suffisamment grand.

Confondre local et magique

Une IA locale peut fonctionner sans cloud, mais elle n’est pas forcément aussi puissante que les meilleurs modèles en ligne.

Ne pas vérifier les réponses

Comme tous les modèles IA, un modèle lancé avec Ollama peut se tromper, halluciner ou inventer des informations. Il faut toujours vérifier les réponses importantes.

Quelle configuration pour Ollama ?

Usage Configuration conseillée
Découverte 16 Go RAM, petit modèle
Usage régulier 32 Go RAM, SSD 1 To
Développement 32 à 64 Go RAM
IA locale avancée 64 Go RAM, GPU avec beaucoup de VRAM
PC portable Bon refroidissement et alimentation secteur

Pour un usage confortable, TechPi recommande 32 Go de RAM, un SSD spacieux et, si possible, une carte graphique dédiée.

Verdict TechPi

Ollama est l’un des meilleurs outils pour lancer une IA locale sur Windows. Il est léger, rapide à prendre en main et très pratique dès que l’on veut dépasser le simple test.

Il est un peu moins “grand public” que LM Studio, car il repose davantage sur le terminal. Mais c’est aussi ce qui fait sa force : quelques commandes suffisent pour télécharger un modèle, le lancer et l’utiliser dans d’autres applications.

Notre conseil : commencez avec un petit modèle, testez quelques prompts simples, puis connectez Ollama à une interface comme Open WebUI si vous voulez une expérience plus proche de ChatGPT.

FAQ

Ollama fonctionne-t-il sur Windows ?

Oui. La page officielle indique que la version Windows nécessite Windows 10 ou plus récent. 

Faut-il savoir coder pour utiliser Ollama ?

Non, mais il faut accepter d’utiliser quelques commandes dans PowerShell ou Windows Terminal.

Ollama peut-il fonctionner hors ligne ?

Oui, pour les modèles déjà installés localement. Le téléchargement initial des modèles nécessite toutefois une connexion Internet.

Quelle différence entre Ollama et LM Studio ?

LM Studio est plus visuel et plus simple pour débuter. Ollama est plus orienté terminal, automatisation et intégration avec d’autres outils.

Ollama utilise-t-il une API locale ?

Oui. L’API locale d’Ollama est servie par défaut sur http://localhost:11434/api.