Installer un Modèle de Langage (LLM) avec Ollama et une interface WEB avec Open WebUI

Machine utilisée

VM Debian 12 sans interface graphique sous Proxmox Virtual Environment 8.3.0 sur un serveur Dell PowerEdge R710

kvm64 – 1 support de processeur – 6 coeurs

Mémoire 20 Go = 20480 Mo

Espace Disque 32 Go = 32768 Mo


On installe le modèle de langage (LLM) llama3 (Large Language Model Application un prototype développé par Meta AI) avec Ollama et une interface WEB avec Open WebUI en installant un conteneur Docker.

  1.  IA : Installer un Modèle de Langage (LLM) avec Ollama
  2.  Pour qu’Ollama écoute sur toutes les interfaces réseau
  3.  Installation de Docker sous debian 12
  4.  Installation d’Open WebUI une interface graphique pour Ollama

Retour en haut