Ollama – l’intelligence en local

Ollama est un outil conçu pour exécuter des modeles d’IA (large language models LLM) localement sur votre machine, prenant en charge des modèles tels que Llama 3, Mistral, Gemma et d’autres. Il est disponible pour macOS, Linux et Windows (en version préliminaire) et permet aux utilisateurs de personnaliser et de créer leurs propres modèles.

Page de téléchargement : https://ollama.com/download

Installation sous linux :

Dans le terminal, entrez la commande suivante :

> curl -fsSL https://ollama.com/install.sh | sh

Puis

> ollama run llama2

Cela lancera le modèle Llama 2 à l’aide de l’application Ollama. Assurez-vous que l’application Ollama est correctement installée et configurée sur votre machine avant d’exécuter cette commande. Si vous avez besoin de plus d’informations ou d’une configuration supplémentaire, vous pouvez consulter la documentation officielle d’Ollama.

La liste des modèles : https://ollama.com/library

Pour visualiser les les modèles installés :

> ollama list

NAME          	ID          	SIZE  	MODIFIED     
gemma:2b      	b50d6c999e59	1.7 GB	2 months ago	
llama2:latest 	78e26419b446	3.8 GB	2 months ago	
mistral:latest	61e88e884507	4.1 GB	2 months ago	

Les principales commandes :

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Si vous rencontrez des problèmes ou avez besoin d’assistance, la communauté et les développeurs sont actifs sur leur Discord et sur GitHub​ (Ollama)​.