全网最全Ollama命令合集

基本使用

拉取模型

ollama pull  

截屏2024-04-30 16.34.38

ollama pull <MODEL_NAME> 这个命令只是从ollama官网的库中拉取大模型。

运行模型

ollama run       

image-20240430124329545

ollama run <MODEL_NAME> 顾名思义是来运行大模型的,但是如果模型不存在会自动拉取相当于ollama pull <MODEL_NAME> + ollama run <MODEL_NAME>

模型列表

ollama list

![image-20240430164114247](/Users/mac/Library/Application Support/typora-user-images/image-20240430164114247.png)

展示你拥有的所有模型

展示模型

ollama show       

显示模型的信息

帮助命令

ollama help

image-20240430165106723

常用模型汇总

Model Parameters Size Download
Llama 3 8B 4.7GB ollama run llama3
Llama 3 70B 40GB ollama run llama3:70b
Phi-3 3,8B 2.3GB ollama run phi3
Mistral 7B 4.1GB ollama run mistral
Neural Chat 7B 4.1GB ollama run neural-chat
Starling 7B 4.1GB ollama run starling-lm
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
LLaVA 7B 4.5GB ollama run llava
Gemma 2B 1.4GB ollama run gemma:2b
Gemma 7B 4.8GB ollama run gemma:7b
Solar 10.7B 6.1GB ollama run solar

注意:运行7B模型至少应该有8GB可用内存,运行13B模型至少应该有16GB可用内存,运行33B模型至少应该有32GB可用内存。

Was this helpful?

0 / 0

发表回复 0

Your email address will not be published.