admin 管理员组

文章数量: 1086539

前言

        Ollama 是一个用于在本地运行大型语言模型的开源工具,它为开发者和爱好者提供了便捷的方式来部署、管理和与大语言模型进行交互。

        所以我们要先下载Ollama才能在命令行使用它来进行模型的本地部署。


一、官网下载

进入官网网址   Ollama

点击Download按钮

这里我只演示Windows下载,所以我们选中Windows,最后点击按钮(由于官网下载很慢,我这里给你们提供我的0.5.13版本安装包)

夸克网盘
链接:https://pan.quark/s/f59f23af4ccc
提取码:mah2

百度网盘
链接: https://pan.baidu/s/1hDptCpzgAxkaqqS46uYNvA
提取码: Rain


二、安装

安装包大概1GB,安装完之后有大约6GB

由于该安装程序只能默认安装到C盘,C盘空间紧凑的可以使用命令行安装

1. 把下载好的安装包放到你想要安装的磁盘和目录(也可以不放)

我示例放到以下目录 D:\Models\Ollama

2. 在安装包所在目录点击地址位置,输入cmd

随后命令提示符便定位到你安装包该目录

3. 输入命令行进行安装

如果安装包所在目录就是你想要安装的目录,执行以下命令:

(这里的 "." 表示当前目录,即安装包所在的目录。)

OllamaSetup.exe /DIR="."

如果你没有进行安装包的移动,但是想把他安装的文件放到你已经创建好的目录,执行以下命令:

(DIR双引号里面的地址改为你的目录地址)

OllamaSetup.exe /DIR="D:\Models\Ollama"

等待安装界面跳出,点击Install后等待即可


三、配置环境变量

以下是一些 Ollama 推荐配置的环境变量及作用:

  1. OLLAMA_MODELS:用于指定模型文件的存放目录。默认目录因系统而异,如在 Windows 系统中为C:\Users\%username%.ollama\models,在 Linux 和 macOS 系统中为~/.ollama/models/usr/share/ollama/.ollama/models。建议将其修改到空间较大的磁盘分区,以避免 C 盘空间不足。
  2. OLLAMA_HOST:指定 Ollama 服务监听的网络地址。默认为127.0.0.1,表示仅允许本地访问。如果希望局域网中的其他电脑能够访问 Ollama,建议设置为0.0.0.0,这样可以允许其他网络访问。
  3. OLLAMA_PORT:Ollama 服务监听的默认端口是11434。如果该端口有冲突,可以修改为其他端口,如8080等。
  4. OLLAMA_ORIGINS:用于设置 HTTP 客户端请求来源,是一个半角逗号分隔的列表。若仅在本地使用,无严格要求时可以设置成星号*,代表不受限制。
  5. OLLAMA_KEEP_ALIVE:决定大模型加载到内存中的存活时间。默认为5m(即 5 分钟),可以根据需求进行调整。例如,设置成24h,则模型在内存中保持 24 小时,这样能提高访问速度,减少模型重复加载的时间成本。
  6. OLLAMA_NUM_PARALLEL:用于控制请求处理的并发数量。默认为1,即单并发串行处理请求。可根据服务器的性能和实际需求进行调整,以充分利用硬件资源,提高处理效率。
  7. OLLAMA_MAX_QUEUE:设置请求队列的长度,默认值为512。可以根据实际情况进行设置,当请求数量超过队列长度时,新的请求将被抛弃。
  8. OLLAMA_DEBUG:在应用研发阶段,可以将其设置成1,此时会输出详细的日志信息,便于排查问题。
  9. OLLAMA_MAX_LOADED_MODELS:用于限制最多同时加载到内存中的模型数量。默认为1,即只能有 1 个模型在内存中。如果服务器资源充足,可以适当增加该值,以支持同时使用多个模型。

接下来我举几个较为重要的环境配置例子,大多数用户需要配置:

OLLAMA_MODELS 

OLLAMA_HOST

OLLAMA_ORIGINS

1. 打开资源管理器,右击此电脑,随后点属性,再点击高级系统设置,跳出的系统属性窗口中点击环境变量,在系统变量那一栏点击新建

2. 在跳出的窗口中轮次输入相应信息

三个环境变量配置完之后的环境变量、系统属性窗口一定要依次点击确定,不要叉掉窗口退出

3. 在你完成到这一步的时候请查看现在是否启动了Ollama,如果启动了请关掉它,再重新开启避免环境变量没有立刻生效而导致下一步安装模型时安装到C盘的默认位置

右键关闭

打开,因为Ollama是没有可视化界面的,确认开启状态时点击状态栏箭头看有没有出现图标即可

4. 确认Ollama版本

输入命令行

ollama -v

5. 浏览器查看API服务,输入网址:127.0.0.1:11434


四、下载模型

在此以使用deepseek为例,其余模型可从官网的Models页面进入寻找命令

1. 复制命令:

ollama run deepseek-r1

2. 随后在命令提示符(cmd)输入命令,后面要加上英文字符:再加上你所需要的模型的参数量规模(参数量是衡量模型规模和能力的一个关键指标。模型参数是在训练过程中学习到的数值,它们决定了模型如何处理输入并生成输出。一般而言,参数量越多,模型能够学习和表示的模式就越复杂,其语言理解、生成等能力可能也就越强,但同时也会带来更高的计算成本和更长的训练时间。)在此我选择默认的7b:

ollama run deepseek - r1:7b

 

再检查Models的安装

很棒,到此你已经完成了deepseek大模型的本地部署了,接下来更加有趣的API接入等着你去探索

本文标签: 模型 易懂 安装包 详细 ollama