admin 管理员组

文章数量: 1184232

Windows安装ollama及下载模型

  • 一、前言
  • 二、安装ollama
  • 1、下载
  • 2、安装
    • 2.1、介绍
    • 2.2、双击安装
    • 2.3、指定位置安装
    • 2.4、防火墙
    • 2.5、安装成功
    • 2.6、测试
  • 三、下载模型
    • 1、查看适配
    • 2、选择模型
    • 3、修改下载位置
      • 3.1、关闭Ollama
      • 3.2、配置环境变量
      • 3.3、启动Ollama,开始下载
    • 4、测试模型
  • 四、外部访问

一、前言

前段时间加班,没时间蹭热度了,现在补回来。

名称网址
ollama官网https://ollama/
ollama安装包https://www.alipan/s/Nwy1TxECBMh

二、安装ollama

1、下载

进入ollama官网点击Download

然后根据需求进行选择下载(我是windows部署,这里选择windows,然后点击下载)

等待时间有些缓慢,可以使用我分享的阿里云进行下载(蓝奏云没充钱不能超过100mb)。

2、安装

2.1、介绍

对于大多数 Windows 系统,%USERPROFILE% 的默认路径是:C:\Users\<YourUsername>
其中<YourUsername>是当前登录用户的用户名,
例如,如果用户名是 admin那么 %USERPROFILE%的路径就是:C:\Users\admin`

名称位置
ollama默认安装目录还是c盘大致位于C:\Users\<YourUsername>\AppData\Local\Programs\Ollama
以我的电脑目录为例C:\Users\admin\AppData\Local\Programs\Ollama
使用环境变量位置%USERPROFILE%\AppData\Local\Programs\Ollama

2.2、双击安装

如果不在意安装c盘,直接双击安装包,点击Install安装就可以了(自定义安装往下滑)


然后等待安装完成即可

2.3、指定位置安装

如果向指定安装位置,这里就需要使用到cmd窗口,使用命令安装
找到安装包

在目录位置输入cmd,点击回车,进入cmd窗口

既然不安装在c盘的C:\Users\admin\AppData\Local\Programs\Ollama目录下,
那我就安装在D盘的D:\Users\admin\AppData\Local\Programs\Ollama目录下(强迫症狂喜)。

安装命令如下,可以根据自己的存储需求进行修改

OllamaSetup.exe /dir=d:\Users\admin\AppData\Local\Programs\Ollama

输入命令会回车,然后就弹出了安装框(和双击一样)

不过这里的安装路径变成了我刚才输入的路径了

2.4、防火墙

电脑通知等级高的话,还会弹个窗,允许访问即可

2.5、安装成功

位置图片
双击安装的
自定义安装的

2.6、测试

浏览器访问http://127.0.0.1:11434/或者http://localhost:11434
就可以看到Ollama成功运行了

三、下载模型

1、查看适配

根据自己电脑的GPU来判断下载使用哪个

按住ctrl+shift+esc,打开任务管理器进行查看(可以尝试一波8b的,为了快速测试这里就使用1.5b,后续我在偷偷下回来)

2、选择模型

这里以deepseek为例,打开Ollama官网,点击Models,然后点击deepseek-r1

就可以选择自己想下载的模型了,左边点击选择,右边就会出现执行命令(命令是下载并运行模型的意思)

3、修改下载位置

3.1、关闭Ollama

Ollama默认存放模型的位置:%USERPROFILE%\.ollama\models(没错,还是在c盘)

这里可以进行配置环境变量OLLAMA_MODELS修改其存储位置,首先关闭ollama

3.2、配置环境变量

然后,鼠标右键此电脑》属性》选择高级系统设置==》环境变量
填写完信息之后,一直点击确定即可

3.3、启动Ollama,开始下载

启动Ollama,然后开始下载模型

下载模型并运行模型命令

ollama run deepseek-r1:1.5b

就可以在指定的目录看到刚才下载的模型了

名称命令图示
下载模型ollama pull deepseek-r1:1.5b
运行模型ollama run deepseek-r1:1.5b
查看下载的模型ollama list
退出模型对话ctrl+d

4、测试模型

可以看到问答信息

四、外部访问

部署完如果项内网访问,发现直接失败(这里就是我的内网IP,只是测试是否连接成功)

这里部署完,发现外部无法连接,这里就需要在环境变量进行设置一下子了。
鼠标右键此电脑==》属性==》选择高级系统设置==》环境变量
填写完信息之后,一直点击确定即可

OLLAMA_HOST
0.0.0.0

也可以直接使用cmd命令进行设置

setx OLLAMA_HOST "0.0.0.0"

设置成功之后也可以在环境变量中看到

重启ollama之后就发现,直接成功了。

本文标签: 模型 Windows ollama