您现在的位置是:首页 > 编程 > 

Deepseek在windows下安装、使用

2025-07-19 04:29:38
1.ollama Ollama 2.从下载 download for windows   OllamaSetup.exe .安装 双击安装文件,点击「Install」开始安装。默认路径:C:\Users%username%\AppData\Local\Programs\Ollama,无法变更。 升级: 从新下载最新

Ollama

2.从下载

download for windows   

.安装

双击安装文件,点击「Install」开始安装。默认路径:C:\Users%username%\AppData\Local\Programs\Ollama,无法变更。

升级:

从新下载最新客户端,覆盖安装即可

安装后会默认开启启动,我这里这里选择8b,窗口输入:ollama run deepseek-r1:8b,会自动下载安装

安装完成显示如下:

跑起来吧:

4.更改模型存放路径

Ollama 的默认模型存储路径如下:C:\Users%username%.ollama\models,无论 C 盘空间大小,需要安装多少模型,都建议换一个存放路径到其它盘,否则会影响电脑运行速度。

打开「系统环境变量」,新建一个系统变量OLLAMA_MODELS ,然后设置ollama模型的存储路径。

5.配置端口(可选)

Ollama API 的默认访问地址和侦听端口是http://localhost:1144,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地址和端口(在系统环境变量里设置):

变量名:OLLAMA_HOST

变量值(端口)::8000

只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000 端口。(变量值的端口前号前有个冒号:)

注:要使用 IPv6,需要 Ollama 0.0.20 或更高版本。另外,可能需要在 Windows 防火墙中开放相应端口的远程访问。

6.允许浏览器跨域请求(可选)

Ollama 默认只允许来自127.0.0.1和0.0.0.0的跨域请求,如果你计划在其它前端面板中调用 Ollama API,比如Open WebUI,建议放开跨域限制:

变量名:OLLAMA_ORIGIS

变量值:*

7.命令行使用方式

控制台运行模型:ollama run  卸载模型:ollama rm  查看已安装模型:ollama list 启动服务:ollama serve  退出模型:ctrld 描述图片:输入指令空格图像地址

8.查可安装的模型

在点击Models可查  大语言模型:qwen  视觉模型:minicpm-v  训练参量b代表10亿单位

选择训练参量版本之后可以直接复制运行语句 。

 再次使用时候,可以使用CMD ,也可以用(位置:C:\Windows\System2\WindowsPowerShell\v1.0).

以CMD为例。先查看已安装模型:ollama list 

选择其中一个模型进行运行

引用:ollama windows下安装、使用

在自己本地计算机上部署DeepSeek R1大模型实战_厦大数据库实验室博客

#感谢您对电脑配置推荐网 - 最新i3 i5 i7组装电脑配置单推荐报价格的认可,转载请说明来源于"电脑配置推荐网 - 最新i3 i5 i7组装电脑配置单推荐报价格

本文地址:http://www.dnpztj.cn/biancheng/1135090.html

相关标签:无
上传时间: 2025-07-19 01:29:39
留言与评论(共有 20 条评论)
本站网友 迈克尔波特
0秒前 发表
8b,会自动下载安装 安装完成显示如下: 跑起来吧: 4.更改模型存放路径 Ollama 的默认模型存储路径如下:C
本站网友 可瑞康奶粉上火吗
19分钟前 发表
8000 端口
本站网友 十万个为什么电子书
22分钟前 发表
6.允许浏览器跨域请求(可选) Ollama 默认只允许来自127.0.0.1和0.0.0.0的跨域请求,如果你计划在其它前端面板中调用 Ollama API,比如Open WebUI,建议放开跨域限制: 变量名:OLLAMA_ORIGIS 变量值:* 7.命令行使用方式 控制台运行模型:ollama run  卸载模型:ollama rm  查看已安装模型:ollama list 启动服务
本站网友 达芙通
10分钟前 发表
先查看已安装模型:ollama list  选择其中一个模型进行运行 引用:ollama windows下安装
本站网友 蓝带
20分钟前 发表
\Windows\System2\WindowsPowerShell\v1.0). 以CMD为例
本站网友 bitdigg
8分钟前 发表
//localhost
本站网友 v50值
13分钟前 发表
先查看已安装模型:ollama list  选择其中一个模型进行运行 引用:ollama windows下安装
本站网友 pp点通
16分钟前 发表
(变量值的端口前号前有个冒号
本站网友 痔疮的治疗方法
18分钟前 发表
也可以用(位置:C
本站网友 附片
16分钟前 发表
8b,会自动下载安装 安装完成显示如下: 跑起来吧: 4.更改模型存放路径 Ollama 的默认模型存储路径如下:C
本站网友 李璐
20分钟前 发表
\Windows\System2\WindowsPowerShell\v1.0). 以CMD为例
本站网友 武汉韩语
3分钟前 发表
升级: 从新下载最新客户端,覆盖安装即可 安装后会默认开启启动,我这里这里选择8b,窗口输入:ollama run deepseek-r1
本站网友 南京百家湖国际花园
17分钟前 发表
8000 只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的
本站网友 麻黄连翘赤小豆汤
29分钟前 发表
) 注:要使用 IPv6,需要 Ollama 0.0.20 或更高版本
本站网友 亿亿网
16分钟前 发表
打开「系统环境变量」,新建一个系统变量OLLAMA_MODELS ,然后设置ollama模型的存储路径
本站网友 铁道部改革
20分钟前 发表
使用 在自己本地计算机上部署DeepSeek R1大模型实战_厦大数据库实验室博客
本站网友 平安贷款
8分钟前 发表
//localhost
本站网友 倭寇
20分钟前 发表
另外,可能需要在 Windows 防火墙中开放相应端口的远程访问
本站网友 魏娜
15分钟前 发表
) 注:要使用 IPv6,需要 Ollama 0.0.20 或更高版本