Windows系统使用Ollama部署本地大模型的实现步骤
发布时间:2026-04-29 10:01:51 作者:lcx_defender
我要评论
本文主要介绍了在Ollama平台下载和安装AI模型的方法,包括点击按钮安装和使用指令下载两种方式,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
下载安装Ollama
Ollama 官网下载
https://ollama.com/ 箭头所指按钮任意一个都可以

选择下载方式
使用上方指令,或者点击按钮都可以,此处选择点击按钮

双击运行下载的exe文件

点击 install 等待安装完毕
下载模型
方法一
安装完毕后弹出的对话框里有ollama平台能够下载的所有大模型,从中选择你需要的模型

点击展开侧窗,点击settings,可以修改下载模型本地存储地址。第一次对话没有对应模型就会自动去下载

方法二:使用指令下载
在官网中,点击 Models 进入模型选择界面 https://ollama.com/search,根据想找的模型类型或者自己根据模型名称去搜索想要的模型。其中只有 cloud 标签的模型,只能使用 ollama 云端部署版本。其他模型,点击进入可以选择对应合适的体量去部署,以 qwen3.5 为例

可以通过以下指令下载,Windows上直接在CMD或powshell上执行:
# 基本格式 ollama pull 模型名称 # 以qwen3示例,中括号里的规模大小可选,如果不填默认为最新版 ollama pull qwen3[:4b] # 拉取后直接运行 ollama run 模型名称


到此这篇关于Windows系统使用Ollama部署本地大模型的实现步骤的文章就介绍到这了,更多相关Ollama部署本地大模型内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章
本文主要介绍如何在 Windows 系统快速部署 Ollama 开源大语言模型运行工具,并安装 Open WebUI 结合 cpolar 内网穿透软件,实现在公网环境也能访问你在本地内网搭建的 llam2026-04-07
Windows11下Ollama部署Qwen2.5大模型的实战指南
本文旨在记录 如何在Windows 11 本地环境下,利用 Ollama 部署 Qwen2.5 大模型,并实现 API 调用,无需显卡也能跑”、能够确保隐私安全,有需要的小伙伴可以跟随小编一起了解2026-03-18




最新评论