Ollama 简单安装(windows/mac/linux/docker)

  发布时间:2026-03-07 20:27:18   作者:佚名   我要评论
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行,Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互

Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。

Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。

  • CPU:多核处理器(推荐 4 核或以上)。
  • GPU:如果你计划运行大型模型或进行微调,推荐使用具有较高计算能力的 GPU(如 NVIDIA 的 CUDA 支持)。
  • 内存:至少 8GB RAM,运行较大模型时推荐 16GB 或更高。
  • 存储:需要足够的硬盘空间来存储预训练模型,通常需要 10GB 至数百 GB 的空间,具体取决于模型的大小。
  • 软件要求:确保系统上安装了最新版本的 Python(如果打算使用 Python SDK)。

Ollama 官方下载地址:https://ollama.com/download

我们可以根据不同的系统下载对应的包。

1、Windows 系统安装

打开浏览器,访问 Ollama 官方网站:https://ollama.com/download,下载适用于 Windows 的安装程序。

双击运行,按向导完成安装(默认安装在 C:\Users\<用户名>\.ollama

自定义安装路径‌(如不想装在 C 盘):

OllamaSetup.exe /DIR="D:\Ollama"

下载地址为:https://ollama.com/download/OllamaSetup.exe

下载完成后,双击安装程序并按照提示完成安装。

验证安装

打开命令提示符或 PowerShell,输入以下命令验证安装是否成功:

ollama --version

如果显示版本号,则说明安装成功。

更改安装路径(可选)

如果需要将 Ollama 安装到非默认路径,可以在安装时通过命令行指定路径,例如:

OllamaSetup.exe /DIR="d:\some\location"

这样可以将 Ollama 安装到指定的目录。

2、macOS 系统安装

打开浏览器,访问 Ollama 官方网站:https://ollama.com/download,下载适用于 macOS 的安装程序。

下载地址为:https://ollama.com/download/Ollama-darwin.zip

下载完成后,双击安装包并按照提示完成安装。

安装完成后,通过以下命令验证:

ollama --version

如果显示版本号,则说明安装成功。

说明

推荐方式‌(直接安装):下载 Ollama-darwin.zip解压并双击安装包,按提示完成安装

备选方式‌(使用 Homebrew):

brew install ollama

3、Linux 系统安装

Linux 下可以使用一键安装脚本,我们打开终端,运行以下命令:

curl -fsSL https://ollama.com/install.sh | bash

安装完成后,通过以下命令验证:

ollama --version

如果显示版本号,则说明安装成功。

说明

‌一键安装脚本‌(适用于 Ubuntu、Debian、CentOS 等主流发行版):

curl -fsSL https://ollama.com/install.sh | sh

‌手动安装‌(适用于离线或网络受限环境):
下载压缩包:ollama-linux-amd64.tgz
解压并移动到系统目录:

sudo tar -C /usr -xzf ollama-linux-amd64.tgz

4、Docker 安装

如果你熟悉 Docker,也可以通过 Docker 安装 Ollama。

官方 Docker 镜像 ollama/ollama 可在 Docker Hub 上获取:https://hub.docker.com/r/ollama/ollama

拉取 Docker 镜像:

docker pull ollama/ollama

运行容器:

docker run -p 11434:11434 ollama/ollama

访问 http://localhost:11434 即可使用 Ollama。

‌后续操作建议‌

‌查看可用模型‌:Ollama 模型库

拉取并运行模型‌(例如 Llama 3):

ollama pull llama3 ollama run llama3

‌图形化界面推荐‌:使用 Open WebUI

docker run -d -p 3000:8080 --name open-webui ghcr.io/open-webui/open-webui:main

然后访问 http://localhost:3000

‌注意事项‌

硬件要求‌:

内存‌:至少 8GB RAM,推荐 16GB+ 以运行 7B 参数以上模型

存储‌:模型文件通常需 10GB 至数百 GB 空间(取决于模型大小)

GPU‌:NVIDIA 显卡(支持 CUDA)可显著加速推理,但非必需

国内用户‌:若拉取模型缓慢,可配置阿里云镜像加速

安装完成后,即可开始本地运行如 Llama、Mistral、Qwen、DeepSeek 等开源大模型。

相关文章

  • Ollama 简单安装(windows/mac/linux/docker)

    Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行,Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互
    2026-03-07
  • Ollama入门简介 Ollama是什么东西有哪些作用

    Ollama 可以说是一个让你在自家电脑上就能轻松玩转大语言模型的“AI 模型管家”,它的核心作用就是将复杂的大模型本地部署过程,简化到只需几行命令,让每个人都能便捷、安
    2026-03-07
  • Ollama最新版安装包下载和安装步骤(开源,简单,小白5分钟学会)

    本文详细介绍了Ollama的安装流程,包括Windows和Linux两个平台的安装步骤,以及如何修改模型存储路径和使用示例,本文给大家介绍的非常详细,感兴趣的朋友跟随小编一起看看吧
    2026-03-06

最新评论