查看Ollama GPU资源使用情况的两种方法
发布时间:2026-03-09 10:41:59 作者:老赵全栈实战
我要评论
本文主要介绍了如何查看Ollama的GPU内存使用情况,包括通过命令行工具ollamaps和任务管理器两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
📅 今日知识点
- 核心主题:Ollama GPU内存使用情况查看及监控方法
💻 如何查看Ollama的GPU内存使用情况
方法1. 通过ollama ps
通过命令"ollama ps"来查看当前运行的模型及其资源占用情况是最直接的方法:
# 查看当前运行的模型及资源使用情况 ollama ps
输出示例:

关键字段说明:
- NAME:模型名称和版本
- ID:模型ID
- SIZE:模型文件大小,即模型权重大小
- PROCESSOR:当前的共享GPU和专用GPU使用百分比,其中CPU指共享GPU
- CONTEXT:模型上下文窗口的内存占用
- UNTIL:模型运行了多长时间
实用技巧:
# 持续监控(每2秒刷新一次)
watch -n 2 ollama ps
# Windows PowerShell 等效命令(每2秒执行一次)
while ($true) { ollama ps; Start-Sleep 2 }
方法2. Windows平台下通过任务管理器查看
对于Windows用户,可以通过图形界面直观查看资源使用情况:
操作步骤:
- 按
Ctrl + Shift + Esc打开任务管理器 - 切换到「详细信息」选项卡
- 找到
ollama.exe进程 - 右键点击标题行 →「选择列(S)」→ 把「GPU」相关的列显示处理
查看要点:
- GPU:显示进程的GPU使用率
- 专用 GPU 内存:显示显存占用情况
- 共享 GPU 内存:显示系统内存作为显存使用的情况
下图展示了笔者环境中的情况:

此外,还可以在任务管理器的性能页面,查看GPU的总体使用情况,具体情况如下图所示:

到此这篇关于查看Ollama GPU资源使用情况的两种方法的文章就介绍到这了,更多相关Ollama GPU资源使用内容请搜索脚本之家以前的文章或继续浏览下面的相关文章,希望大家以后多多支持脚本之家!
相关文章
Ollama 是一个开源工具,旨在让用户能够在本地轻松运行大型语言模型,它封装了模型下载、环境配置、API服务等复杂步骤,提供了简洁的命令行和API接口2026-03-08
文章介绍了Ollama模型管理工具的各项命令,包括模型的拉取、运行、列出、查看、删除等操作,同时,还涉及服务管理、配置环境变量、高级模型操作、API使用、批量操作等,文章详2026-03-08
Ollama 提供了多种命令行工具(CLI)供用户与本地运行的模型进行交互2026-03-08
运行 Ollama 模型是在本地使用大语言模型(LLM)进行推理、对话或其他任务的核心步骤,以下是运行 Ollama 模型的简要指南,涵盖拉取模型、运行模型以及常见配置,适用于已安2026-03-08
Ollama 简单安装(windows/mac/linux/docker)
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行,Ollama 对硬件要求不高,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互2026-03-07
Ollama 可以说是一个让你在自家电脑上就能轻松玩转大语言模型的“AI 模型管家”,它的核心作用就是将复杂的大模型本地部署过程,简化到只需几行命令,让每个人都能便捷、安2026-03-07
Ollama最新版安装包下载和安装步骤(开源,简单,小白5分钟学会)
本文详细介绍了Ollama的安装流程,包括Windows和Linux两个平台的安装步骤,以及如何修改模型存储路径和使用示例,本文给大家介绍的非常详细,感兴趣的朋友跟随小编一起看看吧2026-03-06









最新评论