Ollma本地部署Qwen2.5 14B的详细过程(不使用docker)
部署机器硬件情况:内存 :32GB显卡 :3060
为什么不使用docker:1.网上教程大多以docker为主2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署
1.安装Ollama
下载地址:https://ollama.com/
下载好之后默认安装即可。

Ollama常用命令
【跟docker差不多,初次安装的话这边可以忽略,先看下面的】ollama serve # 启动ollamaollama create # 从模型文件创建模型ollama show # 显示模型信息ollama run # 运行模型,会先自动下载模型ollama pull # 从注册仓库中拉取模型ollama push # 将模型推送到注册仓库ollama list # 列出已下载模型ollama ps # 列出正在运行的模型ollama cp # 复制模型ollama rm # 删除模型
2.下载模型
Ollama模型库类似于Docker托管镜像的Docker Hub。链接:https://ollama.com/library/qwen2.5-coder:14b

复制这边的命令来拉取模型并运行。
第一次运行的时候需要下载。

3.启动
ollama run qwen2.5-coder:14b正常启动大概15秒左右。下载好之后即可运行。可以正常对其进行提问。

输入/? 查看常用指令

4.Open-webui实现可视化
官方github界面 :https://github.com/open-webui/open-webui?tab=readme-ov-file官方文档 :https://docs.openwebui.com/getting-started/具体参考Quick Start 的内容:https://docs.openwebui.com/getting-started/quick-start/
0.安装anaconda并打开anaconda prompt

打开之后默认使用的环境是base

1.创建一个名为open-webui 的Python3.11的环境:
conda create -n open-webui python=3.11安装好之后可以通过conda env list来查看

2.切换并激活到这个环境
conda activate open-webui

3.安装open-webui 库
pip install open-webui花费的时间比较长,10min左右。
4.启动服务
open-webui serve初次启动也需要花费一点时间,启动成功之后即可看到8080端口。

5.访问webui界面
在浏览器里输入localhost:8080 即可正常访问。第一次登录会要求输入用户名、邮箱和密码,之后每次登录都会要求输入邮箱和密码。

左上角可以切换安装好的模型。

到此这篇关于Ollma本地部署Qwen2.5 14B(不使用docker)的文章就介绍到这了,更多相关Ollma本地部署Qwen内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!
相关文章
基于spring-boot和docker-java实现对docker容器的动态管理和监控功能[附完整源码下载]
Docker 是一个开源的应用容器引擎,和传统的虚拟机技术相比,Docker 容器性能开销极低,因此也广受开发者喜爱。这篇文章主要介绍了基于spring-boot和docker-java实现对docker容器的动态管理和监控 ,需要的朋友可以参考下2019-06-06
使用Dockerfile.dockerignore提升Docker镜像构建速度
这篇文章主要为大家介绍了使用Dockerfile.dockerignore提升Docker镜像构建速度,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪<BR>2023-10-10
本地Docker部署Navidrome音乐服务器与远程访问听歌详细教程(图文详解)
本文和大家分享一款目前在G站有11K+Star的开源跨平台音乐服务器 Navidrome,如何在 Linux 环境本地使用 Docker 部署,并结合cpolar 内网穿透工具配置公网地址,实现随时随地远程访问本地存储音乐的详细流程,感兴趣的朋友跟随小编一起看看吧2024-08-08
docker images,info,-d等命令报错的解决方法
最近刚接触Docker,所以在学习的过程中出现了好多的问题,百度上不好找,谷歌的话,楼主不会翻墙。后来通过各方求助和细心研究解决了一些遇到的问题,现在将遇到的问题和解决方法分享给大家,有需要的朋友们可以参考借鉴。2016-11-11


最新评论