Nodejs本地部署DeepSeek的教程详解

 更新时间:2025年02月14日 09:45:10   作者:海上彼尚  
DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私,本文主要为大家详细介绍了Nodejs本地部署DeepSeek的相关知识,需要的可以了解下

1.下载 Ollama

https://ollama.com/

下载之后点击安装,等待安装成功后,打开cmd窗口,输入以下指令:

ollama -v

 如果显示了版本号,则代表已经下载成功了。

2.下载DeepSeek模型

 然后选择自己对应配置的模型,在复制右侧指令到cmd窗口,就可以把模型下载到本地了。

3.下载 ollama.js 

npm下载方式:

npm i ollama

yarn下载方式:

yarn add ollama

pnpm下载方式:

pnpm i ollama

下载完成后,按照ollama.js 官方文档指示则可使用,下面是一个最简单的案例:

import { Ollama } from 'ollama'
 
const ollama = new Ollama({
    host: 'http://127.0.0.1:11434'
})
 
const response = await ollama.chat({
    model: 'deepseek-r1:1.5b',
    messages: [{ role: 'user', content: '你好' }],
})
 
console.log(response.message.content)

输出结果:

 最后,如果大家不熟悉 Ollama 的指令,可以参考下文

4.ollama基本使用教程

Ollama 是一个开源的大型语言模型服务工具,能够帮助用户在本地运行大模型。通过简单的安装指令,用户可以在本地运行开源的大型语言模型,如 Llama 21。

1. 安装 Ollama

支持 macOS、Linux 和 Windows(通过 WSL)。

macOS 或 Linux

# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh

Windows (WSL2)

安装 WSL2 和 Ubuntu。

在 WSL 终端中运行上述安装脚本。

2. 基础命令

启动与停止

# 启动 Ollama 服务(后台运行)
ollama serve
 
# 停止服务
ollama stop

更新 Ollama

ollama upgrade

3. 模型管理

下载预训练模型

# 下载官方模型(如 llama2、mistral)
ollama pull <model-name>
# 示例
ollama pull llama2

运行模型

# 启动交互式对话
ollama run <model-name>
# 示例
ollama run llama2

查看已安装模型

ollama list

删除模型

ollama rm <model-name>

从 Modelfile 创建自定义模型

创建一个 Modelfile 文件:

FROM llama2  # 基础模型
SYSTEM """你是一个友好的助手,用中文回答。"""
PARAMETER temperature 0.7  # 控制生成随机性(0-1)

构建自定义模型:

ollama create my-model -f Modelfile

运行自定义模型:

ollama run my-model

4. 高级功能

服务器模式与 API

启动 API 服务(默认端口 11434):

ollama serve

通过 HTTP 调用 API:

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "你好,请介绍一下你自己",
  "stream": false
}'

多会话管理

# 启动一个会话并命名
ollama run llama2 --name chat1
# 在另一个终端启动新会话
ollama run llama2 --name chat2

环境变量配置

# 更改默认端口
OLLAMA_HOST=0.0.0.0:8080 ollama serve
 
# 使用 GPU 加速(需 NVIDIA 驱动)
OLLAMA_GPU_METAL=1 ollama run llama2

5. 常见问题与技巧

加速模型下载

# 使用镜像源(如中国用户)
OLLAMA_MODELS=https://mirror.example.com ollama pull llama2

查看日志

tail -f ~/.ollama/logs/server.log

模型参数调整

在 Modelfile 中可设置:

  • temperature: 生成随机性(0=确定,1=随机)
  • num_ctx: 上下文长度(默认 2048)
  • num_gpu: 使用的 GPU 数量

模型导出与分享

# 导出模型
ollama export my-model > my-model.tar
 
# 导入模型
ollama import my-model.tar

到此这篇关于Nodejs本地部署DeepSeek的教程详解的文章就介绍到这了,更多相关Nodejs本地部署DeepSeek内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • node简单实现一个更改头像功能的示例

    node简单实现一个更改头像功能的示例

    本篇文章主要介绍了node简单实现一个更改头像功能的示例,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-12-12
  • 浅谈HTTP 缓存的那些事儿

    浅谈HTTP 缓存的那些事儿

    HTTP 缓存机制作为 Web 应用性能优化的重要手段,是想要成为前端架构的必备技能。这篇文章主要介绍了浅谈HTTP 缓存并用node实现缓存,非常具有实用价值,需要的朋友可以参考下
    2018-10-10
  • Node.js利用断言模块assert进行单元测试的方法

    Node.js利用断言模块assert进行单元测试的方法

    最近在用Node写一个实时聊天小应用,其中就用到了单元测试,所以死下面这篇文章主要给大家介绍了关于Node.js利用断言模块assert进行单元测试的方法,文中通过示例代码介绍的非常详细,需要的朋友可以参考借鉴,下面来一起看看吧。
    2017-09-09
  • 搭建pomelo 开发环境

    搭建pomelo 开发环境

    Pomelo是基于 Node.js 的高性能、分布式游戏服务器框架。它包括基础的开发框架和相关的扩展组件(库和工具包),可以帮助你省去游戏开发枯燥中的重复劳动和底层逻辑的开发。Pomelo不但适用于游戏服务器开发,也可用于开发高实时 Web 应用
    2014-06-06
  • Node.js中处理错误的4种最佳方法分享

    Node.js中处理错误的4种最佳方法分享

    错误处理并不是编码工作中最吸引人的部分,但在 Node.js 中构建可靠、生产级别的应用程序时,它是绝对必要的,下面小编就来为大家介绍一下Node.js中处理错误的4种最佳方法吧
    2025-02-02
  • Node.js中使用mongoose操作mongodb数据库的方法

    Node.js中使用mongoose操作mongodb数据库的方法

    如何利用mongoose将数据写入mongodb数据库呢?操作方法很简单,下面小编给大家分享Node.js中使用mongoose操作mongodb数据库的方法,感兴趣的朋友一起看看吧
    2017-09-09
  • Koa日志中间件封装开发详解

    Koa日志中间件封装开发详解

    这篇文章主要介绍了Koa日志中间件封装开发详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2019-03-03
  • gulp加批处理(.bat)实现ng多应用一键自动化构建

    gulp加批处理(.bat)实现ng多应用一键自动化构建

    这篇文章主要给大家介绍了利用gulp加上批处理(.bat)实现ng多应用一键自动化构建的相关资料,文中介绍的很详细,需要的朋友可以参考借鉴,下面来一起看看吧。
    2017-02-02
  • 详解Node.js中的事件机制

    详解Node.js中的事件机制

    Node.js能够在众多的后端JavaScript技术之中脱颖而出,正是因其基于事件的特点而受到欢迎,所以这篇文章小编给大家详细介绍了Node.js中的事件机制,本文介绍的很详细,对大家的理解和学习很有帮助,下面来一起看看吧。
    2016-09-09
  • 用nodeJS搭建本地文件服务器的几种方法小结

    用nodeJS搭建本地文件服务器的几种方法小结

    本篇文章主要介绍了用nodeJS搭建本地文件服务器的几种方法小结,具有一定的参考价值,感兴趣的小伙伴们可以参考一下。
    2017-03-03

最新评论