Ollama Python 使用小结

 更新时间:2025年03月26日 10:53:11   作者:alden_ygq  
Ollama提供了Python SDK,使得开发者能够在Python环境中轻松集成和使用本地运行的模型进行自然语言处理任务,具有一定的参考价值,感兴趣的可以了解一下

Ollama 提供了 Python SDK,可以让开发者能够在 Python 环境中与本地运行的模型进行交互。

通过 Ollama 的 Python SDK 能够轻松地将自然语言处理任务集成到 Python 项目中,执行各种操作,如文本生成、对话生成、模型管理等,且不需要手动调用命令行。

安装 Python SDK

首先需要安装 Ollama 的 Python SDK。

可以使用 pip 安装:

pip install ollama

确保环境中已安装了 Python 3.x,并且网络环境能够访问 Ollama 本地服务。

启动本地服务

在使用 Python SDK 之前,确保 Ollama 本地服务已经启动。

可以使用命令行工具来启动它:

ollama serve

启动本地服务后,Python SDK 会与本地服务进行通信,执行模型推理等任务。

使用 Ollama 的 Python SDK 进行推理

安装了 SDK 并启动了本地服务后,就可以通过 Python 代码与 Ollama 进行交互。

首先,从 ollama 库中导入 chat 和 ChatResponse:

from ollama import chat
from ollama import ChatResponse

通过 Python SDK,可以向指定的模型发送请求,生成文本或对话:

from ollama import chat
from ollama import ChatResponse

response: ChatResponse = chat(model='deepseek-coder', messages=[
  {
    'role': 'user',
    'content': '你是谁?',
  },
])
# 打印响应内容
print(response['message']['content'])

# 或者直接访问响应对象的字段
#print(response.message.content)

执行以上代码,输出结果为:

我是由中国的深度求索(DeepSeek)公司开发的编程智能助手,名为DeepCoder。我可以帮助你解答与计算机科学相关的问题和任务。如果你有任何关于这方面的话题或者需要在某个领域进行学习或查询信息时请随时提问!

llama SDK 还支持流式响应,开发者可以在发送请求时通过设置 stream=True 来启用响应流式传输。

from ollama import chat

stream = chat(
    model='deepseek-coder',
    messages=[{'role': 'user', 'content': '你是谁?'}],
    stream=True,
)

# 逐块打印响应内容
for chunk in stream:
    print(chunk['message']['content'], end='', flush=True)

自定义客户端

开发者还可以创建自定义客户端,来进一步控制请求配置,比如设置自定义的 headers 或指定本地服务的 URL。

创建自定义客户端

通过 Client,可以自定义请求的设置(如请求头、URL 等),并发送请求。

from ollama import Client

client = Client(
    host='http://localhost:11434',
    headers={'x-some-header': 'some-value'}
)

response = client.chat(model='deepseek-coder', messages=[
    {
        'role': 'user',
        'content': '你是谁?',
    },
])
print(response['message']['content'])

输出:

我是由中国的深度求索(DeepSeek)公司开发的编程智能助手,名为DeepCoder。我主要用于回答计算机科学相关的问题和帮助解决与这些主题相关的不太清楚或困难的地方。如果你有任何关于Python、JavaScript或者其他计算机科学领域的问题,欢迎向我提问!

异步客户端

如果开发者希望异步执行请求,可以使用 AsyncClient 类,适用于需要并发的场景。

import asyncio
from ollama import AsyncClient

async def chat():
    message = {'role': 'user', 'content': '你是谁?'}
    response = await AsyncClient().chat(model='deepseek-coder', messages=[message])
    print(response['message']['content'])

asyncio.run(chat())

输出:

我是由中国的深度求索(DeepSeek)公司开发的编程智能助手,名为"DeepCoder"。我是一个专门回答计算机科学相关问题的AI模型,能够帮助用户解答关于机器学习、人工智能等领域的问题。对于其他非技术性问题或请求,例如情感分析或者日常对话类的需求,我是无法提供服务的。

异步客户端支持与传统的同步请求一样的功能,唯一的区别是请求是异步执行的,可以提高性能,尤其是在高并发场景下。

异步流式响应

如果开发者需要异步地处理流式响应,可以通过将 stream=True 设置为异步生成器来实现。

import asyncio
from ollama import AsyncClient

async def chat():
    message = {'role': 'user', 'content': '你是谁?'}
    async for part in await AsyncClient().chat(model='deepseek-coder', messages=[message], stream=True):
        print(part['message']['content'], end='', flush=True)

asyncio.run(chat())

响应将逐部分地异步返回,每部分都可以即时处理。

常用 API 方法

Ollama Python SDK 提供了一些常用的 API 方法,用于操作和管理模型。

1. chat 方法

与模型进行对话生成,发送用户消息并获取模型响应:

ollama.chat(model='llama3.2', messages=[{'role': 'user', 'content': 'Why is the sky blue?'}])

2. generate 方法

用于文本生成任务。与 chat 方法类似,但是它只需要一个 prompt 参数:

ollama.generate(model='llama3.2', prompt='Why is the sky blue?')

3. list 方法

列出所有可用的模型:

ollama.list()

4. show 方法

显示指定模型的详细信息:

ollama.show('llama3.2')

5. create 方法

从现有模型创建新的模型:

ollama.create(model='example', from_='llama3.2', system="You are Mario from Super Mario Bros.")

6. copy 方法

复制模型到另一个位置:

ollama.copy('llama3.2', 'user/llama3.2')

7. delete 方法

删除指定模型:

ollama.delete('llama3.2')

8. pull 方法

从远程仓库拉取模型:

ollama.pull('llama3.2')

9. push 方法

将本地模型推送到远程仓库:

ollama.push('user/llama3.2')

10. embed 方法

生成文本嵌入:

ollama.embed(model='llama3.2', input='The sky is blue because of rayleigh scattering')

11. ps 方法

查看正在运行的模型列表:

ollama.ps()

错误处理

Ollama SDK 会在请求失败或响应流式传输出现问题时抛出错误。

开发者可以使用 try-except 语句来捕获这些错误,并根据需要进行处理。

案例

model = 'does-not-yet-exist'

try:
    response = ollama.chat(model)
except ollama.ResponseError as e:
    print('Error:', e.error)
    if e.status_code == 404:
        ollama.pull(model)

在上述例子中,如果模型 does-not-yet-exist 不存在,抛出 ResponseError 错误,捕获后开发者可以选择拉取该模型或进行其他处理。

到此这篇关于Ollama Python 使用小结的文章就介绍到这了,更多相关Ollama Python 使用内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • python爬虫 猫眼电影和电影天堂数据csv和mysql存储过程解析

    python爬虫 猫眼电影和电影天堂数据csv和mysql存储过程解析

    这篇文章主要介绍了python爬虫 猫眼电影和电影天堂数据csv和mysql存储过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-09-09
  • Python 私有函数的实例详解

    Python 私有函数的实例详解

    这篇文章主要介绍了Python 私有函数的实例详解的相关资料,希望通过本文大家能掌握Python 私有函数的使用方法,需要的朋友可以参考下
    2017-09-09
  • 关于python的矩阵乘法运算

    关于python的矩阵乘法运算

    这篇文章主要介绍了关于python的矩阵乘法运算,矩阵是一个数字阵列,一个二维数组,n行r列的阵列称为n*r矩阵。如果n==r则称为方阵,需要的朋友可以参考下
    2023-04-04
  • 在Python中操作字典之clear()方法的使用

    在Python中操作字典之clear()方法的使用

    这篇文章主要介绍了在Python中操作字典之clear()方法的使用,是Python入门的基础知识,需要的朋友可以参考下
    2015-05-05
  • python的常用模块之collections模块详解

    python的常用模块之collections模块详解

    这篇文章主要介绍了python的常用模块之collections模块详解,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-12-12
  • Python使用剪切板的方法

    Python使用剪切板的方法

    这篇文章主要为大家详细介绍了Python使用剪切板的方法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
    2017-06-06
  • python能做哪方面的工作

    python能做哪方面的工作

    在本篇文章里我们给大家整理了关于学了python能做哪方面的工作的相关内容,有兴趣的朋友们可以学习下。
    2020-06-06
  • python3爬虫获取html内容及各属性值的方法

    python3爬虫获取html内容及各属性值的方法

    今天小编就为大家分享一篇python3爬虫获取html内容及各属性值的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-12-12
  • python xlsxwriter模块的使用

    python xlsxwriter模块的使用

    这篇文章主要介绍了python xlsxwriter模块的使用,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下
    2020-12-12
  • python读取raw binary图片并提取统计信息的实例

    python读取raw binary图片并提取统计信息的实例

    今天小编就为大家分享一篇python读取raw binary图片并提取统计信息的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-01-01

最新评论