python生成器generator:深度学习读取batch图片的操作

 更新时间:2021年05月21日 08:35:47   作者:Rookiekk  
这篇文章主要介绍了python生成器generator:深度学习读取batch图片的操作,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教

在深度学习中训练模型的过程中读取图片数据,如果将图片数据全部读入内存是不现实的,所以有必要使用生成器来读取数据。

通过列表生成式,我们可以直接创建一个列表。但是,受到内存限制,列表容量肯定是有限的。而且,创建一个包含100万个元素的列表,不仅占用很大的存储空间,如果我们仅仅需要访问前面几个元素,那后面绝大多数元素占用的空间都白白浪费了。

所以,如果列表元素可以按照某种算法推算出来,那我们是否可以在循环的过程中不断推算出后续的元素呢?这样就不必创建完整的list,从而节省大量的空间。在Python中,这种一边循环一边计算的机制,称为生成器:generator。

创建generator有多种方法,第一种方法很简单

只要把一个列表生成式的[]改成(),就创建了一个generator:

>>> L = [x * x for x in range(10)]
>>> L
[0, 1, 4, 9, 16, 25, 36, 49, 64, 81]
>>> g = (x * x for x in range(10))
>>> g
<generator object <genexpr> at 0x1022ef630>

list中的元素可以直接打印出来 ,generator要一个一个打印出来,

可以通过next()函数获得generator的下一个返回值:

>>> next(g)
0
>>> next(g)
1
>>> next(g)
4
>>> next(g)
9
>>> next(g)
16

generator保存的是算法,每次调用next(g),就计算出g的下一个元素的值,直到计算到最后一个元素,没有更多的元素时,抛出StopIteration的错误。

上面这种不断调用next(g)实在是太变态了

正确的方法是使用for循环,因为generator也是可迭代对象:

>>> g = (x * x for x in range(10))
>>> for n in g:
...     print(n)

著名的斐波拉契数列(Fibonacci),除第一个和第二个数外,任意一个数都可由前两个数相加得到:

1, 1, 2, 3, 5, 8, 13, 21, 34, ...

斐波拉契数列用列表生成式写不出来

但是,用函数把它打印出来却很容易:

def fib(max):
    n, a, b = 0, 0, 1
    while n < max:
        print(b)
        a, b = b, a + b
        n = n + 1
    return 'done'

仔细观察,可以看出,fib函数实际上是定义了斐波拉契数列的推算规则,可以从第一个元素开始,推算出后续任意的元素,这种逻辑其实非常类似generator。

也就是说,上面的函数和generator仅一步之遥。要把fib函数变成generator,只需要把print(b)改为yield b就可以了:

def fib(max):
    n, a, b = 0, 0, 1
    while n < max:
        yield b
        a, b = b, a + b
        n = n + 1
    return 'done'

这就是定义generator的另一种方法。如果一个函数定义中包含yield关键字,那么这个函数就不再是一个普通函数,而是一个generator:

>>> f = fib(6)
>>> f
<generator object fib at 0x104feaaa0>

这里,最难理解的就是generator和函数的执行流程不一样。函数是顺序执行,遇到return语句或者最后一行函数语句就返回。而变成generator的函数,在每次调用next()的时候执行,遇到yield语句返回,再次执行时从上次返回的yield语句处继续执行。

在循环过程中不断调用yield,就会不断中断。当然要给循环设置一个条件来退出循环,不然就会产生一个无限数列出来。

同样的,把函数改成generator后,我们基本上从来不会用next()来获取下一个返回值,而是直接使用for循环来迭代:

>>> for n in fib(6):
...     print(n)
...

最后在读取图片的实际应用中的代码如下:

def train_data(train_file,batch_size,resize_shape):
    datas, labels = read_data(train_file)
    num_batch = len(datas)//batch_size
    for i in range(num_batch):
        imgs = []
        train_datas = datas[batch_size*i:batch_size*(i+1)]
        train_lables = labels[batch_size*i:batch_size*(i+1)]
        for img_path in train_datas:
            img = cv2.imread(img_path)
            img = cv2.resize(img,resize_shape)
            img = img/255 #归一化处理
            imgs.append(img)
        yield np.array(imgs),np.array(train_lables)

补充:深度学习算法--fit_generator()函数使用

如果我们数据量很大,那么是不可能将所有数据载入内存的,必将导致内存泄漏,

这时候我们可以用fit_generator函数来进行训练

from keras.datasets import imdb
from keras.preprocessing.sequence import pad_sequences
from keras.models import Sequential
from keras import layers
import numpy as np
import random
from sklearn.metrics import f1_score, accuracy_score

max_features = 100
maxlen = 50
batch_size = 320
(x_train, y_train), (x_test, y_test) = imdb.load_data(num_words=max_features)
x_train = pad_sequences(x_train, maxlen=maxlen)
x_test = pad_sequences(x_test, maxlen=maxlen)

def generator():
    while 1:
        row = np.random.randint(0, len(x_train), size=batch_size)
        x = np.zeros((batch_size, x_train.shape[-1]))
        y = np.zeros((batch_size,))
        x = x_train[row]
        y = y_train[row]
        yield x, y

# generator()
model = Sequential()
model.add(layers.Embedding(max_features, 32, input_length=maxlen))
model.add(layers.GRU(64, return_sequences=True))
model.add(layers.GRU(32))
# model.add(layers.Flatten())
# model.add(layers.Dense(32,activation='relu'))

model.add(layers.Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop', loss='binary_crossentropy', metrics=['acc'])
print(model.summary())

# history = model.fit(x_train, y_train, epochs=1,batch_size=32, validation_split=0.2)
# Keras中的fit()函数传入的x_train和y_train是被完整的加载进内存的,当然用起来很方便,但是如果我们数据量很大,
# 那么是不可能将所有数据载入内存的,必将导致内存泄漏,这时候我们可以用fit_generator函数来进行训练。
# fit_generator函数必须传入一个生成器,我们的训练数据也是通过生成器产生的
history = model.fit_generator(generator(), epochs=1, steps_per_epoch=len(x_train) // (batch_size))

print(model.evaluate(x_test, y_test))
y = model.predict_classes(x_test)
print(accuracy_score(y_test, y))

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • 基于Python开发Office文档图片提取器

    基于Python开发Office文档图片提取器

    这篇文章主要为大家详细介绍了一个基于PyQt5开发的桌面应用,可以实现Office文档图片提取功能,文中的示例代码讲解详细,需要的可以参考一下
    2025-01-01
  • Django操作session 的方法

    Django操作session 的方法

    这篇文章主要介绍了Django操作session 的方法,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-03-03
  • Python3基础之list列表实例解析

    Python3基础之list列表实例解析

    这篇文章主要介绍了Python3的list列表用法,这是Python3数据类型中非常常见的应用,需要的朋友可以参考下
    2014-08-08
  • Python中print()函数使用实例详解

    Python中print()函数使用实例详解

    Python的print()函数可以打印输出,常用来将内容打印到控制台,print()是python中最常见的一个函数,本文就通过一些实例来给大家讲讲如何使用print()函数,需要的朋友可以参考下
    2023-07-07
  • Pytest测试报告工具Allure的高级用法

    Pytest测试报告工具Allure的高级用法

    这篇文章介绍了Pytest测试报告工具Allure的高级用法,文中通过示例代码介绍的非常详细。对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2022-07-07
  • Python实现一个简单的QQ截图

    Python实现一个简单的QQ截图

    大家好,本篇文章主要讲的是Python实现一个简单的QQ截图,感兴趣的同学赶快来看一看吧,对你有帮助的话记得收藏一下的相关资料
    2022-02-02
  • 中秋快到了利用python画个月亮和月饼

    中秋快到了利用python画个月亮和月饼

    眼看中秋又快到了,今天小编就利用python画出月亮和月饼,感兴趣的小伙伴一定要收藏起来送给远方的朋友呀
    2021-09-09
  • Python中CSV文件(逗号分割)实战操作指南

    Python中CSV文件(逗号分割)实战操作指南

    CSV文件默认以英文逗号做为列分隔符,换行符作为行分隔符,下面这篇文章主要给大家介绍了关于Python中CSV文件(逗号分割)的相关资料,文中通过示例代码介绍的非常详细,需要的朋友可以参考下
    2022-07-07
  • 对Python中内置异常层次结构详解

    对Python中内置异常层次结构详解

    今天小编就为大家分享一篇对Python中内置异常层次结构详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-10-10
  • Python注释、分支结构、循环结构、伪“选择结构”用法实例分析

    Python注释、分支结构、循环结构、伪“选择结构”用法实例分析

    这篇文章主要介绍了Python注释、分支结构、循环结构、伪“选择结构”用法,结合实例形式分析了Python注释、分支结构、循环结构、伪“选择结构”相关功能、用法及操作注意事项,需要的朋友可以参考下
    2020-01-01

最新评论