TensorFlow教程Softmax逻辑回归识别手写数字MNIST数据集

 更新时间:2021年11月03日 17:02:05   作者:零尾  
这篇文章主要为大家介绍了python神经网络的TensorFlow教程基于Softmax逻辑回归识别手写数字的MNIST数据集示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助

基于MNIST数据集的逻辑回归模型做十分类任务

没有隐含层的Softmax Regression只能直接从图像的像素点推断是哪个数字,而没有特征抽象的过程。多层神经网络依靠隐含层,则可以组合出高阶特征,比如横线、竖线、圆圈等,之后可以将这些高阶特征或者说组件再组合成数字,就能实现精准的匹配和分类。

import tensorflow as tf
import numpy as np
import input_data
print('Download and Extract MNIST dataset')
mnist = input_data.read_data_sets('data/', one_hot=True) # one_hot=True意思是编码格式为01编码
print("tpye of 'mnist' is %s" % (type(mnist)))
print("number of train data is %d" % (mnist.train.num_examples))
print("number of test data is %d" % (mnist.test.num_examples))
trainimg = mnist.train.images
trainlabel = mnist.train.labels
testimg = mnist.test.images
testlabel = mnist.test.labels
print("MNIST loaded")

"""
print("type of 'trainimg' is %s"    % (type(trainimg)))
print("type of 'trainlabel' is %s"  % (type(trainlabel)))
print("type of 'testimg' is %s"     % (type(testimg)))
print("type of 'testlabel' is %s"   % (type(testlabel)))
print("------------------------------------------------")
print("shape of 'trainimg' is %s"   % (trainimg.shape,))
print("shape of 'trainlabel' is %s" % (trainlabel.shape,))
print("shape of 'testimg' is %s"    % (testimg.shape,))
print("shape of 'testlabel' is %s"  % (testlabel.shape,))

"""
x = tf.placeholder(tf.float32, [None, 784])
y = tf.placeholder(tf.float32, [None, 10]) # None is for infinite
w = tf.Variable(tf.zeros([784, 10])) # 为了方便直接用0初始化,可以高斯初始化
b = tf.Variable(tf.zeros([10])) # 10分类的任务,10种label,所以只需要初始化10个b
pred = tf.nn.softmax(tf.matmul(x, w) + b) # 前向传播的预测值
cost = tf.reduce_mean(-tf.reduce_sum(y*tf.log(pred), reduction_indices=[1])) # 交叉熵损失函数
optm = tf.train.GradientDescentOptimizer(0.01).minimize(cost)
corr = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1)) # tf.equal()对比预测值的索引和真实label的索引是否一样,一样返回True,不一样返回False
accr = tf.reduce_mean(tf.cast(corr, tf.float32))
init = tf.global_variables_initializer() # 全局参数初始化器
training_epochs = 100 # 所有样本迭代100次
batch_size = 100 # 每进行一次迭代选择100个样本
display_step = 5
# SESSION
sess = tf.Session() # 定义一个Session
sess.run(init) # 在sess里run一下初始化操作
# MINI-BATCH LEARNING
for epoch in range(training_epochs): # 每一个epoch进行循环
    avg_cost = 0. # 刚开始损失值定义为0
    num_batch = int(mnist.train.num_examples/batch_size)
    for i in range(num_batch): # 每一个batch进行选择
        batch_xs, batch_ys = mnist.train.next_batch(batch_size) # 通过next_batch()就可以一个一个batch的拿数据,
        sess.run(optm, feed_dict={x: batch_xs, y: batch_ys}) # run一下用梯度下降进行求解,通过placeholder把x,y传进来
        avg_cost += sess.run(cost, feed_dict={x: batch_xs, y:batch_ys})/num_batch
    # DISPLAY
    if epoch % display_step == 0: # display_step之前定义为5,这里每5个epoch打印一下
        train_acc = sess.run(accr, feed_dict={x: batch_xs, y:batch_ys})
        test_acc = sess.run(accr, feed_dict={x: mnist.test.images, y: mnist.test.labels})
        print("Epoch: %03d/%03d cost: %.9f TRAIN ACCURACY: %.3f TEST ACCURACY: %.3f"
              % (epoch, training_epochs, avg_cost, train_acc, test_acc))
print("DONE")

迭代100次跑一下模型,最终,在测试集上可以达到92.2%的准确率,虽然还不错,但是还达不到实用的程度。手写数字的识别的主要应用场景是识别银行支票,如果准确率不够高,可能会引起严重的后果。

Epoch: 095/100 loss: 0.283259882 train_acc: 0.940 test_acc: 0.922

插一些知识点,关于tensorflow中一些函数的用法

sess = tf.InteractiveSession()
arr = np.array([[31, 23,  4, 24, 27, 34],
                [18,  3, 25,  0,  6, 35],
                [28, 14, 33, 22, 30,  8],
                [13, 30, 21, 19,  7,  9],
                [16,  1, 26, 32,  2, 29],
                [17, 12,  5, 11, 10, 15]])
在tensorflow中打印要用.eval()
tf.rank(arr).eval() # 打印矩阵arr的维度
tf.shape(arr).eval() # 打印矩阵arr的大小
tf.argmax(arr, 0).eval() # 打印最大值的索引,参数0为按列求索引,1为按行求索引

以上就是TensorFlow教程Softmax逻辑回归识别手写数字MNIST数据集的详细内容,更多关于Softmax逻辑回归MNIST数据集手写识别的资料请关注脚本之家其它相关文章!

相关文章

  • Python vtk读取并显示dicom文件示例

    Python vtk读取并显示dicom文件示例

    今天小编就为大家分享一篇Python vtk读取并显示dicom文件示例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-01-01
  • python使用urllib2模块获取gravatar头像实例

    python使用urllib2模块获取gravatar头像实例

    python使用urllib2模块获取gravatar头像的实例,大家参考使用吧
    2013-12-12
  • 使用with torch.no_grad():显著减少测试时显存占用

    使用with torch.no_grad():显著减少测试时显存占用

    这篇文章主要介绍了使用with torch.no_grad():显著减少测试时显存占用问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2023-08-08
  • python self,cls,decorator的理解

    python self,cls,decorator的理解

    在python里面,self, cls 不是关键字,完全可以使用自己写的任意变量代替实现一样的效果
    2009-07-07
  • 浅谈tensorflow 中tf.concat()的使用

    浅谈tensorflow 中tf.concat()的使用

    今天小编就为大家分享一篇浅谈tensorflow 中tf.concat()的使用,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-02-02
  • python图像加噪声的实现示例

    python图像加噪声的实现示例

    图像加噪声就是其中一种常见的处理方式,噪声可以帮助提高图像的真实性和复杂性,使得处理后的图像更加接近真实的场景,本文主要介绍了python图像加噪声的实现示例,感兴趣的可以了解一下
    2023-08-08
  • python之NAN和INF值处理方式

    python之NAN和INF值处理方式

    这篇文章主要介绍了python之NAN和INF值处理方式,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2022-05-05
  • 详解PyQt5信号与槽的几种高级玩法

    详解PyQt5信号与槽的几种高级玩法

    这篇文章主要介绍了详解PyQt5信号与槽的几种高级玩法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-03-03
  • python批量创建变量并赋值操作

    python批量创建变量并赋值操作

    这篇文章主要介绍了python批量创建变量并赋值操作,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2021-06-06
  • python实发邮件实例详解

    python实发邮件实例详解

    在本篇文章里小编给大家整理的是关于python实发邮件的相关知识点内容,有需要的朋友们学习下。
    2019-11-11

最新评论