python scrapy简单模拟登录的代码分析

 更新时间:2021年07月18日 16:04:32   作者:小妮浅浅  
在本篇文章里小编给大家整理的是一篇关于python scrapy简单模拟登录的代码分析,有兴趣的朋友们可以学习参考下。

1、requests模块。直接携带cookies请求页面。

找到url,发送post请求存储cookie。

2、selenium(浏览器自动处理cookie)。

找到相应的input标签,输入文本,点击登录。

3、scrapy直接带cookies。

找到url,发送post请求存储cookie。

# -*- coding: utf-8 -*-
import scrapy
import re
 
class GithubLoginSpider(scrapy.Spider):
    name = 'github_login'
    allowed_domains = ['github.com']
    start_urls = ['https://github.com/login']
 
    def parse(self, response): # 发送Post请求获取Cookies
        authenticity_token = response.xpath('//input[@name="authenticity_token"]/@value').extract_first()
        utf8 = response.xpath('//input[@name="utf8"]/@value').extract_first()
        commit = response.xpath('//input[@name="commit"]/@value').extract_first()
        form_data = {
            'login': 'pengjunlee@163.com',
            'password': '123456',
            'webauthn-support': 'supported',
            'authenticity_token': authenticity_token,
            'utf8': utf8,
            'commit': commit}
        yield scrapy.FormRequest("https://github.com/session", formdata=form_data, callback=self.after_login)
 
    def after_login(self, response): # 验证是否请求成功
        print(re.findall('Learn Git and GitHub without any code!', response.body.decode()))

知识点扩展:

parse_login方法是提交完表单后callback回调函数指定要执行的方法,为了验证是否成功。这里我们直接在response中搜索Welcome Liu这个字眼就证明登录成功。

这个好理解,重点是yield from super().start_resquests(),这个代表着如果一旦登录成功后,就直接带着登录成功后Cookie值,方法start_urls里面的地址。

这样的话登录成功后的response可以直接在parse里面写。

# -*- coding: utf-8 -*-
import scrapy
from scrapy import FormRequest,Request


class ExampleLoginSpider(scrapy.Spider):
    name = "login_"
    allowed_domains = ["example.webscraping.com"]
    start_urls = ['http://example.webscraping.com/user/profile']
    login_url = 'http://example.webscraping.com/places/default/user/login'

    def parse(self, response):
        print(response.text)

    def start_requests(self):
        yield scrapy.Request(self.login_url,callback=self.login)

    def login(self,response):
        formdata = {
            'email':'liushuo@webscraping.com','password':'12345678'}
        yield FormRequest.from_response(response,formdata=formdata,
                                        callback=self.parse_login)
    def parse_login(self,response):
        # print('>>>>>>>>'+response.text)
        if 'Welcome Liu' in response.text:
            yield from super().start_requests()

到此这篇关于python scrapy简单模拟登录的代码分析的文章就介绍到这了,更多相关python scrapy模拟登录的方法内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python 爬取携程所有机票的实例代码

    Python 爬取携程所有机票的实例代码

    这篇文章主要介绍了Python 爬取携程所有机票功能,本文给大家介绍的非常详细,具有一定的参考借鉴价值,需要的朋友可以参考下
    2018-06-06
  • Python中的rjust()方法使用详解

    Python中的rjust()方法使用详解

    这篇文章主要介绍了Python中的rjust()方法使用详解,是Python学习入门中的基础知识,需要的朋友可以参考下
    2015-05-05
  • python实现查找两个字符串中相同字符并输出的方法

    python实现查找两个字符串中相同字符并输出的方法

    这篇文章主要介绍了python实现查找两个字符串中相同字符并输出的方法,涉及Python针对字符串操作的相关技巧,具有一定参考借鉴价值,需要的朋友可以参考下
    2015-07-07
  • 使用Python读取二进制文件的实例讲解

    使用Python读取二进制文件的实例讲解

    今天小编就为大家分享一篇使用Python读取二进制文件的实例讲解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-07-07
  • Flask框架的学习指南之开发环境搭建

    Flask框架的学习指南之开发环境搭建

    本文是Flask框架的学习指南系列文章的第一篇,主要给大家讲述的是开发环境的搭建工作,有需要的小伙伴可以参考下
    2016-11-11
  • Python 如何将 matplotlib 图表集成进到PDF 中

    Python 如何将 matplotlib 图表集成进到PDF 中

    这篇文章主要介绍了Python 如何将 matplotlib 图表集成进到PDF 中,文章介绍内容详细,具有一定的参考价值,需要的小伙伴可以参考一下,希望对你的学习有所帮助
    2022-03-03
  • Python中的日期时间处理详解

    Python中的日期时间处理详解

    Python程序能用很多方式处理日期和时间。转换日期格式是一个常见的例行琐事,这篇文章主要介绍了Python中的日期时间处理的几种方式的区别和联系,需要的朋友可以参考下
    2016-11-11
  • 六种酷炫Python运行进度条效果的实现代码

    六种酷炫Python运行进度条效果的实现代码

    这篇文章主要介绍了六种酷炫Python运行进度条的实现代码,本文通过实例图文相结合给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-07-07
  • Python爬虫简单运用爬取代理IP的实现

    Python爬虫简单运用爬取代理IP的实现

    这篇文章主要介绍了Python爬虫简单运用爬取代理IP的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-12-12
  • Python获取svn版本信息

    Python获取svn版本信息

    本文主要介绍了Python获取svn版本信息,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-07-07

最新评论