python+selenium自动化实战携带cookies模拟登陆微博

 更新时间:2021年01月19日 09:45:22   作者:乎你  
这篇文章主要介绍了python+selenium自动化实战携带cookies模拟登陆微博,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

首先获取cookies,使用手机扫码登录斗鱼,然后利用网页cookies保存在本地

有些同学可能会问,这不是相当于自己登录了吗,还模拟什么呢,其实来说这是一次获取cookies可以使用很久

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time  : 2020/12/29 16:27
# @Author : huni
# @File  : 微博cookies.py
# @Software: PyCharm
from selenium import webdriver
from time import sleep
import json
if __name__ == '__main__':
  driver = webdriver.Chrome(executable_path='./chromedriver.exe')
  driver.maximize_window()
  driver.get('https://weibo.com/login.php')
  sleep(6)
  # driver.switch_to.frame(driver.find_element_by_xpath('//*[@id="anony-reg-new"]/div/div[1]/iframe')) # 切换浏览器标签定位的作用域
  driver.find_element_by_xpath('//*[@id="pl_login_form"]/div/div[1]/div/a[2]').click()
  sleep(10)
  dictCookies = driver.get_cookies() # 获取list的cookies
  jsonCookies = json.dumps(dictCookies) # 转换成字符串保存
  with open('微博_cookies.txt', 'w') as f:
    f.write(jsonCookies)
  print('cookies保存成功!')

然后利用cookies登录到微博,实现模拟登陆

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time  : 2020/12/29 16:30
# @Author : huni
# @File  : 携带cookies模拟登陆微博.py
# @Software: PyCharm
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
from time import sleep
import json
def browser_initial():
  # chrome_options = Options()
  # chrome_options.add_argument('--headless')
  # browser = webdriver.Chrome(options=chrome_options)
  browser = webdriver.Chrome(executable_path='./chromedriver.exe')
  browser.maximize_window()
  browser.get(
    'https://weibo.com/login.php')
  return browser

def log_csdn(browser):
  with open('微博_cookies.txt', 'r', encoding='utf8') as f:
    listCookies = json.loads(f.read())

  # 往browser里添加cookies
  for cookie in listCookies:
    cookie_dict = {
      'domain': '.weibo.com',
      'name': cookie.get('name'),
      'value': cookie.get('value'),
      "expires": '',
      'path': '/',
      'httpOnly': False,
      'HostOnly': False,
      'Secure': False
    }
    browser.add_cookie(cookie_dict)
  sleep(3)
  browser.refresh() # 刷新网页,cookies才成功

if __name__ == "__main__":
  browser = browser_initial()
  log_csdn(browser)

到此这篇关于python+selenium自动化实战携带cookies模拟登陆微博的文章就介绍到这了,更多相关selenium自动化cookies模拟登陆内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家! 

相关文章

  • Python3中使用urllib的方法详解(header,代理,超时,认证,异常处理)

    Python3中使用urllib的方法详解(header,代理,超时,认证,异常处理)

    这篇文章整理了一些关于urllib使用中的一些关于header,代理,超时,认证,异常处理处理方法,对大家学习python具有一定的参考借鉴价值,有需要的朋友们下面来一起看看吧。
    2016-09-09
  • 为什么相对PHP黑python的更少

    为什么相对PHP黑python的更少

    在本篇内容里小编给各位整理了关于为什么相对PHP黑python的更少的原因和知识点,需要的朋友们可以参考下。
    2020-06-06
  • Python实现微博动态图片爬取详解

    Python实现微博动态图片爬取详解

    这篇文章主要为大家介绍了如何利用Python中的爬虫实现微博动态图片的爬取,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起动手试一试
    2022-03-03
  • Python 设计模式中的创建型建造者模式

    Python 设计模式中的创建型建造者模式

    本文介绍Python设计模式中的创建型建造者模式,其表现为复杂对象的创建与表现相分离,这样,同一个过程就有不同的表现,想要创建一个由多个部分组成的对象,而且它的构成需要一步接一步的完成。只有当各个部分都完成了,这个对象才完整,下文相关自来哦,需要的朋友可以参考下
    2022-02-02
  • python中的__slots__使用示例

    python中的__slots__使用示例

    这篇文章主要介绍了python中的__slots__使用示例,__slots__用来限制class能添加的属性,需要的朋友可以参考下
    2015-02-02
  • Python批量删除mysql中千万级大量数据的脚本分享

    Python批量删除mysql中千万级大量数据的脚本分享

    这篇文章主要介绍了Python批量删除mysql中千万级大量数据的示例代码,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下
    2020-12-12
  • Python协程异步爬取数据(asyncio+aiohttp)实例

    Python协程异步爬取数据(asyncio+aiohttp)实例

    这篇文章主要为大家介绍了Python协程异步爬取数据(asyncio+aiohttp)实现示例,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2023-08-08
  • Pandas 实现分组计数且不计重复

    Pandas 实现分组计数且不计重复

    这篇文章主要介绍了Pandas 实现分组计数且不计重复的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2021-03-03
  • 基于Python实现的百度贴吧网络爬虫实例

    基于Python实现的百度贴吧网络爬虫实例

    这篇文章主要介绍了基于Python实现的百度贴吧网络爬虫,实例分析了Python实现网络爬虫的相关技巧,非常具有实用价值,需要的朋友可以参考下
    2015-04-04
  • 基于Python制作一个多进制转换工具

    基于Python制作一个多进制转换工具

    这篇文章主要介绍了如何利用Python制作一个多进制转换工具,可以实现2进制、4进制、8进制、10进制、16进制、32进制直接的互转,需要的可以参考一下
    2022-02-02

最新评论