Python实现在线程里运行scrapy的方法
更新时间:2015年04月07日 16:45:52 作者:pythoner
这篇文章主要介绍了Python实现在线程里运行scrapy的方法,涉及Python线程操作的技巧,非常具有实用价值,需要的朋友可以参考下
本文实例讲述了Python实现在线程里运行scrapy的方法。分享给大家供大家参考。具体如下:
如果你希望在一个写好的程序里调用scrapy,就可以通过下面的代码,让scrapy运行在一个线程里。
"""
Code to run Scrapy crawler in a thread - works on Scrapy 0.8
"""
import threading, Queue
from twisted.internet import reactor
from scrapy.xlib.pydispatch import dispatcher
from scrapy.core.manager import scrapymanager
from scrapy.core.engine import scrapyengine
from scrapy.core import signals
class CrawlerThread(threading.Thread):
def __init__(self):
threading.Thread.__init__(self)
self.running = False
def run(self):
self.running = True
scrapymanager.configure(control_reactor=False)
scrapymanager.start()
reactor.run(installSignalHandlers=False)
def crawl(self, *args):
if not self.running:
raise RuntimeError("CrawlerThread not running")
self._call_and_block_until_signal(signals.spider_closed, \
scrapymanager.crawl, *args)
def stop(self):
reactor.callFromThread(scrapyengine.stop)
def _call_and_block_until_signal(self, signal, f, *a, **kw):
q = Queue.Queue()
def unblock():
q.put(None)
dispatcher.connect(unblock, signal=signal)
reactor.callFromThread(f, *a, **kw)
q.get()
# Usage example below:
import os
os.environ.setdefault('SCRAPY_SETTINGS_MODULE', 'myproject.settings')
from scrapy.xlib.pydispatch import dispatcher
from scrapy.core import signals
from scrapy.conf import settings
from scrapy.crawler import CrawlerThread
settings.overrides['LOG_ENABLED'] = False # avoid log noise
def item_passed(item):
print "Just scraped item:", item
dispatcher.connect(item_passed, signal=signals.item_passed)
crawler = CrawlerThread()
print "Starting crawler thread..."
crawler.start()
print "Crawling somedomain.com...."
crawler.crawl('somedomain.com) # blocking call
print "Crawling anotherdomain.com..."
crawler.crawl('anotherdomain.com') # blocking call
print "Stopping crawler thread..."
crawler.stop()
希望本文所述对大家的Python程序设计有所帮助。
您可能感兴趣的文章:
- 实践Python的爬虫框架Scrapy来抓取豆瓣电影TOP250
- 使用Python的Scrapy框架编写web爬虫的简单示例
- Python基于scrapy采集数据时使用代理服务器的方法
- Python使用scrapy采集数据时为每个请求随机分配user-agent的方法
- Python使用scrapy采集数据过程中放回下载过大页面的方法
- Python使用scrapy采集时伪装成HTTP/1.1的方法
- Python打印scrapy蜘蛛抓取树结构的方法
- Python使用scrapy抓取网站sitemap信息的方法
- Python自定义scrapy中间模块避免重复采集的方法
- 深入剖析Python的爬虫框架Scrapy的结构与运作流程
相关文章
利用Python脚本写端口扫描器socket,python-nmap
这篇文章主要介绍了利用Python脚本写端口扫描器socket,python-nmap,文章围绕主题展开详细介绍,具有一定的参考价值,需要的小伙伴可以参考一下2022-07-07
python中functools.lru_cache的具体使用
本文主要介绍了python中functools.lru_cache的具体使用,通过functools.lru_cache,你可以轻松优化具有重复计算的函数,大大提高代码的执行效率2024-09-09
深入理解Python虚拟机中浮点数(float)的实现原理及源码
在本篇文章当中主要分析在 cpython 虚拟机当中 float 类型的实现原理以及与他相关的一些源代码,文中的示例代码讲解详细,感兴趣的可以了解一下2023-03-03


最新评论