『scrapy爬虫』08. 中间件的使用之引入cookie(详细注释步骤)
import scrapy
class MySpider(scrapy.Spider):
name = 'myspider'
start_urls = ['http://example.com']
# 通过下面的方法来定义cookie
def start_requests(self):
cookies = {
'name': 'value', # 这里填写你的cookie的key和value
'foo': 'bar'
}
for url in self.start_urls:
yield scrapy.Request(url, cookies=cookies)
def parse(self, response):
# 这里是你的解析逻辑
pass
这段代码定义了一个Scrapy爬虫,通过覆写start_requests
方法来引入cookie。在这个方法中,我们创建了一个cookie字典,并在生成的scrapy.Request
对象中设置了这个cookie字典。这样,爬虫启动时,会自动携带这些cookie发起请求。这是一个简单的例子,实际使用时,你需要将cookies
字典替换为你的cookie信息。
评论已关闭