『scrapy爬虫』09. 获取子页面的数据(详细注释步骤)
import scrapy
class MySpider(scrapy.Spider):
name = 'myspider'
start_urls = ['http://example.com/pages/']
# 解析列表页面,获取详情页链接
def parse(self, response):
# 提取详情页链接并生成爬取请求
for href in response.css('a::attr(href)').getall():
if 'details' in href:
yield response.follow(href, self.parse_details)
# 解析详情页面,提取需要的数据
def parse_details(self, response):
# 提取数据并组成字典
item = {
'title': response.css('h1::text').get(),
'description': response.css('p::text').get(),
# 更多字段...
}
yield item # 提交数据
这段代码定义了一个Scrapy爬虫,它会从一个网页列表开始,根据详情页的链接爬取数据,并提取页面上的标题和描述信息。这个例子展示了如何在Scrapy中创建一个简单的爬虫,并使用CSS选择器提取页面数据。
评论已关闭