scrapy 爬虫:多线程爬取去微博热搜排行榜数据信息,进入详情页面拿取第一条微博信息,保存到本地text文件、保存到excel
以下是一个简化的Scrapy爬虫示例,用于爬取微博热搜排行榜,并抓取每个榜单条目的详情页面上的第一条微博信息。
首先,创建一个新的Scrapy项目和爬虫:
scrapy startproject weibo_spider
cd weibo_spider
scrapy genspider weibo weibo.com
接下来,编辑爬虫文件 weibo_spider/spiders/weibo.py
来实现多线程爬取:
import scrapy
from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings
from twisted.internet.utils import get_unused_port
class WeiboSpider(scrapy.Spider):
name = 'weibo'
allowed_domains = ['weibo.com']
start_urls = ['http://weibo.com/hot/realtimehot'] # 假设热搜排行榜的URL
def parse(self, response):
# 提取每个热搜关键词的详情页链接
for href in response.css('a::attr(href)').getall():
if 'detail.php' in href:
yield scrapy.Request(response.urljoin(href), callback=self.parse_detail)
def parse_detail(self, response):
# 提取每个详情页上的第一条微博信息
weibo_info = response.css('div.weibo_text::text').get()
if weibo_info:
yield {'weibo_info': weibo_info}
# 设置多线程
process = CrawlerProcess({
'LOG_LEVEL': 'ERROR', # 只显示错误信息
'CONCURRENT_REQUESTS': 16, # 并发请求数
})
process.crawl(WeiboSpider)
process.start() # 启动爬虫
这个脚本定义了一个名为weibo
的爬虫,它会从热搜排行榜页面提取关键词详情页的链接,然后爬取每个详情页上的第一条微博信息。爬虫使用CrawlerProcess
启动多线程,并设置了并发请求的数量。
请注意,实际使用时需要根据微博网站的实际情况调整选择器(CSS或XPath),以及处理登录、反爬、AJAX加载内容等情况。
运行这个脚本将启动一个多线程的Scrapy爬虫,它将会在控制台输出爬取的结果。
评论已关闭