基于scrapy+mongodb的校园数据获取

以下是一个简化的例子,展示了如何使用Scrapy和MongoDB来抓取校园网站的数据。

首先,安装必要的库:




pip install scrapy pymongo

然后,创建一个Scrapy项目和一个Spider:




scrapy startproject campus_scraper
cd campus_scraper
scrapy genspider university_spider university.edu

campus_scraper/items.py中定义你想要抓取的数据项:




import scrapy
 
class CampusItem(scrapy.Item):
    title = scrapy.Field()
    link = scrapy.Field()
    description = scrapy.Field()

campus_scraper/spiders/university_spider.py中编写爬虫逻辑:




import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from campus_scraper.items import CampusItem
 
class UniversitySpider(CrawlSpider):
    name = 'university_spider'
    allowed_domains = ['university.edu']
    start_urls = ['http://www.university.edu/']
 
    rules = (
        Rule(LinkExtractor(allow=r'/\d*/'), callback='parse_item', follow=True),
    )
 
    def parse_item(self, response):
        item = CampusItem()
        item['title'] = response.xpath('//h1/text()').extract_first()
        item['link'] = response.url
        item['description'] = response.xpath('//div[@id="content"]/p/text()').extract_first()
        return item

campus_scraper/pipelines.py中设置MongoDB管道,用于存储爬取的数据:




import pymongo
 
class MongoPipeline(object):
    collection_name = 'campus_items'
 
    def __init__(self, mongo_uri, mongo_db):
        self.mongo_uri = mongo_uri
        self.mongo_db = mongo_db
 
    @classmethod
    def from_crawler(cls, crawler):
        return cls(
            mongo_uri=crawler.settings.get('MONGO_URI'),
            mongo_db=crawler.settings.get('MONGO_DATABASE', 'items')
        )
 
    def open_spider(self, spider):
        self.client = pymongo.MongoClient(self.mongo_uri)
        self.db = self.client[self.mongo_db]
 
    def close_spider(self, spider):
        self.client.close()
 
    def process_item(self, item, spider):
        self.db[self.collection_name].insert_one(dict(item))
        return item

settings.py中配置MongoDB URI和数据库:




MONGO_URI = 'mongodb://user:password@localhost:27017'
MONGO_DATABASE = 'my_database'
ITEM_PIPELINES = {
    'campus_scraper.pipelines.MongoPipeline': 300,
}

最后,运行爬虫:




scrapy crawl university_spider

这个例子展示了如何使用Scrapy和MongoDB来存储爬取的数据。这个例子假设你已经有了合适的权

最后修改于:2024年09月05日 09:52

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日