爬虫实战PyCharm+Scrapy爬取数据并存入MySQL




# 导入必要的模块
import pymysql
from twisted.enterprise import adbapi
from scrapy.utils.project import get_project_settings
 
class MysqlPipeline:
    def __init__(self, host, database, user, password, port, charset):
        self.host = host
        self.database = database
        self.user = user
        self.password = password
        self.port = port
        self.charset = charset
        self.dbpool = adbapi.ConnectionPool('pymysql', host=self.host, db=self.database, user=self.user,
                                            password=self.password, port=self.port, charset=self.charset,
                                            cursorclass=pymysql.cursors.DictCursor)
 
    @classmethod
    def from_crawler(cls, crawler):
        """
        通过Scrapy的配置文件获取数据库连接信息
        """
        host = crawler.settings.get('MYSQL_HOST')
        database = crawler.settings.get('MYSQL_DATABASE')
        user = crawler.settings.get('MYSQL_USER')
        password = crawler.settings.get('MYSQL_PASSWORD')
        port = crawler.settings.get('MYSQL_PORT')
        charset = crawler.settings.get('MYSQL_CHARSET')
        return cls(host, database, user, password, port, charset)
 
    def open_spider(self, spider):
        """
        爬虫开始运行时执行的操作
        """
        print('MysqlPipeline: 数据库连接开启')
 
    def close_spider(self, spider):
        """
        爬虫关闭时执行的操作
        """
        self.dbpool.close()
        print('MysqlPipeline: 数据库连接已关闭')
 
    def process_item(self, item, spider):
        """
        处理item,将数据存入数据库
        """
        query = self.dbpool.runInteraction(self.do_insert, item)
        query.addErrback(self.handle_error, item, spider)  # 处理异常
        return item
 
    def do_insert(self, cursor, item):
        """
        执行数据插入操作
        """
        insert_sql = """
            INSERT INTO job (title, company, salary, address, eduLevel, jobType, publishTime, detailUrl, category)
            VALUES (%s, %s, %s, %s, %s, %s, %s, %s, %s)
        """
        cursor.execute(insert_sql, (item['title'], item['company'], item['salary'], item['address'], item['eduLevel'],
                                   item['jobType'], item['publishTime'], item['detailUrl'], item['category']))
 
    def handle_error(self, failure, item, spider):
        """
        处理异常
        """
        print(failure)
 

这段代码实现了一个Scrapy的管道,用于将爬取的数据存入MySQL数据库。首先定义了一个\`MysqlPipeli

评论已关闭

推荐阅读

Vue中使用mind-map实现在线思维导图
2024年08月04日
VUE
Web前端最全Vue实现免密登录跳转的方式_vue怎么样不登录返回首页,最强技术实现
2024年08月04日
VUE
vue3 项目搭建教程(基于create-vue,vite,Vite + Vue)
2024年08月04日
VUE
Vue-颜色选择器实现方案——>Vue-Color( 实战*1+ Demo*7)
2024年08月04日
VUE
Vue项目卡顿慢加载?这些优化技巧告诉你!_vue数据多渲染卡顿
2024年08月04日
VUE
vue中的keep-alive详解与应用场景
2024年08月04日
VUE
Vue、React实现excel导出功能(三种实现方式保姆级讲解)
2024年08月04日
vue-office/docx插件实现docx文件预览
2024年08月04日
VUE
java调用js文件的两种方法(支持V8引擎)
2024年08月04日
JavaScript:解决计算精度问题/mathjs/bignumber.js/big.js/decimal.js
2024年08月04日
两周从爬虫小白变大神 _yjs_js_security_passport
2024年08月04日
JS笔记(对象、函数、数组)
2024年08月04日
Markdown.js:强大的纯JavaScript Markdown解析器
2024年08月04日
Vue项目:js模拟点击a标签下载文件并重命名,URL文件地址下载方法、请求接口下载文件方法总结。
2024年08月04日
vue 父组件怎么获取子组件里面的data数据
2024年08月04日
VUE
个人开发实现AI套壳网站快速搭建(Vue+elementUI+SpringBoot)
2024年08月04日
el-table 表格封装并改造实现单元格可编辑
2024年08月04日
none
nodejs环境下创建vue项目、SSH密钥登陆!!!
2024年08月04日
vue+quill+element-ui实现视频、图片上传及缩放保姆级教程,轻松使用富文本
2024年08月04日
【three.js】22. Imported Models导入模型
2024年08月04日