request携带cookie爬虫爬取招聘网站(多页),保存到mysql和sqlite数据库




import requests
from bs4 import BeautifulSoup
import pymysql
import sqlite3
 
# 连接MySQL数据库
def connect_mysql():
    db = pymysql.connect("localhost","testuser","testpassword","TESTDB")
    cursor = db.cursor()
    return db, cursor
 
# 连接SQLite数据库
def connect_sqlite():
    db = sqlite3.connect('jobs.sqlite')
    cursor = db.cursor()
    return db, cursor
 
# 将数据插入MySQL数据库
def insert_mysql(cursor, job_info):
    add_job_sql = """
        INSERT INTO jobs_mysql (title, company, location, summary, url)
        VALUES (%s, %s, %s, %s, %s)
    """
    cursor.execute(add_job_sql, job_info)
 
# 将数据插入SQLite数据库
def insert_sqlite(cursor, job_info):
    add_job_sql = """
        INSERT INTO jobs_sqlite (title, company, location, summary, url)
        VALUES (?, ?, ?, ?, ?)
    """
    cursor.execute(add_job_sql, job_info)
 
# 爬取招聘信息
def scrape_jobs(url, db_type):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
    session = requests.Session()
    session.cookies.update({'cookie': 'your_cookie_here'})
    response = session.get(url, headers=headers)
    soup = BeautifulSoup(response.text, 'html.parser')
 
    if db_type == 'mysql':
        db, cursor = connect_mysql()
    elif db_type == 'sqlite':
        db, cursor = connect_sqlite()
 
    for job_element in soup.find_all('div', class_='ish-ad-content'):
        title = job_element.find('h2', class_='title').text.strip()
        company = job_element.find('span', class_='company').text.strip()
        location = job_element.find('span', class_='location').text.strip()
        summary = job_element.find('div', class_='summary').text.strip()
        url = job_element.find('a', class_='ish-ad-link')['href']
        job_info = (title, company, location, summary, url)
 
        if db_type == 'mysql':
            insert_mysql(cursor, job_info)
            db.commit()
        elif db_type == 'sqlite':
            insert_sqlite(cursor, job_info)
            db.commit()
 
    db.close()
 
# 主函数
def main():
    base_url = 'https://www.indeed.com/jobs?q=data+scientist&l=New+York&start='
    for i in range(0, 11, 10):  # 从第0页爬到第1页,步长为10
        url = base_url + str(i)
        scrape_jobs(url, 'mysql')  # 使用MySQL数据库
        scrape_jobs(url, 'sqlite')  # 使用SQLite数据库
 
if __name__ == '__main__':
    main()
``

评论已关闭

推荐阅读

Vue中使用mind-map实现在线思维导图
2024年08月04日
VUE
Web前端最全Vue实现免密登录跳转的方式_vue怎么样不登录返回首页,最强技术实现
2024年08月04日
VUE
vue3 项目搭建教程(基于create-vue,vite,Vite + Vue)
2024年08月04日
VUE
Vue-颜色选择器实现方案——>Vue-Color( 实战*1+ Demo*7)
2024年08月04日
VUE
Vue项目卡顿慢加载?这些优化技巧告诉你!_vue数据多渲染卡顿
2024年08月04日
VUE
vue中的keep-alive详解与应用场景
2024年08月04日
VUE
Vue、React实现excel导出功能(三种实现方式保姆级讲解)
2024年08月04日
vue-office/docx插件实现docx文件预览
2024年08月04日
VUE
java调用js文件的两种方法(支持V8引擎)
2024年08月04日
JavaScript:解决计算精度问题/mathjs/bignumber.js/big.js/decimal.js
2024年08月04日
两周从爬虫小白变大神 _yjs_js_security_passport
2024年08月04日
JS笔记(对象、函数、数组)
2024年08月04日
Markdown.js:强大的纯JavaScript Markdown解析器
2024年08月04日
Vue项目:js模拟点击a标签下载文件并重命名,URL文件地址下载方法、请求接口下载文件方法总结。
2024年08月04日
vue 父组件怎么获取子组件里面的data数据
2024年08月04日
VUE
个人开发实现AI套壳网站快速搭建(Vue+elementUI+SpringBoot)
2024年08月04日
el-table 表格封装并改造实现单元格可编辑
2024年08月04日
none
nodejs环境下创建vue项目、SSH密钥登陆!!!
2024年08月04日
vue+quill+element-ui实现视频、图片上传及缩放保姆级教程,轻松使用富文本
2024年08月04日
【three.js】22. Imported Models导入模型
2024年08月04日