request携带cookie爬虫爬取招聘网站(多页),保存到mysql和sqlite数据库




import requests
from bs4 import BeautifulSoup
import pymysql
import sqlite3
 
# 连接MySQL数据库
def connect_mysql():
    db = pymysql.connect("localhost","testuser","testpassword","TESTDB")
    cursor = db.cursor()
    return db, cursor
 
# 连接SQLite数据库
def connect_sqlite():
    db = sqlite3.connect('jobs.sqlite')
    cursor = db.cursor()
    return db, cursor
 
# 将数据插入MySQL数据库
def insert_mysql(cursor, job_info):
    add_job_sql = """
        INSERT INTO jobs_mysql (title, company, location, summary, url)
        VALUES (%s, %s, %s, %s, %s)
    """
    cursor.execute(add_job_sql, job_info)
 
# 将数据插入SQLite数据库
def insert_sqlite(cursor, job_info):
    add_job_sql = """
        INSERT INTO jobs_sqlite (title, company, location, summary, url)
        VALUES (?, ?, ?, ?, ?)
    """
    cursor.execute(add_job_sql, job_info)
 
# 爬取招聘信息
def scrape_jobs(url, db_type):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
    session = requests.Session()
    session.cookies.update({'cookie': 'your_cookie_here'})
    response = session.get(url, headers=headers)
    soup = BeautifulSoup(response.text, 'html.parser')
 
    if db_type == 'mysql':
        db, cursor = connect_mysql()
    elif db_type == 'sqlite':
        db, cursor = connect_sqlite()
 
    for job_element in soup.find_all('div', class_='ish-ad-content'):
        title = job_element.find('h2', class_='title').text.strip()
        company = job_element.find('span', class_='company').text.strip()
        location = job_element.find('span', class_='location').text.strip()
        summary = job_element.find('div', class_='summary').text.strip()
        url = job_element.find('a', class_='ish-ad-link')['href']
        job_info = (title, company, location, summary, url)
 
        if db_type == 'mysql':
            insert_mysql(cursor, job_info)
            db.commit()
        elif db_type == 'sqlite':
            insert_sqlite(cursor, job_info)
            db.commit()
 
    db.close()
 
# 主函数
def main():
    base_url = 'https://www.indeed.com/jobs?q=data+scientist&l=New+York&start='
    for i in range(0, 11, 10):  # 从第0页爬到第1页,步长为10
        url = base_url + str(i)
        scrape_jobs(url, 'mysql')  # 使用MySQL数据库
        scrape_jobs(url, 'sqlite')  # 使用SQLite数据库
 
if __name__ == '__main__':
    main()
``

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日