进阶网络爬虫实践内容---微博网页内容爬取

warning: 这篇文章距离上次修改已过186天,其中的内容可能已经有所变动。



import requests
from bs4 import BeautifulSoup
import re
import pandas as pd
 
# 设置请求头,模拟浏览器访问
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
 
# 获取微博用户主页的网页内容
def get_page_content(url):
    try:
        response = requests.get(url, headers=headers)
        if response.status_code == 200:
            return response.text
        return None
    except requests.RequestException:
        return None
 
# 解析微博数据,提取微博正文
def parse_weibo_data(html):
    soup = BeautifulSoup(html, 'lxml')
    weibo_data = []
    for container in soup.find_all('div', class_='c'):
        weibo = {}
        # 提取微博正文
        text = container.find('span', class_='ctt')
        if text:
            weibo['text'] = text.text.strip()
        else:
            continue
        # 提取转发数和评论数
        for info in container.find_all('span', class_='cc'):
            if '转发' in info.text:
                weibo['retweet_count'] = re.search('\d+', info.text).group(0)
            elif '评论' in info.text:
                weibo['comment_count'] = re.search('\d+', info.text).group(0)
        weibo_data.append(weibo)
    return weibo_data
 
# 保存微博数据到CSV文件
def save_weibo_data_to_csv(weibo_data, file_name):
    df = pd.DataFrame(weibo_data)
    df.to_csv(file_name + '.csv', index=False, encoding='utf-8-sig')
 
# 主函数
def main(user_id, since_date, count):
    url = f'https://weibo.com/p/100505{user_id}/home?is_search=0&visible=0&is_all=1&since_id=0&sort=time&page={count}'
    html = get_page_content(url)
    if html:
        weibo_data = parse_weibo_data(html)
        save_weibo_data_to_csv(weibo_data, f'weibo_data_{user_id}_{since_date}_{count}')
        print(f'微博数据已保存到 weibo_data_{user_id}_{since_date}_{count}.csv')
    else:
        print('网页内容获取失败')
 
# 示例用户ID为1234567890,起始日期为2023-01-01,爬取第1页的数据
main(1234567890, '2023-01-01', 1)

在这个代码示例中,我们定义了一个main函数,它接受用户ID、起始日期和页数作为参数,并将微博数据保存到CSV文件中。这个示例展示了如何使用Python进行网络爬取,提取特定的数据,并将其保存到文件中。需要注意

none
最后修改于:2024年08月16日 10:34

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日