【爬虫实战】-爬取微博之夜盛典评论,爬取了1.7w条数据

由于原代码已经提供了一个很好的实现,我们可以直接使用原代码来解决问题。但是,为了保证代码的完整性和可读性,我们可以添加必要的注释和错误处理。

以下是一个简化的代码实例,包含了必要的注释和错误处理:




import requests
from lxml import etree
import time
import random
import csv
 
# 设置请求头信息,模拟浏览器访问
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
 
# 初始URL
url = 'https://weibo.com/p/100megastar/weibo?is_search=0&visible=0&is_tag=0&profile_ftype=1&page={}'
 
# 创建CSV文件并写入表头
with open('weibo_comments.csv', 'w', newline='', encoding='utf-8') as csvfile:
    writer = csv.writer(csvfile)
    writer.writerow(['ID', 'Content', 'Like Counts', 'Time'])
 
# 设置最大页码
max_page = 80  # 假设总共有80页
 
# 循环遍历页码
for page in range(1, max_page + 1):
    print(f'正在抓取第{page}页的数据...')
    try:
        # 对每一页进行请求
        response = requests.get(url.format(page), headers=headers)
        response.raise_for_status()  # 检查请求是否成功
        time.sleep(random.uniform(0.5, 1.5))  # 添加随机延时,避免被服务器封禁
        
        # 使用lxml解析HTML内容
        html = etree.HTML(response.text)
        
        # XPath表达式用于定位评论数据
        comments = html.xpath('//div[@class="cc"]')
        
        for comment in comments:
            try:
                # 提取评论ID
                id_ = comment.xpath('.//@usercard_uid')[0]
                # 提取评论内容
                content = comment.xpath('.//span[@class="ctt"]/text()')[0]
                # 提取获得的赞成数
                like_counts = comment.xpath('.//span[@class="ccmt"]/span/text()')[0]
                # 提取评论发表时间
                time_ = comment.xpath('.//span[@class="ct"]/text()')[0]
                
                # 将数据写入CSV文件
                with open('weibo_comments.csv', 'a', newline='', encoding='utf-8') as csvfile:
                    writer = csv.writer(csvfile)
                    writer.writerow([id_, content, like_counts, time_])
            except Exception as e:
                print(f'Error processing comment: {e}')
    except Exception as e:
        print(f'Error processing page {page}: {e}')
 
print('所有页面抓取完成,评论数据已保存到weibo_comments.csv文件中。')

这段代码添加了必要的异常处理,以确保在遇到网络请求失败、解析错误或其他意外情况时代码能够继续执行,并记录下错误信息。同时,添加了随机延时来避免被微博服务器封禁。最后,将数据写入CSV文件时,使用了with语句来确保文件正确关闭。

none
最后修改于:2024年08月23日 11:40

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日