【爬虫实战】-爬取微博之夜盛典评论,爬取了1.7w条数据

由于原代码已经提供了一个很好的实现,我们可以直接使用原代码来解决问题。但是,为了保证代码的完整性和可读性,我们可以添加必要的注释和错误处理。

以下是一个简化的代码实例,包含了必要的注释和错误处理:




import requests
from lxml import etree
import time
import random
import csv
 
# 设置请求头信息,模拟浏览器访问
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
 
# 初始URL
url = 'https://weibo.com/p/100megastar/weibo?is_search=0&visible=0&is_tag=0&profile_ftype=1&page={}'
 
# 创建CSV文件并写入表头
with open('weibo_comments.csv', 'w', newline='', encoding='utf-8') as csvfile:
    writer = csv.writer(csvfile)
    writer.writerow(['ID', 'Content', 'Like Counts', 'Time'])
 
# 设置最大页码
max_page = 80  # 假设总共有80页
 
# 循环遍历页码
for page in range(1, max_page + 1):
    print(f'正在抓取第{page}页的数据...')
    try:
        # 对每一页进行请求
        response = requests.get(url.format(page), headers=headers)
        response.raise_for_status()  # 检查请求是否成功
        time.sleep(random.uniform(0.5, 1.5))  # 添加随机延时,避免被服务器封禁
        
        # 使用lxml解析HTML内容
        html = etree.HTML(response.text)
        
        # XPath表达式用于定位评论数据
        comments = html.xpath('//div[@class="cc"]')
        
        for comment in comments:
            try:
                # 提取评论ID
                id_ = comment.xpath('.//@usercard_uid')[0]
                # 提取评论内容
                content = comment.xpath('.//span[@class="ctt"]/text()')[0]
                # 提取获得的赞成数
                like_counts = comment.xpath('.//span[@class="ccmt"]/span/text()')[0]
                # 提取评论发表时间
                time_ = comment.xpath('.//span[@class="ct"]/text()')[0]
                
                # 将数据写入CSV文件
                with open('weibo_comments.csv', 'a', newline='', encoding='utf-8') as csvfile:
                    writer = csv.writer(csvfile)
                    writer.writerow([id_, content, like_counts, time_])
            except Exception as e:
                print(f'Error processing comment: {e}')
    except Exception as e:
        print(f'Error processing page {page}: {e}')
 
print('所有页面抓取完成,评论数据已保存到weibo_comments.csv文件中。')

这段代码添加了必要的异常处理,以确保在遇到网络请求失败、解析错误或其他意外情况时代码能够继续执行,并记录下错误信息。同时,添加了随机延时来避免被微博服务器封禁。最后,将数据写入CSV文件时,使用了with语句来确保文件正确关闭。

none
最后修改于:2024年08月23日 11:40

评论已关闭

推荐阅读

Vue中使用mind-map实现在线思维导图
2024年08月04日
VUE
Web前端最全Vue实现免密登录跳转的方式_vue怎么样不登录返回首页,最强技术实现
2024年08月04日
VUE
vue3 项目搭建教程(基于create-vue,vite,Vite + Vue)
2024年08月04日
VUE
Vue-颜色选择器实现方案——>Vue-Color( 实战*1+ Demo*7)
2024年08月04日
VUE
Vue项目卡顿慢加载?这些优化技巧告诉你!_vue数据多渲染卡顿
2024年08月04日
VUE
vue中的keep-alive详解与应用场景
2024年08月04日
VUE
Vue、React实现excel导出功能(三种实现方式保姆级讲解)
2024年08月04日
vue-office/docx插件实现docx文件预览
2024年08月04日
VUE
java调用js文件的两种方法(支持V8引擎)
2024年08月04日
JavaScript:解决计算精度问题/mathjs/bignumber.js/big.js/decimal.js
2024年08月04日
两周从爬虫小白变大神 _yjs_js_security_passport
2024年08月04日
JS笔记(对象、函数、数组)
2024年08月04日
Markdown.js:强大的纯JavaScript Markdown解析器
2024年08月04日
Vue项目:js模拟点击a标签下载文件并重命名,URL文件地址下载方法、请求接口下载文件方法总结。
2024年08月04日
vue 父组件怎么获取子组件里面的data数据
2024年08月04日
VUE
个人开发实现AI套壳网站快速搭建(Vue+elementUI+SpringBoot)
2024年08月04日
el-table 表格封装并改造实现单元格可编辑
2024年08月04日
none
nodejs环境下创建vue项目、SSH密钥登陆!!!
2024年08月04日
vue+quill+element-ui实现视频、图片上传及缩放保姆级教程,轻松使用富文本
2024年08月04日
【three.js】22. Imported Models导入模型
2024年08月04日