2024年Python最全Python 爬虫爬取多页数据
import requests
from bs4 import BeautifulSoup
import pandas as pd
# 初始化URL列表
urls = ['https://example.com/page{}'.format(i) for i in range(1, 5)] # 假设有4个页面
all_data = []
# 遍历URL列表
for url in urls:
# 发送HTTP请求
response = requests.get(url)
# 解析响应内容
soup = BeautifulSoup(response.text, 'html.parser')
# 提取需要的数据
# 假设数据在<div class="item">中
items = soup.find_all('div', class_='item')
for item in items:
# 提取每个item的数据并存储
data = {
'title': item.find('h3', class_='title').text.strip(),
'description': item.find('p', class_='description').text.strip(),
# 添加其他需要的字段...
}
all_data.append(data)
# 将所有数据存储到DataFrame中
df = pd.DataFrame(all_data)
# 存储到CSV文件
df.to_csv('data.csv', index=False)
这段代码提供了一个简化的Python爬虫示例,使用requests库获取网页内容,使用BeautifulSoup进行网页解析,并使用pandas库来存储数据。代码中的urls
变量应该根据实际情况进行修改,all_data
用于存储所有页面的数据,最后通过pandas的to_csv
方法将数据保存到CSV文件中。
评论已关闭