用 python 爬虫抓站的一些技巧总结_爬虫技术如何从分站到总站
import requests
from bs4 import BeautifulSoup
def get_sub_pages(start_url):
sub_pages = []
response = requests.get(start_url)
if response.status_code == 200:
soup = BeautifulSoup(response.text, 'html.parser')
# 假设分站的链接都在<a>标签的href属性中
for link in soup.find_all('a'):
url = link.get('href')
if url.startswith('http') and 'example.com' in url:
sub_pages.append(url)
return sub_pages
def get_total_site(sub_pages):
total_site_data = []
for page_url in sub_pages:
response = requests.get(page_url)
if response.status_code == 200:
# 这里可以添加解析每个子页面数据的逻辑
total_site_data.append(response.text)
return total_site_data
# 示例起始URL
start_url = 'http://www.example.com'
sub_pages = get_sub_pages(start_url)
total_site_data = get_total_site(sub_pages)
# 这里可以添加保存数据到文件或数据库的逻辑
这个代码示例展示了如何从一个起始URL开始,通过爬取该起始URL的网页内容,找出所有相关的子网页链接,并对每个子网页进行爬取,最终获取整个网站的数据。这个过程是爬虫技术中一个常见的应用场景,展示了如何从分散的页面爬取回来并整合成一个完整的数据集。
评论已关闭