爬虫获取一个网站内所有子页面的内容

要爬取一个网站的所有子页面内容,你可以使用Python中的requests和beautifulsoup4库。以下是一个简单的示例代码,用于爬取一个网站的所有子页面的标题和URL。

首先,确保安装了所需的库:




pip install requests
pip install beautifulsoup4

然后,使用以下代码作为爬虫的基本框架:




import requests
from bs4 import BeautifulSoup
import queue
 
# 初始化一个队列,用于存储待爬取的URL
url_queue = queue.Queue()
 
# 将起始URL放入队列
start_url = 'http://example.com'
url_queue.put(start_url)
 
# 初始化一个集合,用于存储已爬取的URL,避免重复爬取
crawled_urls = set()
 
def get_url_queue():
    return url_queue
 
def get_crawled_urls():
    return crawled_urls
 
def crawl_page(url):
    """
    爬取单个页面的内容
    """
    try:
        response = requests.get(url)
        if response.status_code == 200:
            return response.text
        else:
            print(f'Failed to crawl {url}, status code: {response.status_code}')
    except requests.exceptions.RequestException:
        print(f'Failed to crawl {url}, an error occurred')
 
def create_sitemap(content):
    """
    解析页面内容,提取子页面URL
    """
    soup = BeautifulSoup(content, 'html.parser')
    for link in soup.find_all('a'):
        href = link.get('href')
        if href and href not in crawled_urls and 'http' not in href:
            # 构建完整的URL
            full_url = '{}{}'.format(start_url, href) if href[0] == '/' else href
            # 将新的URL放入队列
            url_queue.put(full_url)
 
def main():
    """
    主函数,控制爬虫的执行流程
    """
    while not url_queue.empty() or len(crawled_urls) == 0:
        if not url_queue.empty():
            # 从队列中获取待爬取的URL
            url = url_queue.get()
            # 检查URL是否已被爬取
            if url not in crawled_urls:
                # 爬取页面内容
                content = crawl_page(url)
                if content:
                    # 解析页面内容,提取子页面URL
                    create_sitemap(content)
                    # 将当前爬取的URL加入已爬取的集合
                    crawled_urls.add(url)
                    print(f'Crawled: {url}')
        # 为了避免无限循环,每次检查是否队列为空后,暂停一段时间
        import time
        time.sleep(5)
 
if __name__ == '__main__':
    main()

请注意,这个代码示例仅用于学习目的,并且不包括错误处理和效率优化。实际应用中,你可能需要考虑并发请求、处理robots.txt、限制请求频率、使用用户代理、处理JavaScript渲染的内容等问题。此外,确保你了解并遵守网站的robots.txt规则以及法律法规,不要进行滥用网站资源。

none
最后修改于:2024年08月17日 20:14

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日