爬虫 新闻网站 并存储到CSV文件 以红网为例 V2.0 (控制台版)升级自定义查询关键词、时间段,详细注释

warning: 这篇文章距离上次修改已过193天,其中的内容可能已经有所变动。



import requests
from bs4 import BeautifulSoup
import csv
import time
import random
 
def get_soup(url):
    """
    获取网页内容并返回BeautifulSoup对象
    """
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
    response = requests.get(url, headers=headers)
    if response.status_code == 200:
        return BeautifulSoup(response.text, 'html.parser')
    return None
 
def get_news_info(news_url, soup):
    """
    获取新闻详情页的信息
    """
    title = soup.select('.news-title')[0].text
    info = soup.select('.news-info')[0].text
    publish_time = info.split()[0]
    author = info.split()[-1]
    content = soup.select('.content')[0].text.strip()
    return title, publish_time, author, content
 
def main(key_word, start_date, end_date, output_file):
    """
    主函数,控制爬虫流程
    """
    base_url = 'http://www.people.com.cn/search/search_new.jsp?keyword={}&startdate={}&enddate={}&pageno={}'
    news_urls = set()  # 使用集合存储新闻链接,避免重复
    for i in range(1, 11):  # 假设只爬取前10页的新闻
        url = base_url.format(key_word, start_date, end_date, i)
        soup = get_soup(url)
        if soup is None:
            continue
        for news in soup.select('.news-list li'):
            if len(news_urls) >= 100:  # 假设只爬取前100条新闻
                break
            news_url = news.select('a')[0]['href']
            news_urls.add(news_url)
    with open(output_file, 'w', newline='', encoding='utf-8') as f:
        writer = csv.writer(f)
        writer.writerow(['标题', '发布时间', '来源', '内容'])
        for url in news_urls:
            soup = get_soup(url)
            if soup is not None:
                title, publish_time, author, content = get_news_info(url, soup)
                writer.writerow([title, publish_time, author, content])
            time.sleep(random.uniform(0.5, 1.5))  # 添加随机等待防止被封IP
 
if __name__ == '__main__':
    key_word = input("请输入关键词进行搜索:")
    start_date = input("请输入开始日期(格式YYYY-MM-DD):")
    end_date = input("请输入结束日期(格式YYYY-MM-DD):")
    output_file = 'rednet_news_{}_{}_{}.csv'.format(key_word, start_date, end_date)
    main(key_word, start_date, end_date, output_file)

这段代码实现了基本的新闻爬取功能,并将结果保存到CSV文件中。用户可以通过控制台输入自定义的搜索关键词、开始和结束日期,程序将爬取对应关键词在指定时间范围内的新闻,并保存到CSV文件中。这个版本的代码相较于V1.0版本,增加了自定义搜索关键词的能力,并对爬取过程增加了随机等待,以防止被封禁IP。

none
最后修改于:2024年08月13日 13:19

评论已关闭

推荐阅读

DDPG 模型解析,附Pytorch完整代码
2024年11月24日
DQN 模型解析,附Pytorch完整代码
2024年11月24日
AIGC实战——Transformer模型
2024年12月01日
Socket TCP 和 UDP 编程基础(Python)
2024年11月30日
python , tcp , udp
如何使用 ChatGPT 进行学术润色?你需要这些指令
2024年12月01日
AI
最新 Python 调用 OpenAi 详细教程实现问答、图像合成、图像理解、语音合成、语音识别(详细教程)
2024年11月24日
ChatGPT 和 DALL·E 2 配合生成故事绘本
2024年12月01日
omegaconf,一个超强的 Python 库!
2024年11月24日
【视觉AIGC识别】误差特征、人脸伪造检测、其他类型假图检测
2024年12月01日
[超级详细]如何在深度学习训练模型过程中使用 GPU 加速
2024年11月29日
Python 物理引擎pymunk最完整教程
2024年11月27日
MediaPipe 人体姿态与手指关键点检测教程
2024年11月27日
深入了解 Taipy:Python 打造 Web 应用的全面教程
2024年11月26日
基于Transformer的时间序列预测模型
2024年11月25日
Python在金融大数据分析中的AI应用(股价分析、量化交易)实战
2024年11月25日
AIGC Gradio系列学习教程之Components
2024年12月01日
Python3 `asyncio` — 异步 I/O,事件循环和并发工具
2024年11月30日
llama-factory SFT系列教程:大模型在自定义数据集 LoRA 训练与部署
2024年12月01日
Python 多线程和多进程用法
2024年11月24日
Python socket详解,全网最全教程
2024年11月27日