【python】爬虫-requests板块
    		       		warning:
    		            这篇文章距离上次修改已过440天,其中的内容可能已经有所变动。
    		        
        		                
                在Python中,requests库是用来发送HTTP请求的,可以用它来进行网络爬虫。以下是一个简单的使用requests库进行网络爬取的例子:
import requests
 
url = 'http://example.com'  # 替换为你想爬取的网站
response = requests.get(url)  # 发送GET请求
 
if response.status_code == 200:  # 请求成功
    content = response.text  # 获取响应内容
    print(content)  # 打印或进行其他处理
else:
    print('Failed to retrieve data, status code:', response.status_code)确保你已经安装了requests库,如果没有安装,可以使用pip进行安装:
pip install requests这段代码会向指定的URL发送一个GET请求,并打印出网页的内容。如果需要爬取动态网站或处理JavaScript渲染的内容,可能需要使用如Selenium等工具与requests结合使用。
评论已关闭