【python】爬虫-requests板块
在Python中,requests库是用来发送HTTP请求的,可以用它来进行网络爬虫。以下是一个简单的使用requests库进行网络爬取的例子:
import requests
url = 'http://example.com' # 替换为你想爬取的网站
response = requests.get(url) # 发送GET请求
if response.status_code == 200: # 请求成功
content = response.text # 获取响应内容
print(content) # 打印或进行其他处理
else:
print('Failed to retrieve data, status code:', response.status_code)
确保你已经安装了requests库,如果没有安装,可以使用pip进行安装:
pip install requests
这段代码会向指定的URL发送一个GET请求,并打印出网页的内容。如果需要爬取动态网站或处理JavaScript渲染的内容,可能需要使用如Selenium等工具与requests结合使用。
评论已关闭