认识爬虫:如何使用 requests 模块模拟浏览器请求爬取网页信息?
import requests
# 目标URL
url = 'http://example.com'
# 使用requests模块发送GET请求
response = requests.get(url)
# 检查请求是否成功
if response.status_code == 200:
# 请求成功,打印网页内容
print(response.text)
else:
# 请求失败,打印错误信息
print(f"请求失败,状态码:{response.status_code}")
这段代码演示了如何使用Python的requests模块来发送一个简单的GET请求并获取网页内容。首先,我们导入requests模块,然后指定我们想要访问的URL。接着,我们使用requests模块的get方法来发送一个GET请求到这个URL。最后,我们检查响应状态码,如果是200,则表示请求成功,我们打印出响应的文本内容;如果不是200,则表示请求失败,我们打印出状态码。
评论已关闭