网络爬虫:使用 requests抓取静态网页数据
import requests
# 目标网页URL
url = 'http://example.com/some_page.html'
# 使用requests库发送HTTP GET请求获取网页内容
response = requests.get(url)
# 检查请求是否成功
if response.status_code == 200:
# 打印网页内容
print(response.text)
else:
print("网页抓取失败,状态码:", response.status_code)
# 注意:实际应用中可能需要处理更多的异常情况,如网络问题、HTTP错误等。
这段代码展示了如何使用Python的requests库来抓取一个静态网页的数据。首先,我们定义了目标网页的URL,然后使用requests.get方法获取网页内容。最后,我们检查响应状态码,如果是200,则表示成功,打印出网页内容;如果不是,则说明抓取失败,打印状态码。
评论已关闭