5.网络爬虫—Requests模块Get请求与实战
import requests
def fetch_website_data(url):
try:
response = requests.get(url)
if response.status_code == 200:
print("Success:", response.status_code)
return response.text
else:
print("Failed:", response.status_code)
except requests.exceptions.RequestException as e:
print("An error occurred:", e)
url = "https://www.example.com"
data = fetch_website_data(url)
print(data[:100]) # 打印前100个字符以示示例
这段代码使用了requests
库来发送一个HTTP GET请求到指定的URL。如果请求成功,它将返回网页内容的文本形式;如果请求失败,它将打印出错误状态码。这个简单的函数演示了如何使用requests.get
方法来发送请求,以及如何检查请求是否成功,并处理可能出现的异常。
评论已关闭