【python】网络爬虫与信息提取--requests库
import requests
def fetch_website_data(url):
"""
使用requests库获取网页数据
:param url: 网页的URL
:return: 网页内容
"""
try:
response = requests.get(url)
if response.status_code == 200:
return response.text
else:
return "Failed to retrieve data. Server replied with: {}".format(response.status_code)
except requests.exceptions.RequestException as e:
return "An error occurred: {}".format(e)
# 示例用法
url = "https://www.example.com"
data = fetch_website_data(url)
print(data)
这段代码定义了一个名为fetch_website_data
的函数,它接受一个URL作为参数,使用requests.get
方法来获取网页内容。如果请求成功,它返回网页的文本内容;如果请求失败,它返回错误信息。在实际使用中,你需要替换"https://www.example.com"
为你想要爬取的网页的URL。
评论已关闭