Python Requests 丨爬虫基础入门
import requests
def get_html(url):
try:
response = requests.get(url)
if response.status_code == 200:
return response.text
else:
return "网页无法访问"
except requests.exceptions.RequestException:
return "请求出错"
url = "http://example.com"
print(get_html(url))
这段代码使用了Python的requests库来获取指定URL的HTML内容。首先导入requests库,然后定义了一个get\_html函数,该函数接受一个URL作为参数,使用requests.get发送HTTP GET请求,然后检查响应状态码,如果是200,则返回网页内容;如果不是,则返回错误信息。使用try-except捕获可能发生的异常,如网络问题,并返回异常信息。最后,定义了一个URL变量,并调用get\_html函数,打印出获取到的内容。
评论已关闭