爬虫爬取网页时报错:requests.exceptions.SSLError: HTTPSConnectionPool(host=‘www.cnblogs.com‘, port=443): Max r
错误解释:
requests.exceptions.SSLError
表示在尝试通过 HTTPS 协议进行网络请求时遇到了 SSL 证书验证失败的问题。这通常发生在目标服务器的 SSL 证书无效、过期或者不被客户端信任的情况下。
解决方法:
- 检查目标网站的 SSL 证书是否有效,是否已经过期。
如果是自签名证书或者是在开发环境中,可以使用
requests
库的verify
参数设置为False
来忽略 SSL 证书验证(不推荐在生产环境中使用):response = requests.get('https://example.com', verify=False)
- 如果是因为本地证书库过时,可以更新本地证书库。
- 确保你的网络环境(如代理设置)不会干扰 SSL 连接。
- 如果是因为目标网站的证书变更(如域名更换、证书更新),确保你的请求是针对正确的域名。
务必注意,以上第2点中的方法会降低安全性,不应在生产环境中使用。在实际生产环境中应该解决 SSL 证书问题,而不是忽略它们。
评论已关闭