Python Requests 丨爬虫基础入门,阿里快手拼多多等7家大厂Python面试真题
warning:
这篇文章距离上次修改已过193天,其中的内容可能已经有所变动。
import requests
# 定义一个简单的爬虫函数,用于获取指定URL的内容
def crawl_content(url):
try:
response = requests.get(url)
if response.status_code == 200:
return response.text
else:
return "Error: Server responded with status code {}".format(response.status_code)
except requests.exceptions.RequestException as e:
return "Error: {}".format(e)
# 示例URL
example_url = "https://www.example.com"
# 调用函数并打印结果
print(crawl_content(example_url))
这段代码使用了Python的requests库来发送HTTP GET请求,并获取目标URL的内容。函数crawl_content
捕获异常,确保在遇到网络问题时能够返回错误信息。这个简单的例子展示了如何使用Python进行基本的网络爬虫操作。
评论已关闭