【网络爬虫】 requests模块,案例:网络图片爬取,附Python代码
import requests
import os
# 图片爬取函数
def download_image(image_url, file_path):
response = requests.get(image_url)
if response.status_code == 200:
with open(file_path, 'wb') as file:
file.write(response.content)
print(f"图片 {file_path} 下载成功。")
else:
print(f"图片下载失败,状态码: {response.status_code}")
# 主函数
def main():
# 图片URL列表
image_urls = [
'http://example.com/image1.jpg',
'http://example.com/image2.jpg',
# ... 更多图片URL
]
# 图片保存路径
save_path = 'downloaded_images/'
# 创建保存文件夹
if not os.path.exists(save_path):
os.makedirs(save_path)
# 遍历图片URL列表并下载图片
for index, image_url in enumerate(image_urls):
file_path = os.path.join(save_path, f"image{index + 1}.jpg")
download_image(image_url, file_path)
# 运行主函数
if __name__ == "__main__":
main()
这段代码使用了requests模块来下载网络上的图片。首先定义了一个下载图片的函数download_image
,它接受图片的URL和保存路径作为参数。然后在main
函数中,我们定义了一个图片URL列表,并遍历它,调用download_image
函数来下载每一张图片。最后,我们检查了是否需要创建保存图片的文件夹,并在主程序中调用了main
函数来执行图片下载任务。
评论已关闭