import os
import urllib3
# 初始化urllib3的PoolManager对象,用于处理HTTP请求
http = urllib3.PoolManager()
def download_image(url, file_path):
"""
下载图片到本地
:param url: 图片的URL
:param file_path: 本地文件路径
"""
response = http.request('GET', url)
with open(file_path, 'wb') as file:
file.write(response.data)
def get_image_urls(html_content):
"""
提取HTML中的图片URL
:param html_content: 下载的HTML内容
:return: 图片URL列表
"""
# 此处的正则表达式需要根据实际HTML结构进行调整
import re
image_urls = re.findall(r'https?://.*?\.(?:jpg|jpeg|gif|png)', html_content)
return image_urls
def crawl_baidu_images(keyword, max_num):
"""
爬取百度图片
:param keyword: 搜索关键词
:param max_num: 最大下载数量
"""
# 构建搜索URL
base_url = 'https://image.baidu.com/search/index?tn=baiduimage&word={}'
url = base_url.format(urllib3.quote(keyword))
# 下载HTML内容
response = http.request('GET', url)
html_content = response.data.decode()
# 提取图片URLs
image_urls = get_image_urls(html_content)
# 创建文件夹
os.makedirs('images', exist_ok=True)
# 下载图片
for i, image_url in enumerate(image_urls, 1):
file_path = os.path.join('images', f'{i}.jpg')
download_image(image_url, file_path)
if i >= max_num:
break
if __name__ == '__main__':
crawl_baidu_images('美女', 50) # 搜索关键词为“美女”,最多下载50张图片
这段代码首先导入了必要的模块,并初始化了一个urllib3的PoolManager对象。然后定义了两个辅助函数:download_image
用于下载图片到本地,get_image_urls
用于从HTML内容中提取图片URL。最后,crawl_baidu_images
函数实现了主要的爬虫逻辑:构建URL、下载HTML内容、提取图片URLs,并循环下载图片。
注意:由于爬取行为可能违反目标服务器的robots.txt协议及条款,请在使用爬虫时确保你有权限和责任地进行网络爬取,并遵守相关法律法规。