Python爬虫学习教程:天猫商品数据爬虫
import requests
from lxml import etree
class TianMaoSpider:
def __init__(self, keyword, page_num):
self.keyword = keyword
self.page_num = page_num
self.base_url = "https://s.taobao.com/search?q="
def get_response(self, url):
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"}
response = requests.get(url, headers=headers)
if response.status_code == 200:
return response.text
return None
def parse_page(self, page_url):
html = self.get_response(page_url)
if html:
parser = etree.HTML(html)
items = parser.xpath('//div[@class="item J_MouserOnverReq "]')
for item in items:
title = item.xpath('.//div[@class="title"]/a/text()')[0]
price = item.xpath('.//div[@class="price"]/strong/text()')[0]
print(f"商品名称: {title}, 价格: {price}")
def run(self):
for page in range(1, self.page_num + 1):
page_url = f"{self.base_url}{self.keyword}&s={(page-1)*44}"
self.parse_page(page_url)
if __name__ == "__main__":
spider = TianMaoSpider("口罩", 2)
spider.run()
这段代码实现了一个简单的天猫商品数据爬虫。首先定义了一个TianMaoSpider
类,包含初始化方法、获取响应、解析页面和运行爬虫的方法。在__init__
方法中,设置了搜索关键词和需要爬取的页数。get_response
方法用于发送请求并获取响应。parse_page
方法解析页面,提取商品标题和价格,并打印输出。最后,在run
方法中通过循环遍历页面,并调用parse_page
方法来爬取数据。这个简单的爬虫示例教会了如何使用Python进行基本的网页爬取。
评论已关闭