Python中的爬虫实战:知乎爬虫
import requests
from pyquery import PyQuery as pq
# 知乎登录URL
login_url = 'https://www.zhihu.com/login/phone_num'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3',
'Referer': 'https://www.zhihu.com/signin?next=%2F'
}
# 登录函数
def login(session, username, password):
# 获取登录时需要的_xsrf参数
home_page = session.get('https://www.zhihu.com/', headers=headers)
home_page.encoding = 'utf-8'
doc = pq(home_page.text)
_xsrf = doc('#signin-xsrf').attr('value')
# 发送登录请求
data = {
'_xsrf': _xsrf,
'phone_num': username,
'password': password
}
session.post(login_url, headers=headers, data=data)
# 初始化session
session = requests.Session()
# 用户名和密码
username = 'your_phone_number'
password = 'your_password'
# 登录
login(session, username, password)
# 要爬取的用户的id
user_id = 'your_target_user_id'
# 获取用户主页
user_home_page = session.get('https://www.zhihu.com/people/' + user_id, headers=headers)
user_home_page.encoding = 'utf-8'
# 使用pyquery解析页面
doc = pq(user_home_page.text)
author_info = doc('.author-info-wrap').text()
print(author_info)
# 以下可以继续根据需要爬取用户的关注列表、回答、文章等信息
这个代码实例展示了如何使用Python的requests库和pyquery库来登录知乎,并获取指定用户的个人信息。在实际应用中,你需要替换your_phone_number
和your_password
为你的知乎手机号和密码,your_target_user_id
为你想要爬取信息的用户ID。
评论已关闭