python使用selenium控制浏览器进行爬虫
from selenium import webdriver
from selenium.webdriver.common.keys import Keys
# 创建WebDriver对象,指定使用Chrome浏览器
driver = webdriver.Chrome()
# 使用get方法打开网页
driver.get('http://www.python.org')
# 查找页面上的搜索输入框元素
search_box = driver.find_element_by_name('q')
# 清除输入框中的内容(如果有)
search_box.clear()
# 在输入框中输入文本 'puppies'
search_box.send_keys('puppies')
# 添加回车键模拟点击搜索按钮
search_box.send_keys(Keys.RETURN)
# 等待页面加载完成
import time
time.sleep(5) # 假设页面需要5秒加载
# 获取当前页面的页面源代码并打印
page_source = driver.page_source
print(page_source)
# 清理:关闭浏览器
driver.quit()
这段代码使用了Selenium WebDriver 的基本功能来完成以下任务:
- 启动Chrome浏览器。
- 打开Python官方网站。
- 在搜索输入框中输入'puppies'并执行搜索。
- 等待页面加载。
- 打印当前页面的源代码。
- 关闭浏览器。
评论已关闭