python 爬取携程全国旅游景点信息-2024.4.13
warning:
这篇文章距离上次修改已过207天,其中的内容可能已经有所变动。
以下是一个简化的代码示例,用于爬取携程某一页的旅游景点信息,并保存到CSV文件中。请注意,实际爬取时需要处理反爬虫策略,如设置合理的请求头、使用代理、加入延时等。
import csv
import requests
from bs4 import BeautifulSoup
def crawl_attractions(url):
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
attractions = soup.find_all('div', class_='poi_title')
with open('attractions.csv', 'w', newline='', encoding='utf-8') as csvfile:
writer = csv.writer(csvfile)
writer.writerow(['Name', 'Address', 'Score'])
for attraction in attractions:
name = attraction.find('a', class_='name').text
address = attraction.find('span', class_='address').text
score = attraction.find('span', class_='score').text
writer.writerow([name, address, score])
if __name__ == '__main__':
url = 'https://you.ctrip.com/sight/tj/11-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0
评论已关闭