2024-08-17



import requests
from bs4 import BeautifulSoup
 
def get_html(url):
    """发送HTTP请求,获取网页内容"""
    try:
        response = requests.get(url)
        if response.status_code == 200:
            return response.text
        else:
            return "网页请求失败,状态码:{}".format(response.status_code)
    except requests.RequestException:
        return "请求出错"
 
def parse_html(html):
    """解析网页,提取需要的信息"""
    soup = BeautifulSoup(html, 'html.parser')
    title = soup.find('h1', class_='post-title').get_text()
    content = soup.find('div', class_='post-content').get_text()
    return {'title': title, 'content': content}
 
def main():
    url = 'http://example.com/some-post'
    html = get_html(url)
    parsed_data = parse_html(html)
    print(parsed_data)
 
if __name__ == '__main__':
    main()

这段代码首先定义了一个get_html函数,用于发送HTTP请求并获取网页内容。然后定义了一个parse_html函数,用于解析网页并提取标题和内容。最后,在main函数中,我们构建了网页URL,调用get_html获取内容,并调用parse_html解析内容,打印结果。这个例子展示了如何使用Python的requests库和BeautifulSoup库来简单地抓取和解析网页。

2024-08-17



import requests
from bs4 import BeautifulSoup
 
# 发送HTTP请求
url = 'https://example.com/'
response = requests.get(url)
 
# 检查请求是否成功
if response.status_code == 200:
    # 使用BeautifulSoup解析HTML内容
    soup = BeautifulSoup(response.text, 'html.parser')
    
    # 提取页面上的所有链接
    for link in soup.find_all('a'):
        print(link.get('href'))
 
# 请求失败处理
else:
    print(f"请求网页失败,状态码: {response.status_code}")

这段代码展示了如何使用Python的requests库发送HTTP GET请求,以及如何使用BeautifulSoup库解析HTML并提取页面中的链接。这是Web抓取和爬虫任务的基本步骤,适用于教育目的。在实际应用中,可能需要处理更复杂的情况,例如处理AJAX请求、应对反爬机制、处理分页、异常处理等。

2024-08-17



import urllib.request
import urllib.parse
 
# 网络爬虫常用函数
def fetch(url, headers=None, data=None):
    """
    发送HTTP请求的函数
    :param url: 字符串,请求的URL
    :param headers: 字典,HTTP请求头
    :param data: 字典或字节串,发送到服务器的数据
    :return: 返回服务器的响应内容
    """
    if data is not None:
        data = urllib.parse.urlencode(data).encode('utf-8')
    req = urllib.request.Request(url, data, headers)
    response = urllib.request.urlopen(req)
    return response.read()
 
# 使用示例
url = 'http://example.com/'
headers = {'User-Agent': 'My-App/0.1'}
data = {'key': 'value'}
 
# 发送请求并获取响应
response = fetch(url, headers, data)
print(response)

这段代码定义了一个名为fetch的函数,它接受URL、请求头和数据作为参数,并返回从服务器收到的响应。然后通过一个简单的使用示例来演示如何使用这个函数发送HTTP请求。这个例子展示了如何使用urllib进行基本的网络爬虫操作。

2024-08-17



import jieba
import requests
from wordcloud import WordCloud
from matplotlib import pyplot as plt
 
# 获取网页内容
def get_html(url):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ""
 
# 分词并返回词频列表
def get_word_freq(text):
    cut_text = " ".join(jieba.cut(text))
    word_freq = jieba.analyse.extract_tags(cut_text, topK=100, withWeight=True)
    return word_freq
 
# 绘制词云图
def draw_wordcloud(word_freq):
    word_dict = dict(word_freq)
    wordcloud = WordCloud(font_path='simhei.ttf', background_color='white', max_words=100, max_font_size=40, random_state=42)
    wordcloud.fit_words(word_dict)
    plt.imshow(wordcloud, interpolation='bilinear')
    plt.axis('off')
    plt.show()
 
# 主函数
def main():
    url = "http://example.com"  # 替换为目标网页的URL
    html = get_html(url)
    word_freq = get_word_freq(html)
    draw_wordcloud(word_freq)
 
if __name__ == '__main__':
    main()

在这个代码实例中,首先导入了必要的模块,然后定义了获取网页内容、分词并返回词频列表的函数,以及绘制词云图的函数。主函数 main() 调用这些函数来完成整个流程。需要注意的是,你需要替换 "http://example.com" 为你想要爬取的目标网页的URL,并确保你有可用的分词词典和字体路径。

2024-08-17

除了requests,还有一些更强大的Python库可以用于网络请求,提高爬虫效率。以下是几个常用的选项:

  1. requests-html:基于requests,但提供了简单的HTML解析功能。
  2. aiohttp:异步版本的HTTP客户端,适合处理异步网络请求,可以提高效率。
  3. Scrapy:一个为了爬取网站数据,提取结构化数据而编写的应用框架,适合处理更复杂的爬虫任务。
  4. pyspider:一个强大的爬虫系统,可以用来爬取网站或编写爬虫。

以下是requests-html的一个简单示例:




import requests
 
# 使用 pip install requests-html 安装
url = 'https://example.com'
 
# 使用 requests-html
session = requests_html.HTMLSession()
resp = session.get(url)
 
# 解析和提取数据
title = resp.html.find('title', first=True)
print(title.text)

对于异步处理,以下是aiohttp的一个简单示例:




import aiohttp
 
async def fetch(session, url):
    async with session.get(url) as response:
        return await response.text()
 
async def main():
    async with aiohttp.ClientSession() as session:
        html = await fetch(session, 'https://example.com')
        print(html)
 
# 运行异步主函数
import asyncio
asyncio.run(main())

选择合适的库取决于你的需求和你的爬虫的复杂性。对于简单的请求,requests-html可能是最快捷的选择,而对于更复杂或高性能的需求,aiohttp或其他异步库可能是必须的。如果你需要处理复杂的爬虫任务,如反爬虫技术、分布式爬虫等,Scrapy或pyspider可能是更合适的选择。

2024-08-17

尽管Go在近年来取得了显著的增长,但与Python相比,Go爬虫的流行度仍然有一定差距。这主要有以下几个原因:

  1. 生态系统:虽然Go拥有一个快速、可靠的网络爬虫库(如goquerycolly),但与Python的BeautifulSoupScrapy相比,它们的知名度和广泛使用频率还有一定差距。
  2. 学习曲线:虽然Go的语法相对简单,但它的学习曲线更陡峭,对开发者的要求更高。而Python更容易上手,对初学者非常友好。
  3. 工具和库的支持:虽然Go有很多强大的工具和库,但是与Python的生态系统相比,它还是不够丰富。例如,Python有大量的数据科学库,而在Go中,这些通常需要第三方库或自行实现。
  4. 并发和性能:虽然Go支持轻松的并发,但是与使用asyncioaiohttp的Python相比,其性能上可能会有些欠缺。
  5. 社区活跃度:虽然Go社区也非常活跃,但是相对于Python,它的社区活跃度可能不够高,导致了它的社区支持和教育资源不如Python丰富。
  6. 入门门槛:虽然Go的学习曲线更陡峭,但是Go具有更好的性能和编译型语言的控制权,这使得它在特定的领域(如分布式系统、网络编程、高性能计算等)中更受欢迎。

尽管如此,Go在某些特定的应用场景下仍然具有优势,并且随着时间的推移,Go爬虫可能会变得和Python一样流行。

2024-08-17

由于篇幅限制,这里仅提供一个简单的Python爬虫示例代码,用于抓取一个网页上的链接。




import requests
from bs4 import BeautifulSoup
 
# 目标网页
url = 'https://www.example.com'
 
# 发送HTTP请求
response = requests.get(url)
 
# 检查请求是否成功
if response.status_code == 200:
    # 使用BeautifulSoup解析网页内容
    soup = BeautifulSoup(response.text, 'html.parser')
    
    # 找到所有的a标签,即链接
    for link in soup.find_all('a'):
        # 获取链接的href属性
        href = link.get('href')
        if href:
            print(href)
else:
    print(f"Error: {response.status_code}")
 

这段代码使用了requests库来发送HTTP请求,获取网页内容,并使用BeautifulSoup库来解析HTML,提取所有的链接。这是一个简单的Python爬虫示例,适合作为学习的起点。

2024-08-17

入门Python爬虫的最佳方式是使用requests库获取网页内容,使用BeautifulSoup进行网页解析,以及lxml作为解析器。以下是一个简单的入门示例:

  1. 安装必要库:



pip install requests beautifulsoup4 lxml
  1. 编写简单的爬虫代码:



import requests
from bs4 import BeautifulSoup
 
# 目标URL
url = 'https://example.com'
 
# 发送HTTP请求
response = requests.get(url)
 
# 检查请求是否成功
if response.status_code == 200:
    # 使用lxml作为解析器创建BeautifulSoup对象
    soup = BeautifulSoup(response.text, 'lxml')
    
    # 提取页面内容,例如提取所有的段落
    paragraphs = soup.find_all('p')
    for p in paragraphs:
        print(p.text)
else:
    print("请求失败,状态码:", response.status_code)

这段代码会发送一个HTTP GET请求到指定的URL,并尝试提取该页面中的所有段落文本。这是爬虫开发的基础,可以根据实际需求进行更复杂的数据提取和处理。

2024-08-17

要使用Python爬取网页上的图片,你可以使用requests库来获取网页内容,然后使用BeautifulSoup来解析HTML并找到图片链接。以下是一个简单的例子:




import requests
from bs4 import BeautifulSoup
import os
 
# 目标网页URL
url = 'http://example.com'
 
# 发送HTTP请求
response = requests.get(url)
 
# 检查请求是否成功
if response.status_code == 200:
    # 解析网页内容
    soup = BeautifulSoup(response.text, 'html.parser')
    
    # 找到所有的img标签
    images = soup.find_all('img')
    
    # 创建一个文件夹来保存图片
    os.makedirs('images', exist_ok=True)
    
    # 遍历图片链接并下载保存
    for img in images:
        # 获取图片地址
        img_url = img.get('src')
        
        # 获取图片名称
        img_name = os.path.basename(img_url)
        
        # 下载图片
        response_img = requests.get(img_url)
        if response_img.status_code == 200:
            with open(os.path.join('images', img_name), 'wb') as f:
                f.write(response_img.content)
                print(f'Image {img_name} downloaded successfully.')
        else:
            print(f'Failed to download {img_url}.')
else:
    print('Failed to retrieve the webpage.')

请确保你已经安装了requestsbeautifulsoup4库,可以使用pip install requests beautifulsoup4来安装。

注意:这个例子仅用于学习目的,实际应用中应遵守网站的robots.txt规则,并尊重版权以及法律限制,避免非法下载内容。

2024-08-17



import requests
from lxml import etree
 
def get_job_info(url):
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
    response = requests.get(url, headers=headers)
    if response.status_code == 200:
        return response.text
    return None
 
def parse_jobs(html):
    tree = etree.HTML(html)
    job_list = tree.xpath('//div[@class="job-list"]/div')
    for job in job_list:
        job_title = job.xpath('.//h3/text()')[0]
        company_name = job.xpath('.//div[@class="company-name"]/a/text()')[0]
        location = job.xpath('.//div[@class="location"]/text()')[0].strip()
        job_salary = job.xpath('.//div[@class="money"]/text()')[0]
        print(f'职位名称: {job_title}, 公司名称: {company_name}, 地点: {location}, 薪资: {job_salary}')
 
def main():
    url = 'https://www.lagou.com/jobs/list_%E8%BD%AF%E4%BB%B6%E7%BC%96%E7%A8%8B%E5%B8%88?labelWords=label'
    html = get_job_info(url)
    if html:
        parse_jobs(html)
 
if __name__ == '__main__':
    main()

这段代码首先定义了一个获取网页内容的函数get_job_info,使用了Requests库来发送HTTP请求。然后定义了一个解析网页并提取职位信息的函数parse_jobs,使用了lxml库和Xpath表达式来定位和提取数据。最后,在main函数中,我们调用了这两个函数来获取拉勾网上软件开发工程师的职位信息并打印出来。