Java使用jsoup爬虫获取网页信息
    		       		warning:
    		            这篇文章距离上次修改已过440天,其中的内容可能已经有所变动。
    		        
        		                
                以下是使用jsoup库获取网页信息的简单示例代码:
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
 
public class JsoupExample {
    public static void main(String[] args) {
        // 目标网页URL
        String url = "http://example.com";
 
        try {
            // 使用Jsoup连接网页
            Document doc = Jsoup.connect(url).get();
 
            // 使用选择器获取网页中的元素
            Elements elements = doc.select("title");
 
            // 假设网页中只有一个title元素,直接获取
            Element titleElement = elements.first();
 
            // 输出标题内容
            System.out.println("网页标题: " + titleElement.text());
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}这段代码使用了jsoup库来连接到指定的URL,并获取了该网页的<title>标签内容。在实际应用中,你可以根据需要修改选择器来获取其他元素的内容,例如获取段落、链接、图片等。
评论已关闭