Java使用jsoup爬虫获取网页信息
以下是使用jsoup库获取网页信息的简单示例代码:
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class JsoupExample {
public static void main(String[] args) {
// 目标网页URL
String url = "http://example.com";
try {
// 使用Jsoup连接网页
Document doc = Jsoup.connect(url).get();
// 使用选择器获取网页中的元素
Elements elements = doc.select("title");
// 假设网页中只有一个title元素,直接获取
Element titleElement = elements.first();
// 输出标题内容
System.out.println("网页标题: " + titleElement.text());
} catch (Exception e) {
e.printStackTrace();
}
}
}
这段代码使用了jsoup库来连接到指定的URL,并获取了该网页的<title>
标签内容。在实际应用中,你可以根据需要修改选择器来获取其他元素的内容,例如获取段落、链接、图片等。
评论已关闭