Golang爬虫入门指南_golang mini-spider详解 goodcoder
package main
import (
"fmt"
"github.com/PuerkitoBio/goquery"
"net/http"
)
func main() {
// 目标URL
res, err := http.Get("https://www.gooddereader.com/")
if err != nil {
panic(err)
}
defer res.Body.Close()
if res.StatusCode == 200 {
// 使用goquery解析HTML文档
doc, err := goquery.NewDocumentFromReader(res.Body)
if err != nil {
panic(err)
}
// 查询所有的h2标签,并打印它们的内容
doc.Find("h2").Each(func(i int, s *goquery.Selection) {
fmt.Printf("第%d个h2标签的内容: %s\n", i, s.Text())
})
}
}
这段代码使用了net/http
库来发起GET请求,使用github.com/PuerkitoBio/goquery
库来解析HTML文档并进行DOM操作。代码中的main
函数首先尝试获取网页内容,并检查返回的状态码是否为200。如果是,则使用goquery创建一个文档对象,并遍历所有h2
标签,打印出它们的文本内容。这个例子展示了如何使用Go语言进行基本的网页爬取操作。
评论已关闭