1. 下載非標準的包,"golang.org/x/net/html"
2. 先安裝git,使用git命令下載
git clone https://github.com/golang/net
3. 將net包,放到GOROOT路徑下
比如:
我的是:GOROOT = E:\go\
所以最終目錄是:E:\go\src\golang.org\x\net
注意:如果沒有golang.org和x文件夾,就創建
4. 創建fetch目錄,在其下創建main.go文件,main.go文件代碼內容如下:
package main
import (
"os"
"net/http"
"fmt"
"io/ioutil"
)
func main() {
for _, url := range os.Args[1:] {
resp, err := http.Get(url)
if err != nil {
fmt.Fprintf(os.Stderr, "fetch: %v\n", err)
}
b, err := ioutil.ReadAll(resp.Body)
resp.Body.Close()
if err != nil {
fmt.Fprintf(os.Stderr, "fetch: reading %s: %v\n", url, err)
os.Exit(1)
}
fmt.Printf("%s",b)
}
}
5. 編譯fetch
go build test.com\justin\demo\fetch
注意:test.com\justin\demo\ 是我的項目路徑,具體編譯根據自己項目路徑編譯。
6. 執行fetch.exe 文件
fetch.exe https://www.qq.com
注意:https://www.qq.com是要爬的網址,配置正確的話,會打印出網址的HTML內容。如果沒有,請檢查以上步驟是否正確。
7. 網頁已經抓取了,那么剩下就分析頁面包含的鏈接了,創建findlinks目錄,在其下創建main.go文件,main.go文件代碼內容如下:
package main
import (
"os"
"fmt"
"golang.org/x/net/html"
)
func main() {
doc, err := html.Parse(os.Stdin)
if err != nil {
fmt.Fprint(os.Stderr, "findlinks: %v\n", err)
os.Exit(1)
}
for _, link := range visit(nil, doc) {
fmt.Println(link)
}
}
func visit(links []string, n *html.Node) []string {
if n.Type == html.ElementNode n.Data == "a" {
for _, a := range n.Attr {
if a.Key == "href" {
links = append(links, a.Val)
}
}
}
for c := n.FirstChild; c != nil; c = c.NextSibling {
links = visit(links, c)
}
return links
}
8. 編譯findlinks
go build test.com\justin\demo\findlinks
注意:test.com\justin\demo\ 是我的項目路徑,具體編譯根據自己項目路徑編譯。
9. 執行findlinks.exe 文件
fetch.exe https://www.qq.com | findlinks.exe
> 10. 執行后結果:獲取到各種不同形式的超鏈接
以上這篇golang抓取網頁并分析頁面包含的鏈接方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
您可能感興趣的文章:- Go語言通過http抓取網頁的方法
- go語言實現一個簡單的http客戶端抓取遠程url的方法
- golang如何實現抓取IP地址的蜘蛛程序詳解