go语言操作html压面,Go语言使用chromedp爬虫

title: Go语言使用chromedp爬虫

tags: Go,chromedp

author: Clown95

背景

最近朋友让我帮忙爬取一个网站上面的数据,当时看到页面觉得很简单,虽然有25000多页,但是网站没有反爬虫机制,只要多开几个协程就行。

ced5da2fbb0685365b2ef168e96144f9.png

当我简单的爬取第一页之后,发现url没有page参数。好吧,查看翻页的源代码看看, javascript:__doPostBack('anpDataPager','2') 看到这个翻页我有点头疼,是aps写的后台,通过js调dll内部跳转的。

考虑到一般翻页无非是url和ajax。我又去控制台查看ajax,打开控制台选中 XHR ,结果让我有点懵逼,根本就没有ajax。

985667dad754e70d417faffdf8156007.png

我当时就打退堂鼓了,但是又考虑到跟朋友一口一个保证,没办法硬着头皮来吧,那就在url上尝试使用anpDataPager传参看看,还是不行,那就再换curpage依然不行,当我尝试了N遍了常用的curpage参数后,这种方法也以失败告终。

没法比,答应别人的事情当然得尽力完成,就突发奇想使用按键精灵这里脚本语言,模拟手动操作。因为需要查找翻页按钮操作,我只能前台运行。但是有一个很棘手的问题,网站所在 服务器 速度很慢,大概2-4秒才能显示出数据,而且数据量稍大25675页,我这模拟下去,我得几天不干活。

百度搜索看看有没有其他大佬遇到过类似的情况,你别说还真有,但是大佬使用的 Python 模拟提交form __VIEWSTATE __EVENTTARGET __EVENTARGUMENT __EVENTVALIDATION 这四个数据,我用 go 模仿大佬的方法不知道怎么就是不行。

那就在继续搜索下,看到可以用 selenium 和 chromedp 来模拟浏览器操作,最终选择了 chromedp

chromedp 介绍

chromedp包是一种更快,更简单的方法,可以使用无外部依赖关系(即Selenium,PhantomJS等)来驱动支持Go中的Chrome DevTools协议的浏览器 。

安装

go get -u github.com/chromedp/chromedp

注意:需要安装chrome浏览器或者chromedrive

使用

官方提供的Demo

Api查询地址

需要爬的内容

12019/3/22 11:11:314001,000,0001,0001,000,400aabb123 92fox92fox上分

.....

我直接贴上我爬虫的代码

package main

import (

"context"

"errors"

"github.com/chromedp/cdproto/cdp"

"github.com/chromedp/cdproto/network"

"time"

"log"

"github.com/chromedp/chromedp"

)

var res string // 定义全局变量,用来保存爬虫的数据

func main() {

var err error

// 创建链接

ctxt, cancel := context.WithCancel(context.Background())

defer cancel()

//创建chrome.New()创建新的chrome实例

c, err := chromedp.New(ctxt, chromedp.WithLog(log.Printf))

if err != nil {

log.Fatal(err)

}

x, err := chromedp.New(ctxt, chromedp.WithLog(log.Printf))

if err != nil {

log.Fatal(err)

}

//执行任务

err = c.Run(ctxt, visitWeb("http://dl.gaggjz.pw:8086/OpRoot/MemberScoreList.aspx?uid=0&op=0&uname=sdafsadsaf"))

if err != nil {

log.Fatal(err)

}

// 循环翻页

for i := 1; i < 25000; i++ {

//执行

err = x.Run(ctxt, DoCrawler()) //执行爬虫任务

WirteTXT(res)// res的内容写入文本

}

}

// 任务 主要用来设置cookie ,获取登录账号后的页面

func visitWeb(url string) chromedp.Tasks {

return chromedp.Tasks{

chromedp.ActionFunc(func(ctxt context.Context, h cdp.Executor) error {

expr := cdp.TimeSinceEpoch(time.Now().Add(180 * 24 * time.Hour))

success, err := network.SetCookie("ASP.NET_SessionId", "这里是值"). //设置cookie

WithExpires(&expr).

WithDomain("dl.gaggjz.pw:8086"). //访问网站主体

WithHTTPOnly(true).

Do(ctxt, h)

if err != nil {

return err

}

if !success {

return errors.New("could not set cookie")

}

return nil

}),

chromedp.Navigate(url), //页面跳转

}

}

// 任务 主要执行翻页功能和或者html

func DoCrawler() chromedp.Tasks {

//sel =fmt.Sprintf(`javascript:__doPostBack('anpDataPager','%s')`,"2")

return chromedp.Tasks{

chromedp.Sleep(1*time.Second), // 等待

chromedp.WaitVisible(`#form1`, chromedp.ByQuery),等待id=from1页面可见 ByQuery是使用DOM选择器查找

chromedp.Sleep(1*time.Second),

chromedp.Click(`.pagination li:nth-last-child(4) a`, chromedp.ByQuery),//点击翻页

chromedp.OuterHTML(`tbody`, &res, chromedp.ByQuery), //获取改 tbody标签的html

}

}

func WirteTXT(txt string ) {

f, err := os.OpenFile("1.txt", os.O_RDWR|os.O_CREATE|os.O_APPEND, 0777)

if err != nil {

fmt.Println("os Create error: ", err)

return

}

defer f.Close()

bw := bufio.NewWriter(f)

bw.WriteString(txt+"\n")

bw.Flush()

}

总结

通过代码可以看到我创建了 chromedp.Tasks 任务,第一个任务主要就是为了设置cookie即模拟登录,第二个任务是最重要的,它主要用来点击下一页按钮和获取指定 html 内容。因为第一次接触chromedp,所以我刚开始把两个任务放在一个任务里,就造成了第一页和第二页来回跳转。所以突发奇想创建了2个任务。当然我后来才知道,单独执行第二个任务的时候,可以手动输入地址和登录账号,程序也是可以执行的,就是有个缺点,执行一段时间可能cookie失效,需要重新登录。要注意的是chromedp使用的是DOM 原生选择器,我刚开始看到ByQuery 以为可以使用 JQuery 选择器,一直筛选不到内容。 还有一个坑点就是,我爬取的td标签是在tbody内的,直接使用 chromedp.Text() 获取不到内容,所以退而求次,获取了html,但是我发现goquery 读取文本里面的html也不能获取到td的内容,最后我把tbody替换成table,可以成功的获取到内容。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值