最近一直在研究VBA网抓的东西,当然,爬虫的话首选python语言,无奈还要从新学习python。听说VBA也能用来网抓,就查找各方面关于VBA网抓的资料学习了一下。
模仿着,也写出来了几个简单的网抓小程序,深深感受到,如果学精通了网抓,整个互联网都是你的。
![c6fd359353c333eb4344214e718587a2.png](https://i-blog.csdnimg.cn/blog_migrate/1d0ee8e8573094f04f8ee320905a9483.jpeg)
这次分享的是网抓糗事百科糗图前30页所有糗图的代码,当然其他网站的图片也是可以批量抓取的...比如百度图片、1024、此处省略。
![36bab8d1c93bcb0ab33049530db08f43.png](https://i-blog.csdnimg.cn/blog_migrate/257fa8221035296a0e6cb283f3807e70.jpeg)
一、思路,最重要的还是思路。
打开糗事百科主页,糗图页面。通过xmlhttp对象循环得到每一页的网页代码,通过正则表达式,在网页代码中找到图片的真实网页地址,然后依次打开网址,把图片保存到本地。
理论回头学会了我再慢慢分享,现在我也属于比葫芦壶瓢阶段,毕竟,兴趣是最好的老师。
![0c24dbd4025dfd7090074800dbd1213c.png](https://i-blog.csdnimg.cn/blog_migrate/247c20da91ae1033efb9d683a56ef864.jpeg)
二、效果及代码
我们先上效果和代码,我都迫不及待展示了。
效果:
![325ee0855eb1b9005f3e42b772cbc0d4.gif](https://i-blog.csdnimg.cn/blog_migrate/305909336385aadc0adb33c6e384ab8d.gif)
![3956ce1f976c83e60b7652e9d41f578e.png](https://i-blog.csdnimg.cn/blog_migrate/216a6be90335334293466100e8b2ff5c.jpeg)
奉上代码:
网抓具有时效性,网站不是一成不变的,有可能过阵子代码就失效了,所以,思路很重要,学会思路就可以。
Sub 下载糗事百科图片() Dim b() As Byte For pagenum = 1 To 30 Dim xmlhttp As Object Set xmlhttp = CreateObject("MSXML2.XMLHTTP") strurl = "https://www.qiushibaike.com/pic/" & "page/" & pagenum xmlhttp.Open "GET