python爬取论坛图片_[python爬虫] Selenium定向爬取虎扑篮球海量精美图片

前言:

作为一名从小就看篮球的球迷,会经常逛虎扑篮球及湿乎乎等论坛,在论坛里面会存在很多精美图片,包括NBA球队、CBA明星、花边新闻、球鞋美女等等,如果一张张右键另存为的话真是手都点疼了。作为程序员还是写个程序来进行吧!

所以我通过Python+Selenium+正则表达式+urllib2进行海量图片爬取。

前面讲过太多Python爬虫相关的文章了,如爬取新浪博客、维基百科Infobox、百度百科、游迅网图片,也包括Selenium安装过程等等,详见我的两个专栏:

Python学习系列

Python爬虫之Selenium+Phantomjs+CasperJS

运行效果:

运行效果如下图所示,其中第一幅图是虎扑网站爬取tag(标签)为马刺的图集,第二幅图是爬取tag为陈露的图集。每个文件夹命名对应网页主题,而且图片都是完整的。

http://photo.hupu.com/nba/tag/马刺

http://photo.hupu.com/nba/tag/陈露

源代码:

1 #-*- coding: utf-8 -*-

2 """

3 Crawling pictures by selenium and urllib4 url: 虎扑 马刺 http://photo.hupu.com/nba/tag/%E9%A9%AC%E5%88%BA5 url: 虎扑 陈露 http://photo.hupu.com/nba/tag/%E9%99%88%E9%9C%B26 Created on 2015-10-247 @author: Eastmount CSDN8 """

9

10 importtime11 importre12 importos13 importsys14 importurllib15 importshutil16 importdatetime17 from selenium importwebdriver18 from selenium.webdriver.common.keys importKeys19 importselenium.webdriver.support.ui as ui20 from selenium.webdriver.common.action_chains importActionChains21

22 #Open PhantomJS

23 driver = webdriver.PhantomJS(executable_path="G:\phantomjs-1.9.1-windows\phantomjs.exe")24 #driver = webdriver.Firefox()

25 wait = ui.WebDriverWait(driver,10)26

27 #Download one Picture By urllib

28 defloadPicture(pic_url, pic_path):29 pic_name = os.path.basename(pic_url) #删除路径获取图片名字

30 pic_name = pic_name.replace('*','') #去除'*' 防止错误 invalid mode ('wb') or filename

31 urllib.urlretrieve(pic_url, pic_path +pic_name)32

33

34 #爬取具体的图片及下一张

35 defgetScript(elem_url, path, nums):36 try:37 #由于链接 http://photo.hupu.com/nba/p29556-1.html

38 #只需拼接 http://..../p29556-数字.html 省略了自动点击"下一张"操作

39 count = 1

40 t = elem_url.find(r'.html')41 while (count <=nums):42 html_url = elem_url[:t] + '-' + str(count) + '.html'

43 #print html_url

44 '''

45 driver_pic.get(html_url)46 elem = driver_pic.find_element_by_xpath("//div[@class='pic_bg']/div/img")47 url = elem.get_attribute("src")48 '''

49 #采用正则表达式获取第3个

50 content =urllib.urlopen(html_url).read()51 start = content.find(r'

')52 end = content.find(r'
')53 content =content[start:end]54 div_pat = r'(.*?)'

55 div_m = re.findall(div_pat, content, re.S|re.M)56 #print div_m[2]

57 link_list = re.findall(r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')", div_m[2])58 #print link_list

59 url = link_list[0] #仅仅一条url链接

60 loadPicture(url, path)61 count = count + 1

62

63 exceptException,e:64 print 'Error:',e65 finally:66 print 'Download' + str(count) + 'pictures\n'

67

68

69 #爬取主页图片集的URL和主题

70 defgetTitle(url):71 try:72 #爬取URL和标题

73 count =074 print 'Function getTitle(key,url)'

75 driver.get(url)76 wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='piclist3']"))77 print 'Title:' + driver.title + '\n'

78

79 #缩略图片url(此处无用) 图片数量 标题(文件名) 注意顺序

80 elem_url = driver.find_elements_by_xpath("//a[@class='ku']/img")81 elem_num = driver.find_elements_by_xpath("//div[@class='piclist3']/table/tbody/tr/td/dl/dd[1]")82 elem_title = driver.find_elements_by_xpath("//div[@class='piclist3']/table/tbody/tr/td/dl/dt/a")83 for url inelem_url:84 pic_url = url.get_attribute("src")85 html_url = elem_title[count].get_attribute("href")86 printelem_title[count].text87 printhtml_url88 printpic_url89 printelem_num[count].text90

91 #创建图片文件夹

92 path = "E:\\Picture_HP\\" + elem_title[count].text + "\\"

93 m = re.findall(r'(\w*[0-9]+)\w*', elem_num[count].text) #爬虫图片张数

94 nums =int(m[0])95 count = count + 1

96 if os.path.isfile(path): #Delete file

97 os.remove(path)98 elif os.path.isdir(path): #Delete dir

99 shutil.rmtree(path, True)100 os.makedirs(path) #create the file directory

101 getScript(html_url, path, nums) #visit pages

102

103 exceptException,e:104 print 'Error:',e105 finally:106 print 'Find' + str(count) + 'pages with key\n'

107

108 #Enter Function

109 defmain():110 #Create Folder

111 basePathDirectory = "E:\\Picture_HP"

112 if notos.path.exists(basePathDirectory):113 os.makedirs(basePathDirectory)114

115 #Input the Key for search str=>unicode=>utf-8

116 key = raw_input("Please input a key:").decode(sys.stdin.encoding)117 print 'The key is :' +key118

119 #Set URL List Sum:1-2 Pages

120 print 'Ready to start the Download!!!\n\n'

121 starttime =datetime.datetime.now()122 num=1

123 while num<=1:124 #url = 'http://photo.hupu.com/nba/tag/%E9%99%88%E9%9C%B2?p=2&o=1'

125 url = 'http://photo.hupu.com/nba/tag/%E9%A9%AC%E5%88%BA'

126 print '第'+str(num)+'页','url:'+url127 #Determine whether the title contains key

128 getTitle(url)129 time.sleep(2)130 num = num + 1

131 else:132 print 'Download Over!!!'

133

134 #get the runtime

135 endtime =datetime.datetime.now()136 print 'The Running time :',(endtime -starttime).seconds137

138 main()

代码解析:

源程序主要步骤如下:

1.入口main函数中,在E盘下创建图片文件夹Picture_HP,然后输入图集url,本打算输入tag来进行访问的,因为URL如下:

http://photo.hupu.com/nba/tag/马刺

但是解析URL中文总是错误,故改成输入URL,这不影响大局。同时你可能发现了代码中while循环条件为num<=1,它只执行一次,建议需要下载哪页图集,就赋值URL即可。但是虎扑的不同页链接如下,通过分析URL拼接也是可以实现循环获取所有页的。

http://photo.hupu.com/nba/tag/%E9%99%88%E9%9C%B2?p=2&o=1

2.调用getTitle(rul)函数,通过Selenium和Phantomjs分析HTML的DOM结构,通过find_elements_by_xpath函数获取原图路径URL、图集的主题和图片数量。如图:

通过该函数即可获取每个图集的主题、URL及图片个数,同时根据图集主题创建相应的文件夹,代码中涉及正则表达式获取图片数量,从"共19张"到数字"19"。如图:

3.再调用函数getScript(elem_url, path, nums),参数分别是图片url、保存路径和图片数量。那么如何获取下一张图片的URL呢?

当通过步骤二爬取了图集URL,如:http://photo.hupu.com/nba/p29556.html

(1).如果是通过Ajax、JavaScript动态加载的图片,url无规律则需要调用Selenium动态模拟鼠标操作点击“下一张”来获取原图url;

(2).但很多网站都会存在一些规律,如虎扑的第九张图片链接如下,通过URL字符串分割处理即可实现:"p29556-"+"数字"+".html"即可。

http://photo.hupu.com/nba/p29556-9.html

在该函数中,我第一次也是通过Selenium分析HTML结构获取原始图片url,但每张图片都需要调用一次Phantomjs无界面浏览器,这速度太慢了。故该成了正则表达式获取HTML中的原图URL,其原因如下图:

虎扑又偷懒了,它在下面定义了原图链接,直接获取即可。

4.最后一步即urllib.urlretrieve(pic_url, pic_path + pic_name)下载图片即可。

当然你可能会遇到错误“Error: [Errno 22] invalid mode ('wb') or filename”,参考 stackoverflow

总结:

这是一篇讲述Selenium和Python爬取虎扑图集的文章,文章内容算是爬虫里面比较基础的,其中下载的“陈露”图片和网站给出的34个图集、902张图片一样。同时采用正则后时间估计3分钟左右,很快~当然,虎扑里面的标签很多,足球应该也是类似,只要修改URL即可下载图集,非常之方便。

最近在学习Spider更为广泛的Python爬取,也准备学习分布式爬虫、docker等。希望以后有机会真正讲讲如何实现深度搜索爬取和宽度搜索爬取等相关深层次内容,不要在这么水了。当然,如果你是爬虫初学者或Python初学者,这些实践的东西都将对你有所帮助~

最后希望读到此处的朋友,能收获一些东西,如果有错误或不足之处,还请海涵~最近正在认真学习中,非常期望自己能成为一名大学老师,无知 · 乐观 · 谦逊 · 低调 · 生活。

(By:Eastmount 2015-10-25 深夜3点   http://blog.csdn.net/eastmount/)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值