基于Python的简单爬虫

PyThon简单爬虫

该程序第一部分对新浪上网页链接进行爬取,第二部分对京东上指定页面的图片进行爬取

	import re
import urllib.request

def getlink(url):
#设置请求头
    headers=("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 Safari/537.36 SE 2.X MetaSr 1.0")
#自定义opener
    opener = urllib.request.build_opener() #建立opener
    opener.addheaders = [headers] #附加请求头
    #global opener
    urllib.request.install_opener(opener) #启用自定义opener
#调用openerdirector
    file=urllib.request.urlopen(url)
#读取数据
    data=str(file.read())
#建立正则式匹配网页连接
    pat='(https?://[^\s)";]+\.(\w|/)*)'
    link=re.compile(pat).findall(data)
#对连接进行去重
    link=list(set(link))
    return link
#初始资源定位符
url="http://news.sina.com.cn/"
#获取连接
linklist=getlink(url)
大一连接
for link in linklist:
    print(link[0])
    
import re
import urllib.request
import os,stat

def craw(url,page):
#读取url的内容并存于html1
    html1=urllib.request.urlopen(url).read()
    html1=str(html1)
#第一个正则表达式,用于选取目标所在范围
    pat1='<div id="J_selector".+?<div  class="J_selectorLine s-line">'
    result1=re.compile(pat1).findall(html1)
    result1=result1[0]
#第二个正则表达式,用于匹配目标
    pat2='<img src="//(.+?width="102" height="36">)'
    imagelist=re.compile(pat2).findall(result1)
    x=1
    file_path='D:/img' #文件存储路径
    for imageurl in imagelist:
#文件名
        imagename=str(page)+'_'+str(x)
#文件网络地址
        imageurl="https://"+imageurl
        imageurl=imageurl.replace('" width="102" height="36">','')
#读取文件格式
        file_suffix=os.path.splitext(imageurl)[1]
        print(file_suffix)
#完整文件路径
        filename = '{}{}{}{}'.format(file_path,os.sep,imagename,file_suffix)
        print(filename)
        try:
#如果不存在文件路径则建立文件
            if not os.path.exists(file_path):
                os.makedirs(file_path)
#下载文件
            urllib.request.urlretrieve(imageurl,filename=filename)
#错误处理
        except IOError as e:
            print("IOError")
        except Exception as e:
            print("Exception")
        x+=1

for i in range(1,10):
    url="http://list.jd.com/list.html?cat=9987,653,655&page="+str(i)
    craw(url,i)


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值