python 爬虫(一)爬取百度贴吧图片

网址为https://tieba.baidu.com/f?ie=utf-8&kw=%E6%B5%B7%E8%B4%BC%E7%8E%8B&fr=search

基本思路就是:下载整个页面,然后用正则匹配要下载的内容,最后保存到本地。

1.下载整个页面

定义一个下载器

#首先定义一个下载器,用来下载网页
def load_page(my_url):
    #设置代理IP
  user_agent=user_agent='Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)         Chrome/27.0.1453.94 Safari/537.36'
    headers={'User-Agent':user_agent}
    response=request.Request(my_url,headers=headers)
    results=request.urlopen(response)
    html=results.read().decode('utf-8')

    return html

my_url=''https://tieba.baidu.com/f?ie=utf-8&kw=%E6%B5%B7%E8%B4%BC%E7%8E%8B&fr=search'

html=load_page(my_url)


  接下来用正则匹配,

img_inf=r'/wh%3D200%2C90%3B/sign=\w+/\w+\.jpg'
img=re.compile(img_inf)

img_list=re.findall(img,html)

返回一个列表

最后保存到本地:

for i in img_list:
    img_name=str(i).split('/')[-1]
    img_url='https://imgsa.baidu.com/forum%s' % (str(i))

    file_path='f:\\wd.python\\tieba_haizeiwang\\%s' %(img_name)


    with open(file_path,'wb') as f:
        f.write(request.urlopen(img_url).read())

        f.close()

结果:


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值