Python爬虫实战一 | 抓取取校花网的所有妹子

  今天晚上顺带就实际的写写工具,我们刚学完Python的基础语法!抓点妹子带回家~

  总结一下之前的吧,我写了关于Python爬虫的六节课程,也就是六篇文章,文章有点简洁,但是很细节,如果还有不懂的请加我QQ:1099718640,或者留言,小东看到了一定会及时回复的哦!愿和各位志同道合的程序猴子一起畅谈人生!哈哈~

  今天晚上,刚开完班会。。。老实说,小东大一的成绩很不好,全班倒数,无颜见父老啊,待在“卓越班”感觉自己负罪感满满,哎╮(╯▽╰)╭,在博客里吐槽一下啦~今后好好把公共基础课学好,大学到最终还是以成绩来衡量的,但还是要尽量地多去参加一下竞赛,哈哈~


这是在运行途中截得图,我故意输出的,哈哈~

# 抓取校花网 校花图片
# 作者:DYBOY 小东
# 时间:2017-09-06

'''
http://www.xiaohuar.com/list-1-0.html 第一页
http://www.xiaohuar.com/list-1-1.html 第二页

'''

import requests
import re

from bs4 import BeautifulSoup
#以上作为基本引用


def getGirls(girl_url):
    main_url = 'http://www.xiaohuar.com'
    header = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20100101 Firefox/23.0'}
    res = requests.get(girl_url,headers = header,timeout=10)
    res.encoding = 'gb2312'
    soup = BeautifulSoup(res.text,'html.parser')
    for images in soup.select('.item'):
        img_url = main_url + images.select('.item_t .img a img')[0]['src']
        houzhui = img_url[-4:]
        img_alt = images.select('.item_t .img a img')[0]['alt'] + houzhui
        print(img_alt)
        img = requests.get(img_url)
        with open('xiaohua/' + img_alt,"wb") as code:
            code.write(img.content)
    print('ok!')

def url_change():
    for i in range(19,44):
        url = 'http://www.xiaohuar.com/list-1-' + str(i) + '.html'
        getGirls(url)


#MAIN
url_change()




部分成果


代码自己去github上去看~

注:本文属于原创文章,转载请注明本文地址!

作者QQ:1099718640

CSDN博客主页:http://blog.csdn.net/dyboy2017

Github开源项目:https://github.com/dyboy2017/xiaohua


评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值