python爬虫案例教程~淘女郎、百度百科文本、规范化爬虫

目录

1. 入门爬虫教程

2. 初级爬虫教程

2.1 爬取百度百科词条基本信息 

2.2 爬取百度百科词条信息框数据

2.3 爬取百度百科中人物图片

3. 规范化、封装化的爬虫


1. 入门爬虫教程

python爬虫入门教程(二):开始一个简单的爬虫,https://blog.csdn.net/aaronjny/article/details/77945329

python爬虫入门教程(三):淘女郎爬虫 ( 接口解析 | 图片下载 ),https://blog.csdn.net/aaronjny/article/details/80291997

comment:虽然博客很老了,有部分内容已经不适用了、被淘汰了,但对于新手用来学习还是可以的

2. 初级爬虫教程

source:https://www.cnblogs.com/wsmrzx/p/10531708.html

2.1 爬取百度百科词条基本信息 

import urllib.request
import urllib.parse
from lxml import etree
import ssl
ssl._create_default_https_context = ssl._create_unverified_context

def query(content):
    # 请求地址
    url = 'https://baike.baidu.com/item/' + urllib.parse.quote(content)
    # 请求头部
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
    }
    # 利用请求地址和请求头部构造请求对象
    req = urllib.request.Request(url=url, headers=headers, method='GET')
    # 发送请求,获得响应
    response = urllib.request.urlopen(req)
    # 读取响应,获得文本
    text = response.read().decode('utf-8')
    # 构造 _Element 对象
    html = etree.HTML(text)
    # 使用 xpath 匹配数据,得到匹配字符串列表
    sen_list = html.xpath('//div[contains(@class,"lemma-summary")  or contains(@class,"lemmaWgt-lemmaSummary")]//text()')
    # 过滤数据,去掉空白
    sen_list_after_filter = [item.strip('\n') for item in sen_list]
    # 将字符串列表连成字符串并返回
    return ''.join(sen_list_after_filter)

if __name__ == '__main__':
    while (True):
        content = input('查询词语:')
        result = query(content)
        print("查询结果:%s" % result)

 转载:fei347795790~urllib爬取百度百科

我又用BeautifulSoup的find_all()方法重写了一个,感觉不如xpath简洁。

    intro_tag = soup.find_all('div', class_="lemma-summary")  # 获取百科基本信息列表

    # 处理基本信息:过滤数据,去掉空白
    intro_after_filter = [re.sub('\n+', '', item.get_text()) for item in intro_tag]
    intro_after_filter = [''.join(i.split()) for i in intro_after_filter]
    # 将字符串列表连成字符串并返回
    intro_after_filter_str = ''.join(intro_after_filter)
    print(intro_after_filter_str)

2.2 爬取百度百科词条信息框数据

   soup = BeautifulSoup(text, 'html.parser')  # 创建soup对象,获取html代码

    title = soup.find_all('dt', class_="basicInfo-item name")  # 找到所有dt标签,返回一个列表
    node = soup.find_all('dd', class_="basicInfo-item value")  # 找到所有dd标签,返回一个列表

    allunivinfo = []
    titlelist = []
    infolist = []

    for i in title:  # 将所有dt标签内容存入列表
        title = i.get_text()
        titlelist.append(title)
    for i in node:  # 将所有dd标签内容存入列表
        info = re.sub('\n+', '、', i.get_text()).strip('、')
        infolist.append(info)
    for i, j in zip(titlelist,
                    infolist):  # 多遍历循环,zip()接受一系列可迭代对象作为参数,将对象中对应的元素打包成一个个tuple(元组),然后返回由这些tuples组成的list(列表)。
        info = ''.join((str(i) + ':' + str(j)).split())
        allunivinfo.append(info)
    print(titlelist)
    print(infolist)
    print(allunivinfo)

-->为啥不接用用xpath,而改用beautifulsoup解析html网页的信息框数据呢?

因为xpath在提取信息框name,value数据对时的对齐效果不好,它会因为value有多个值而出现错位的情况,而beautifulsoup.find_all可以完美对齐。

2.3 爬取百度百科中人物图片

  • get('href')方式,不要用href!不要用href!不要用href!因为href下载的jpg图片损坏,无法打开
  • get('src')方式
    # 找到所有img标签,返回一个url的标签列表
    # img_urllist = soup.find_all('div', class_='album-wrap').find('img')
    img_urllist = soup.find('div', class_='main_tab main_tab-defaultTab curTab').find_all('img')
    for i in img_urllist:
        print(i.get('src'))

3. 规范化、封装化的爬虫

source:https://github.com/fifths/python_baike_spider

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

天狼啸月1990

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值