Python爬虫requests之扇贝单词

代码,使用xpath筛选

import requests
from lxml import etree
#词汇表
words = []

def shanbei(page):
    url ='https://www.shanbay.com/wordlist/104899/202159/?page=%s'%page
    print(url)
    
    rsp = requests.get(url)
    html = rsp.text()
    html = etree.HTML(html)
    #查找所有tr标签内容
    tr_list = html.xpath('//tr')
    for tr in tr_list:
        word = {} 
        #查找单词
        strong = tr.xpath('.//strong')
        if len(strong):
            name = strong[0].text.strip()
            word['name'] = name
        #查找单词内容
        td_content = tr.xpath('./td[@class="span10"]')
        if len(td_content):
            content = td_content[0].text.strip()
            word['content'] = content
            
        if word != {}:
            words.append(word)

if __name__ == '__main__':
	#页数第一页,可以自己定义
    shanbei(1)
    print(words)
    ```

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值