爬虫实例1:爬取百度热搜风云榜 前50条热搜 并将热搜发送至自己邮箱

1-利用requests库以及xpath 获取百度热搜风云榜的字段 如:标题title 热搜url

url = 'http://top.baidu.com/buzz?b=1&fr=topindex'
header={
   
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36',
    'Referer': 'http://top.baidu.com/'
}

r = requests.get(url,headers=header)
r.encoding='gbk'
#print(r.text)
selector = etree.HTML(r.text)

# 二次检索
eles = selector.xpath('//td[@class="keyword"]/a[1]')
#print(len(eles))

2-通过二次检索的方式 把我们需要的字段值 一一获取

ls =[]
for ele in eles:
    #print(index+1)
    # 百度热搜主题
    title = ele.xpath('./text()')[0]
    #print(title)
    # 百度热搜主题链接
    url = ele.xpath('./@href')[0]
    #print(url)
    crawled_time = datetime.now()
    temp_ls = {
   }
    
    temp_ls['title'] =title
    temp_ls['url'] = url
    temp_ls['crawled_time'] = str(crawled_time)
    ls.append(temp_ls)
   
#print(ls)

data_email =''
for index , email_ls in 
  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值