Request+lxml爬取百度实时热点top10

爬百度实时热点top10的排序,标题内容,链接

import requests
from lxml import etree

headers={
    'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'
}
urls='http://top.baidu.com/buzz?b=1'

res=requests.get(url=urls,headers=headers)

##乱码情况下查看网页文本的编码格式
在这里插入图片描述

res.encoding='gb2312'

获得元素树

html=etree.HTML(res.text)

##取top10
##获取table下的[1,14]tr标签:
##第一个没用
在这里插入图片描述
##我们要找的是:class="hideline"结点下的’td[@class="first"和 td[@class="keyword
所以前1-3个中多了3个没用的tr标签,所以取[1:14]
在这里插入图片描述

contents=html.xpath('//table[@class="list-table"]//tr')[1:14]
print(contents)
#遍历所有tr标签
rank_list=[]
content_list=[]
href_list=[]
import csv

for  tr  in  contents:
    ##取想要的数据

    rank=tr.xpath('td[@class="first"]//text()')
    ##判断有没有空的数据
    if rank :
        rank_list.append(rank[1])

    content=tr.xpath('td[@class="keyword"]//a/text()')
    if  content:
        content_list.append(content[0])


    href=tr.xpath('td[@class="keyword"]//a/@href')
    if  href:

        href_list.append(href[0])

print(rank_list)
print(content_list)
print(href_list)

在这里插入图片描述
将数据存入csv文件中:

import csv
with open('h.csv','w')as f:
    f_csv = csv.writer(f)
    f_csv.writerow(['排行','标题','链接'])
    for  i  in  range(10):
        rows=[[rank_list[i],content_list[i],href_list[i]],]
        f_csv.writerows(rows)

在这里插入图片描述

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值