python爬虫1-抓取网页评论

 

爬虫思路:

  (1)分析网页,得到所需信息的URL。具体用火狐或谷歌浏览器,F12,

       

 

 

        (2)编程工具  中科大镜像中心下载的 Anaconda3-5.0.1-Windows-x86_64 ,优点是常用的模板都已经下载且每一步可以出结果。

      (3)开始编译

 

 

#分析网页  火狐浏览器 F12->消息头,逐步将后面不用的删除。

# https://rate.tmall.com/list_detail_rate.htm?itemId=538473991555&spuId=699374051&sellerId=2616970884&order=3&currentPage=2

import requests

import re   #正则表达式

import time

import pandas #保存成 CSV文件

 

#为了让服务器知道我们是浏览器发出的请求

header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:57.0) Gecko/20100101 Firefox/57.0'}

 

url='https://rate.tmall.com/list_detail_rate.htm?itemId=538473991555&spuId=699374051&sellerId=2616970884&order=3&currentPage=2'

#发起一次请求

html=requests.request('GET ', url , headers=header)

 

 

html.status_code  #查看请求状态  200正常

 

ren=re.compile(r'"rateContent":"(.*?)","rateDate"', re.S)

#正则表达式查找

Pl=re.findall(ren, html.text)

Pl

len(re.findall(ren, html.text))

#转换成csv

data = pandas.DataFrame(Pl) #csv

 

data

#CSV保存

data.to_csv('C:\\Users\\Administrator\\Desktop\\python\\tmall.csv',header=False,index=False,mode='a+')

 

#循环抓取多页

data=[]  #赋予一个列表的格式

for ii  in range (1,50):

    new_url = 'https://rate.tmall.com/list_detail_rate.htm?itemId=538473991555&spuId=699374051&sellerId=2616970884&order=3&currentPage'+ str(ii)

    time.sleep(2)

    html=requests.request('GET ', new_url , headers=header)

    data = pandas.DataFrame(re.findall(ren, html.text)) #csv

    data.to_csv('C:\\Users\\Administrator\\Desktop\\python\\tmall1.csv',header=False,index=False,mode='a+')

 

-

 

转载于:https://www.cnblogs.com/zhudh/p/7902969.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值