python利用cookie爬淘宝数据

import re
import requests
import pandas as pd
import json
import re
import requests

headers={'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36',
        'referer': 'https://www.taobao.com/',
        'cookie':'t=************; cna=*******; thw=cn; ali_ab=*********; tg=0; hng=*****; _cc_=*****; uc3=id2=&nk2=&lg2=; tracknick=; enc=*****; cookie2=*****; _tb_token_=*****; x=*****; uc1=cookie14=*****;lng=zh_CN; skt=***; csg=***; v=0; alitrackid=www.taobao.com; lastalitrackid=www.taobao.com; _m_h5_tk=*****; _m_h5_tk_enc=*****; JSESSIONID=*****; l=*****; isg=*****' }
url_1='https://s.taobao.com/search?q=%E6%89%8B%E6%9C%BA&imgfile=&js=1&stats_click=search_radio_all%3A1&initiative_id=staobaoz_20200831&ie=utf8'
res=requests.get(url_1,headers=headers,timeout=10)
res.text
data=re.findall('g_page_config =(.*?)g_srp_loadCss.*',res.text,re.S)
price=[]
name=[]
address=[]
count=[]
title=[]
id_=[]
detail_url=[]
sale=[]
for i in range(10):
    url=url_1.format(i)
    res=requests.get(url,headers=headers,timeout=10)
    data=re.findall('g_page_config =(.*?)g_srp_loadCss',res.text,re.S)
    cont=json.loads(data[0].strip()[:-1])
    for item in cont['mods']['itemlist']['data']['auctions']:
        name.append(item['nick'])
        print(item['nick'])
    print('第'+str(i)+'页爬取完成')
result={'店铺名称':name}
results=pd.DataFrame(result)

https://mp.weixin.qq.com/s/BWgwZGoD5-iex7khNcwW3w

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值