python遇到天猫反爬虫_Python--天猫详情页爬虫

淘宝天猫商品抓取

数据来源  --TTyb 2017-11-11 858 1833

本文基于 360 浏览器查看源码, python3.4 编码 ,爬虫基础需要学习的请看 爬虫教程。

淘宝天猫的网页反爬虫很严重,存在大量的 验证码 、 登陆提示 、 浏览限制 等等机制,但是毕竟一山还有一山高,机器永远比不上人的聪明,所以我发现了一个抓取的方法。

任何网页存在反爬虫都是很棘手的,例如淘宝的反爬虫很严重。但是众所周知,手机端的页面往往比电脑端的页面好抓取,所以我打开了淘宝的手机端网页 https://m.taobao.com ,点击上面的搜索框,网页自动跳转:

此时 网址已经变化成:

https://s.m.taobao.com/h5?search-btn=&event_submit_do_new_search_auction=1&_input_charset=utf-8&topSearch=1&atype=b&searchfrom=1&action=home%3Aredirect_app_action&from=1

F12 查看网址的表单,找到 Headers ,看到请求的 host 变成了 s.m.taobao.com ,请求携带的表单有:

清除表单的信息,鼠标往下拉,看下翻页的信息:

可以看到 get 的表单变成了:

event_submit_do_new_search_auction:1

_input_charset:utf-8

topSearch:1

atype:b

searchfrom:1

action:home:redirect_app_action

from:1

sst:1

n:20

buying:buyitnow

m:api4h5

abtest:17

wlsort:17

style:list

closeModues:nav,selecthot,onesearch

page:2

很明显的发现翻页的表单为 page ,数了一下每一页是 20 个商品的信息。这样就找到了翻页的部分。继续清除加载好的表单,搜索看一下:

查看得到请求头是:

event_submit_do_new_search_auction:1

_input_charset:utf-8

topSearch:1

atype:b

searchfrom:1

action:home:redirect_app_action

from:1

sst:1

n:20

buying:buyitnow

q:Iphone

我搜索的是 Iphone ,基本确认 keyword 是 q 了,再搜索 Ipad 看一下,表单为:

q:Ipad

search:提交

tab:all

每次请求的表单都不一样,我把他们汇总在一起是这样子:

"event_submit_do_new_search_auction": "1",

"search": "提交",

"tab": "all",

"_input_charset": "utf-8",

"topSearch": "1",

"atype": "b",

"searchfrom": "1",

"action": "home:redirect_app_action",

"from": "1",

"q": keyword,

"sst": "1",

"n": "20",

"buying": "buyitnow",

"m": "api4h5",

"abtest": "30",

"wlsort": "30",

"style": "list",

"closeModues": "nav,selecthot,onesearch",

"page": page

只要请求的 url 携带这些参数就可以了。其中查看头部知道:

Referer="http://s.m.taobao.com"

Host="s.m.taobao.com"

到这里其实就可以写代码了,但是发现表单中出现了一个 style:list ,敏感的嗅觉觉得这里有猫腻,应该是展现的样式,所以我点击销量优先,发现 style:list 没变,但是增加了 sort:_sale ,这里会排序,再点其他发现如下信息:

综合排序sort:""

销量优先sort:_sale

价格低到高sort:bid

价格高到低sort:_bid

信用排序sort:_ratesum

起始价格:start_price:价格

终止加个:end_price:价格

既然这样已经找到请求表单,那么构造 python 爬虫代码,安装必要的爬虫库 pip3 install requests ,首先抓取首页保持爬虫链接,这个是为了使头部自动增加 cookie :

headers = {

"User-Agent": "Mozilla/5.0 (iPad; U; CPU OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5"

}

session = requests.session()

session.get("https://s.m.taobao.com/", headers=headers)

根据抓取到的表单构造 getdata :

getData = {

"event_submit_do_new_search_auction": "1",

"search": "提交",

"tab": "all",

"_input_charset": "utf-8",

"topSearch": "1",

"atype": "b",

"searchfrom": "1",

"action": "home:redirect_app_action",

"from": "1",

"q": keyword,

"sst": "1",

"n": "20",

"buying": "buyitnow",

"m": "api4h5",

"abtest": "30",

"wlsort": "30",

"style": "list",

"closeModues": "nav,selecthot,onesearch",

"page": page

}

url 前缀 preUrl = "http://s.m.taobao.com/search?" ,升级头部使其携带 Referer 和 Host :

# 升级头部

headers.update(

dict(Referer="http://s.m.taobao.com", Host="s.m.taobao.com"))

抓取网页:

# 抓取网页

aliUrl = session.get(url=preUrl, params=getData, headers=headers)

输入关键词和页数,打印抓取下来的东西,居然发现是 json :

这样就很满足了,解析这段 json :

dictInfo = json.loads(content.decode("utf-8", "ignore"))

infoList = dictInfo["listItem"]

由于我抓取的是 1 页,所以得到 20 个商品的 infoList ,infoList 里面的每个元素都是一个字典,提取 dict 里面的店铺信息:

for dict in infoList:

store = dict["nick"]

print(store)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值