Python爬虫:设置Cookie解决网站拦截并爬取蚂蚁短租,Python开发面试题

文章介绍了使用Python的urllib2和BeautifulSoup库进行网页爬虫,包括设置User-Agent和Cookie头以获取网页详情,以及如何手动更新Cookie以避免反爬策略。
摘要由CSDN通过智能技术生成

添加消息头的代码如下所示,这里先给出代码和结果,再教大家如何获取Cookie。

-- coding: utf-8 --

import urllib2

import re

from bs4 import BeautifulSoup

#爬虫函数

def gydzf(url):

user_agent=“Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36”

headers={“User-Agent”:user_agent}

request=urllib2.Request(url,headers=headers)

response=urllib2.urlopen(request)

contents = response.read()

soup = BeautifulSoup(contents, “html.parser”)

for tag in soup.find_all(‘dd’):

#短租房名称

for name in tag.find_all(attrs={“class”:“room-detail clearfloat”}):

fname = name.find(‘p’).get_text()

print u’[短租房名称]‘, fname.replace(’\n’,‘’).strip()

#短租房价格

for price in tag.find_all(attrs={“class”:“moy-b”}):

string = price.find(‘p’).get_text()

fprice = re.sub(“[¥]+”.decode(“utf8”), “”.decode(“utf8”),string)

fprice = fprice[0:5]

print u’[短租房价格]‘, fprice.replace(’\n’,‘’).strip()

#评分及评论人数

for score in name.find(‘ul’):

fscore = name.find(‘ul’).get_text()

print u’[短租房评分/评论/居住人数]‘, fscore.replace(’\n’,‘’).strip()

#网页链接url

url_dzf = tag.find(attrs={“target”:“_blank”})

urls = url_dzf.attrs[‘href’]

print u’[网页链接]‘, urls.replace(’\n’,‘’).strip()

urlss = ‘http://www.mayi.com’ + urls + ‘’

print urlss

#主函数

if name == ‘main’:

i = 1

while i<10:

print u’页码’, i

url = ‘http://www.mayi.com/guiyang/’ + str(i) + ‘/?map=no’

gydzf(url)

i = i+1

else:

print u"结束"

输出结果如下图所示:

页码 1

[短租房名称] 大唐东原财富广场–城市简约复式民宿

[短租房价格] 298

[短租房评分/评论/居住人数] 5.0分·5条评论·二居·可住3人

[网页链接] /room/851634765

http://www.mayi.com/room/851634765

[短租房名称] 大唐东原财富广场–清新柠檬复式民宿

[短租房价格] 568

[短租房评分/评论/居住人数] 2条评论·三居·可住6人

[网页链接] /room/851634467

http://www.mayi.com/room/851634467

页码 9

[短租房名称] 【高铁北站公园旁】美式风情+超大舒适安逸

[短租房价格] 366

[短租房评分/评论/居住人数] 3条评论·二居·可住5人

[网页链接] /room/851018852

http://www.mayi.com/room/851018852

[短租房名称] 大营坡(中大国际购物中心附近)北欧小清新三室

[短租房价格] 298

[短租房评分/评论/居住人数] 三居·可住6人

[网页链接] /room/851647045

http://www.mayi.com/room/851647045

在这里插入图片描述

接下来我们想获取详细信息

在这里插入图片描述

这里作者主要是提供分析Cookie的方法,使用浏览器打开网页,右键“检查”,然后再刷新网页。在“NetWork”中找到网页并点击,在弹出来的Headers中就隐藏这这些信息。

在这里插入图片描述

最常见的两个参数是Cookie和User-Agent,如下图所示:

在这里插入图片描述

然后在Python代码中设置这些参数,再调用Urllib2.Request()提交请求即可,核心代码如下:

user_agent=“Mozilla/5.0 (Windows NT 10.0; Win64; x64) … Chrome/61.0.3163.100 Safari/537.36”

cookie=“mediav=%7B%22eid%22%3A%22387123…b3574ef2-21b9-11e8-b39c-1bc4029c43b8”

headers={“User-Agent”:user_agent,“Cookie”:cookie}

request=urllib2.Request(url,headers=headers)

response=urllib2.urlopen(request)

contents = response.read()

soup = BeautifulSoup(contents, “html.parser”)

for tag1 in soup.find_all(attrs={“class”:“main”}):

注意,每小时Cookie会更新一次,我们需要手动修改Cookie值即可,就是上面代码的cookie变量和user_agent变量。完整代码如下所示:

import urllib2

import re

from bs4 import BeautifulSoup

import codecs

import csv

c = open(“ycf.csv”,“wb”) #write 写

c.write(codecs.BOM_UTF8)

writer = csv.writer©

writer.writerow([“短租房名称”,“地址”,“价格”,“评分”,“可住人数”,“人均价格”])

#爬取详细信息

def getInfo(url,fname,fprice,fscore,users):

#通过浏览器开发者模式查看访问使用的user_agent及cookie设置访问头(headers)避免反爬虫,且每隔一段时间运行要根据开发者中的cookie更改代码中的cookie

user_agent=“Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36”

cookie=“mediav=%7B%22eid%22%3A%22387123%22eb7; mayi_uuid=1582009990674274976491; sid=42200298656434922.85.130.130”

headers={“User-Agent”:user_agent,“Cookie”:cookie}

request=urllib2.Request(url,headers=headers)

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
img
img



既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加V:vip1024c 备注Python获取(资料价值较高,非无偿)
img

如果你也是看准了Python,想自学Python,在这里为大家准备了丰厚的免费学习大礼包,带大家一起学习,给大家剖析Python兼职、就业行情前景的这些事儿。

一、Python所有方向的学习路线

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

二、学习软件

工欲善其必先利其器。学习Python常用的开发软件都在这里了,给大家节省了很多时间。

三、全套PDF电子书

书籍的好处就在于权威和体系健全,刚开始学习的时候你可以只看视频或者听某个人讲课,但等你学完之后,你觉得你掌握了,这时候建议还是得去看一下书籍,看权威技术书籍也是每个程序员必经之路。

四、入门学习视频

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。

四、实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

五、面试资料

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

成为一个Python程序员专家或许需要花费数年时间,但是打下坚实的基础只要几周就可以,如果你按照我提供的学习路线以及资料有意识地去实践,你就有很大可能成功!
最后祝你好运!!!

onvert/252731a671c1fb70aad5355a2c5eeff0.png)

五、面试资料

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。

成为一个Python程序员专家或许需要花费数年时间,但是打下坚实的基础只要几周就可以,如果你按照我提供的学习路线以及资料有意识地去实践,你就有很大可能成功!
最后祝你好运!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值