节点下。
接下来我们写个简单的BeautifulSoup进行爬取。
-- coding: utf-8 --
import urllib
import re
from bs4 import BeautifulSoup
import codecs
url = ‘http://www.mayi.com/guiyang/?map=no’
response=urllib.urlopen(url)
contents = response.read()
soup = BeautifulSoup(contents, “html.parser”)
print soup.title
print soup
#短租房名称
for tag in soup.find_all(‘dd’):
for name in tag.find_all(attrs={“class”:“room-detail clearfloat”}):
fname = name.find(‘p’).get_text()
print u’[短租房名称]‘, fname.replace(’\n’,‘’).strip()
但很遗憾,报错了,说明蚂蚁金服防范措施还是挺到位的。
添加消息头的代码如下所示,这里先给出代码和结果,再教大家如何获取Cookie。
-- coding: utf-8 --
import urllib2
import re
from bs4 import BeautifulSoup
#爬虫函数
def gydzf(url):
user_agent=“Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36”
headers={“User-Agent”:user_agent}
request=urllib2.Request(url,headers=headers)
response=urllib2.urlopen(request)
contents = response.read()
soup = BeautifulSoup(contents, “html.parser”)
for tag in soup.find_all(‘dd’):
#短租房名称
for name in tag.find_all(attrs={“class”:“room-detail clearfloat”}):
fname = name.find(‘p’).get_text()
print u’[短租房名称]‘, fname.replace(’\n’,‘’).strip()
#短租房价格
for price in tag.find_all(attrs={“class”:“moy-b”}):
string = price.find(‘p’).get_text()
fprice = re.sub(“[¥]+”.decode(“utf8”), “”.decode(“utf8”),string)
fprice = fprice[0:5]
print u’[短租房价格]‘, fprice.replace(’\n’,‘’).strip()
#评分及评论人数
for score in name.find(‘ul’):
fscore = name.find(‘ul’).get_text()
print u’[短租房评分/评论/居住人数]‘, fscore.replace(’\n’,‘’).strip()
#网页链接url
url_dzf = tag.find(attrs={“target”:“_blank”})
urls = url_dzf.attrs[‘href’]
print u’[网页链接]‘, urls.replace(’\n’,‘’).strip()
urlss = ‘http://www.mayi.com’ + urls + ‘’
print urlss
#主函数
if name == ‘main’:
i = 1
while i<10:
print u’页码’, i
url = ‘http://www.mayi.com/guiyang/’ + str(i) + ‘/?map=no’
gydzf(url)
i = i+1
else:
print u"结束"
输出结果如下图所示:
页码 1
[短租房名称] 大唐东原财富广场–城市简约复式民宿
[短租房价格] 298
[短租房评分/评论/居住人数] 5.0分·5条评论·二居·可住3人
[网页链接] /room/851634765
http://www.mayi.com/room/851634765
[短租房名称] 大唐东原财富广场–清新柠檬复式民宿
[短租房价格] 568
[短租房评分/评论/居住人数] 2条评论·三居·可住6人
[网页链接] /room/851634467
http://www.mayi.com/room/851634467
…
页码 9
[短租房名称] 【高铁北站公园旁】美式风情+超大舒适安逸
[短租房价格] 366
[短租房评分/评论/居住人数] 3条评论·二居·可住5人
[网页链接] /room/851018852
http://www.mayi.com/room/851018852
[短租房名称] 大营坡(中大国际购物中心附近)北欧小清新三室
[短租房价格] 298
[短租房评分/评论/居住人数] 三居·可住6人
[网页链接] /room/851647045
http://www.mayi.com/room/851647045
接下来我们想获取详细信息
这里作者主要是提供分析Cookie的方法,使用浏览器打开网页,右键“检查”,然后再刷新网页。在“NetWork”中找到网页并点击,在弹出来的Headers中就隐藏这这些信息。
最常见的两个参数是Cookie和User-Agent,如下图所示:
然后在Python代码中设置这些参数,再调用Urllib2.Request()提交请求即可,核心代码如下:
user_agent=“Mozilla/5.0 (Windows NT 10.0; Win64; x64) … Chrome/61.0.3163.100 Safari/537.36”
cookie=“mediav=%7B%22eid%22%3A%22387123…b3574ef2-21b9-11e8-b39c-1bc4029c43b8”
headers={“User-Agent”:user_agent,“Cookie”:cookie}
request=urllib2.Request(url,headers=headers)
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)
最后
不知道你们用的什么环境,我一般都是用的Python3.6环境和pycharm解释器,没有软件,或者没有资料,没人解答问题,都可以免费领取(包括今天的代码),过几天我还会做个视频教程出来,有需要也可以领取~
给大家准备的学习资料包括但不限于:
Python 环境、pycharm编辑器/永久激活/翻译插件
python 零基础视频教程
Python 界面开发实战教程
Python 爬虫实战教程
Python 数据分析实战教程
python 游戏开发实战教程
Python 电子书100本
Python 学习路线规划
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
f0.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZlaTM0Nzc5NTc5MA==,size_16,color_FFFFFF,t_70)
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
[外链图片转存中…(img-5t5Z4WIQ-1712711067109)]