前言
本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。
作者:HOT_and_COOl
SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。
利用爬虫可以进行数据挖掘,比如可以爬取别人的网页,收集有用的数据进行整合和划分,简单的就是用程序爬取网页上的所有图片并保存在自己新建的文件夹内,还有可以爬社交网站的自拍图,将几十万张的图片合在一起,就知道大众的模样。也可以将爬取的数据进行处理,生成一种可视化的东西。另外如果你python爬虫没学好,建议去小编的Python交流.裙 :一久武其而而流一思(数字的谐音)转换下可以找到了,里面有最新Python教程项目,多跟里面的大佬交流!
二.请求网页的过程
(注:编者用的环境为Python3.6.1,python2.x和Python3.x在这个上有所不同,2.x有两个urllib和urllib2,而3.x只有urllib)
主要用到urllib这个库
请求的网页的过程简单的理解就是向服务器发送一个头信息,然后返回一个信息。
可以查看网页的元素看到,
常见的所使用的方法也就是GET,POST
在过滤消息头里可以看出有个参数就是User-Agent,这个就是访问请求的环境,一般为浏览器,如果用程序访问时,为Python3.x,这是就不允许访问了,防止恶意访问,但也有方法伪装
三.简单的爬个网页
import urllib.resquest
url= "http://www.baidu.com"
response=urllib.resquest.urlopen(url)
html=respose.read()
for eachline in html:
print(eachline)url分为三部分
①第一部分是协议(或称为服务方式)。
②第二部分是存有该资源的主机IP地址(有时也包括端口号)。
③第三部分是主机资源的具体地址,如目录和文件名等。
四.一个好玩的翻译的例子,让你分分钟了解爬虫的好玩之处
import urllib.request
import urllib.parse
import json
content=input( "请输入需要翻译的内容:\n")
url= 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=https://www.baidu.com/link'
data={}
data[ 'type']='AUTO'
data[ 'i']=content
data[ 'doctype']='json'
data[ 'xmlVersion']='1.8'
data[ 'keyfrom']='fanyi.web'
data[ 'ue']='UTF-8'
data[ 'action']='FY_BY_CLICKBUTTTON'
data[ 'typoResult']='true'
data=urllib.parse.urlencode(data).encode( 'utf-8')
response=urllib.request.urlopen(url,data)
html=response.read().decode( 'utf-8')
target=json.loads(html)
print( '翻译结果为:%s' % (target['translateResult'][0][0]['tgt']))
urllib.request.urlopen(url,data) data为图中的请求数据
url为上上图中的请求网址
!
扫码关注我们
微信号:SRE实战
拒绝背锅 运筹帷幄
×
选择打赏方式:
微信
QQ钱包
支付宝
打赏
打赏
打赏
多少都是心意!谢谢大家!!!
×
选择分享方式:
微信扫一扫,分享朋友圈
Or
手机扫一扫,精彩随身带