Python爬虫

Python网络爬虫

标准爬取数据格式

 import requests
 def getHTMLText(url):
 try:
    r=requests.get(url)
    r.raise_for_status()
    r.encoding=r.apparent_encoding
    return r.text
 except:
    return "产生异常"
 if __name__=="__main__":
    url ="http://www.baidu.com"
    print (getHTMLText(url))

一般爬取数据

 import requests
 url="http://item.jd.com/2967929.html"
 try:
    r=requests.get(url)
    r.raise_for_status()
    r.encoding=r.apparent_encoding
    print r.text
 except:
    print "产生异常"

改变user-agent访问网站爬取信息

import requests
url="http://www.amazon.cn/gp/product/B01M8L5Z3Y"
try:
   kv={'user-agent':'Mozilla/5.0'}
   r=requests.get(url,headers=kv)
   r.raise_for_status()
   r.encoding=r.apparent_encoding
   print r.text[1000:2000]
except:
   print "爬取失败" 

爬取百度搜索Python后的内容

import requests
kv={'wd':'Python'}
try:
   r=requests.get("http://www.baidu.com/s",params=kv)
   r.raise_for_status()
   r.encoding=r.apparent_encoding
   print len(r.text)
   print r.text
except:
   print "产生异常"

从网上爬取并下载资源

import requests
import os
root="/home/sun/Python/pics/"
url="http://image.nationalgeographic.com.cn/2017/0211/20170211061910157.jpg"
path=root+url.split('/')[-1]
try:
  if not os.path.exists(root):
     os.mkdir(root)
  if not os.path.exists(path):
     r=requests.get(url)
     with open(path,'wb') as f:
        f.write(r.content)
        f.close()
        print "文件保存成功"
  else:
      print "文件已存在"
except:
    print "爬取失败"

查询ip归属地,程序运行复杂,代码应该没错

 import requests
 url="https://m.ip138.com/iplookup.asp?ip="
 try:
    r=requests.get(url+'202.204.80.112')
    r.raise_for_status()
    r.encoding=r.apparent_encoding
    print (r.text[-400:])
 except:
    print "爬取失败"

使用BeautifulSoup

 import requests
 r=requests.get("http://www.baidu.com")
 r.encoding=r.apparent_encoding
 demo=r.text
 from bs4 import BeautifulSoup
 soup=BeautifulSoup(demo,"html.parser")  
 print soup.title
 print soup.title.name
 print soup.a
 tag=soup.a
 print tag.attrs
 print tag.attrs['href']
 print tag
 #print soup.prettify()

爬取中国大学排名并格式化输出

 import requests
 import bs4
 from bs4 import BeautifulSoup
 def getHTMLText(url):
 try:
    r=requests.get(url)
    r.raise_for_status()
    r.encoding=r.apparent_encoding
    return r.text
 except:
    return ""

 def  fillUnivList(ulist,html):
    soup=BeautifulSoup(html,"html.parser")
      for tr in soup.find('tbody').children:
        if isinstance(tr,bs4.element.Tag):
           tds=tr('td')
           ulist.append([tds[0].string,tds[1].string,tds[3].string])

 def printUnivList(ulist,num):
     print ("{0} \t {1} \t\t {2}".format("排名","学校","总分"))
     #print ("%s \t %s \t %s"%("排名","学校","总分"))
     for i in range(num):
        u=ulist[i]
        print ("%s \t %s \t %s "%(u[0],u[1],u[2]))

 def main():
    uinfo=[]
    url="http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html"
    html=getHTMLText(url)
    fillUnivList(uinfo,html)
    printUnivList(uinfo,5) #数字表示显示前几
 main()

后续学习中。。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值