python爬虫学习

初识爬虫

  • from import是引入库
例如打印当前时间
from datetime import datetime
print(datetime.now())
或者
import datetime
print(datetime.datetime.now())
  • urlopen 用来打开并读取一个从网络获取的远程对象。因为它是一个非常通用的库(它可以轻松读取 HTML 文件、 图像文件,或其他任何文件流),包含了从网络请求数据, 处理 cookie,甚至改变像请求头和用户代理这些元数据的函数。

  • 安装pip
    https://pypi.python.org/pypi/pip/9.0.1#downloads
    下载.gz文件解压,运行里面的setup.py

  • warning
    No parser(解释器) was explicitly specified, so I’m using the best available HTML parser for this system (“html.parser”). This usually isn’t a problem, but if you run this code on another system, or in a different virtual environment, it may use a different parser and behave differently.
    这里执行用的是python 1.py已经指定了用python来执行,没有任何问题。但是比如在linux下面希望直接用./xxx.py执行可以在.py文件第一行加上#!/usr/bin/python

  • BeautifulSoup 库,需要额外安装
    安装指令:pip install beautifulsoup4
    作用:结合正则表达式提取html/xml文件中的信息

********html结构********
html → <html><head>...</head><body>...</body></html>
— head → <head><title>A Useful Page<title></head>
— title → <title>A Useful Page</title>
— body → <body><h1>An Int...</h1><div>Lorem ip...</div></body>
— h1 → <h1>An Interesting Title</h1>
— div → <div>Lorem Ipsum dolor...</div>
我们从网页中提取的 <h1> 标签被嵌在 BeautifulSoup 对象 bsObj 结构的第二层(html → body → h1)。但是,当我们从对象里提取 h1 标签的时候,可以直接调用它:bsObj.h1
其实,下面的所有函数调用都可以产生同样的结果:
bsObj.html.body.h1
bsObj.body.h1
bsObj.html.h1
  • 示例程序
from urllib.request import urlopen
from urllib.error import HTTPError
from bs4 import BeautifulSoup

def getTitle(url):
    try:
        html = urlopen(url)
    except HTTPError as e:  #网页在服务器上不存在(或者获取页面的时候出现错误)
        return None
    #服务器不存在的情况,抛出 AttributeErro,html 也是一个 None 对象
    try:
        bsObj = BeautifulSoup(html.read(),"html.parser")
        title = bsObj.body.h1
    except AttributeError as e:     #网页上没有该项内容
        return None
    return title

title = getTitle("http://www.pythonscraping.com/pages/page1.html")
if title == None:
    print("Title could not be found")   
else:
    print(title)

html格式

  • 基本上,你见过的每个网站都会有层叠样式表(Cascading Style Sheet, CSS)
nameList = bsObj.findAll("span", {"class":"green"})
for name in nameList:
    print(name.get_text())
#之前,我们调用 bsObj.tagName 只能获取页面中的第一个指定的标签。现在,我们调用 bsObj.findAll(tagName, tagAttributes) 可以获取页面中所有指定的标签,不再只是第一个了
  • .get_text() 会把你正在处理的 HTML 文档中所有的标签都清除,然后返回一个只包含文字的字符串。 假如你正在处理一个包含许多超链接、段落和标签的大段源代码, 那么 .get_text() 会把这些超链接、段落和标签都清除掉,只剩下一串不带标签的文字。
    用 BeautifulSoup 对象查找你想要的信息,比直接在 HTML 文本里查找信息要简单得多。 通常在你准备打印、存储和操作数据时,应该最后才使用 .get_text()。一般情况下,你应该尽可能地保留 HTML 文档的标签结构。

  • BeautifulSoup的find()和findAll()
    findAll(tag, attributes, recursive, text, limit, keywords)
    find(tag, attributes, recursive, text, keywords)

    • 标签参数 tag 前面已经介绍过——你可以传一个标签的名称或多个标签名称组成的 Python列表做标签参数。
      例如,下面的代码将返回一个包含 HTML 文档中所有标题标签的列表:.findAll({“h1”,”h2”,”h3”,”h4”,”h5”,”h6”})
    • 属性参数 attributes 是用一个 Python 字典封装一个标签的若干属性和对应的属性值。例如,下面这个函数会返回 HTML 文档里红色与绿色两种颜色的 span 标签:.findAll(“span”, {“class”:{“green”, “red”}})
    • 递归参数 recursive 是一个布尔变量。你想抓取 HTML 文档标签结构里多少层的信息?如果recursive 设置为 True, findAll 就会根据你的要求去查找标签参数的所有子标签,以及子标签的子标签。如果 recursive 设置为 False, findAll 就只查找文档的一级标签。 findAll默认是支持递归查找的(recursive 默认值是 True);一般情况下这个参数不需要设置,除非你真正了解自己需要哪些信息,而且抓取速度非常重要,那时你可以设置递归参数
    • 文本参数 text 有点不同,它是用标签的文本内容去匹配,而不是用标签的属性。假如我们
      想查找前面网页中包含“the prince” 内容的标签数量,我们可以把之前的 findAll 方法换
      成下面的代码:
      nameList = bsObj.findAll(text=”the prince”)
      print(len(nameList))
    • 范围限制参数 limit,显然只用于 findAll 方法。 find 其实等价于 findAll 的 limit 等于1 时的情形。如果你只对网页中获取的前 x 项结果感兴趣,就可以设置它。但是要注意,这个参数设置之后,获得的前几项结果是按照网页上的顺序排序的,未必是你想要的那
      前几项。
    • 还有一个关键词参数 keyword,可以让你选择那些具有指定属性的标签。例如:
      allText = bsObj.findAll(id=”text”)
      print(allText[0].get_text())
    • 注意:class在python中是保留字——bsObj.findAll(class_=”green”)
  • 正则表达式
    当我们动手开始写正则表达式的时候,最好先写一个步骤列表描述出你的目标字符串结构。
    还要注意一些细节的处理。比如,当你识别电话号码的时候,会考虑国家代码和分机号吗?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值