Python爬虫简介

Python爬虫简介

网络爬虫结构

在这里插入图片描述

  1. 首先选取一部分精心挑选的种子URL。

  2. 将这些URL放入待抓取URL队列。

  3. 从待抓取URL队列中读取待抓取队列的URL,解析DNS,并且得到主机的IP,并将URL对应的网页下载下来,存储进已下载网页库中。此外,将这些URL放进已抓取URL队列。

  4. 分析已抓取URL队列中的URL,从已下载的网页数据中分析出其他URL,并和已抓取的URL进行比较去重,最后将去重过的URL放入待抓取URL队列,从而进入下一个循环。

爬虫步骤

需要模块
1、urllib模块

#第一种方式
import urllib.request 
#第二种方式
from urllib import request

2、re模块

import re
  1. 数据挖掘
from urllib import request
url = r"http://www.baidu.com/" #去掉https的s,r是utf8字码
respons = request.urlopen(url).read()
print(respons)
  1. 数据清洗
from urllib import request
import re
url = r"http://www.baidu.com/" #去掉https的s,
respons = request.urlopen(url).read().decode() #解码(有中文) ---编码encode
pat = r"<title>(.*?)</title>"
dat = re.findall(pat,respons)
print(dat);
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值