爬虫学习笔记

1.Urllib

定义:如果我们把互联网比作一张大的蜘蛛网,那一台计算机上的数据便是蜘蛛网上的一个猎物,而爬虫程序就是一只小 蜘蛛,沿着蜘蛛网抓取自己想要的数据

聚焦爬虫

功能:根据需求,实现爬虫程序,抓取需要的数据  设计思路  

1.确定要爬取的url 

2.模拟浏览器通过http协议访问url,获取服务器返回的html代码 

3.解析html字符串(根据一定规则提取需要的数据)  

反爬手段:

1.User‐Agent:User Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版 本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等。

2.代理ip

3.验证码访问

4.动态加载网页

4.数据加密

编解码方法:

get:urllib.parse.quote()     urllib.parse.urlencode()

post:encode('utf-8')  必须编码

#获取豆瓣电影前十页的数据
import urllib.request
import urllib.parse


def create_request(page):
    base_url = 'https://movie.douban.com/j/chart/top_list?type=5&interval_id=100%3A90&action=&'
    headers = {
        ...
    }
    data = {
        'start': (page - 1) * 20,
        'limit': 20
    }
    data = urllib.parse.urlencode(data)
    url = base_url + data
    request = urllib.request.Request(url=url, headers=headers)
    return request


def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode('utf-8')
    return content


def down_load(page, content):
    with open('douban_' + str(page) + '.json', 'w', encoding='utf-8') as fp:
        fp.write(content)


if __name__ == '__main__':
    start_page = int(input('请输入起始页码:'))
    end_page = int(input('请输入结束页码:'))
    for page in range(start_page, end_page + 1):
        request = create_request(page)
        content = get_content(request)
        down_load(page, content)

异常:URLError\HTTPError

urllib.request.urlopen(url) :不能定制请求头

urllib.request.Request(url,headers,data) :可以定制请求头

Handler :可定制更高级的请求头

import urllib.request

url='http://www.baidu.com'

headers={
    ...
}

request=urllib.request.Request(url=url,headers=headers)

handler=urllib.request.HTTPHandler()

opener=urllib.request.build_opener(handler)

response=opener.open(request)

content=response.read().decode('utf-8')

print(content)

代理的功能

1.访问国外节点

2.访问一些单位或团体内部资源

3.提高访问速度

4.隐藏真实ip

2.解析

xpath:掌握基本语法(直接在网页源码中点击右键就可获取xpath路径

案例:站长素材图片抓取

import urllib.request
import urllib.parse
from lxml import etree


def create_request(page):
    if page == 1:
        url = 'https://sc.chinaz.com/tupian/rentiyishu.html'
    else:
        url = 'https://sc.chinaz.com/tupian/rentiyishu_' + str(page) + '.html'
    headers = {
        ...
    }
    request = urllib.request.Request(url=url, headers=headers)
    return request


def get_content(request):
    response = urllib.request.urlopen(request)
    content = response.read().decode('utf-8')
    return content


def down_load(content):
    tree = etree.HTML(content)
    # 获取想要的路径
    name_list = tree.xpath("//img[@class='lazy']/@alt")
    src_list = tree.xpath("//img[@class='lazy']/@data-original")
    for i in range(len(name_list)):
        name = name_list[i]
        src = src_list[i]
        url = 'https:' + src
        urllib.request.urlretrieve(url=url, filename='./Beauties/'+name + '.jpg')


if __name__ == '__main__':
    start_page = int(input('请输入起始页码:'))
    end_page = int(input('请输入结束页码:'))
    for page in range(start_page, end_page + 1):
        request = create_request(page)
        content = get_content(request)
        down_load(content)

 JsonPath:基本语法

淘票票案例:

import urllib.request
import json,jsonpath
url = 'https://dianying.taobao.com/cityAction.json?activityId&_ksTS=1706770591837_108&jsoncallback=jsonp109&action=cityAction&n_s=new&event_submit_doGetAllRegion=true'

headers = {
    ...
}

request = urllib.request.Request(url=url, headers=headers)
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')
# 切割成json数据格式
content = content.split('(')[1].split(')')[0]
# print(content)

with open('淘票票.json', 'w', encoding='utf-8') as fp:
    fp.write(content)

obj=json.load(open('淘票票.json','r',encoding='utf-8'))
regionName_list=jsonpath.jsonpath(obj,'$..regionName')
print(regionName_list)

BeautifulSoup:

节点定位 find find_all select

节点信息:obj.get_text()



from bs4 import BeautifulSoup


# 通过解析本地文件 来将bs4的基础语法进行讲解
# 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码
soup = BeautifulSoup(open('075_尚硅谷_爬虫_解析_bs4的基本使用.html',encoding='utf-8'),'lxml')

# 根据标签名查找节点
# 找到的是第一个符合条件的数据
# print(soup.a)
# 获取标签的属性和属性值
# print(soup.a.attrs)

# bs4的一些函数
# (1)find
# 返回的是第一个符合条件的数据
# print(soup.find('a'))

# 根据title的值来找到对应的标签对象
# print(soup.find('a',title="a2"))

# 根据class的值来找到对应的标签对象  注意的是class需要添加下划线
# print(soup.find('a',class_="a1"))


# (2)find_all  返回的是一个列表 并且返回了所有的a标签
# print(soup.find_all('a'))

# 如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据
# print(soup.find_all(['a','span']))

# limit的作用是查找前几个数据
# print(soup.find_all('li',limit=2))


# (3)select(推荐)
# select方法返回的是一个列表  并且会返回多个数据
# print(soup.select('a'))

# 可以通过.代表class  我们把这种操作叫做类选择器
# print(soup.select('.a1'))

# print(soup.select('#l1'))


# 属性选择器---通过属性来寻找对应的标签
# 查找到li标签中有id的标签
# print(soup.select('li[id]'))

# 查找到li标签中id为l2的标签
# print(soup.select('li[id="l2"]'))


# 层级选择器
#  后代选择器
# 找到的是div下面的li
# print(soup.select('div li'))

# 子代选择器
#  某标签的第一级子标签
# 注意:很多的计算机编程语言中 如果不加空格不会输出内容  但是在bs4中 不会报错 会显示内容
# print(soup.select('div > ul > li'))


# 找到a标签和li标签的所有的对象
# print(soup.select('a,li'))

# 节点信息
#    获取节点内容
# obj = soup.select('#d1')[0]
# 如果标签对象中 只有内容 那么string和get_text()都可以使用
# 如果标签对象中 除了内容还有标签 那么string就获取不到数据 而get_text()是可以获取数据
# 我们一般情况下  推荐使用get_text()
# print(obj.string)
# print(obj.get_text())

# 节点的属性
# obj = soup.select('#p1')[0]
# name是标签的名字
# print(obj.name)
# 将属性值左右一个字典返回
# print(obj.attrs)

# 获取节点的属性
obj = soup.select('#p1')[0]

print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])

3.Selenium

模拟浏览器功能,就像是真正的用户在操作一样

如何使用:

# (1)导入selenium
from selenium import webdriver

# (2) 创建浏览器操作对象

path = 'chromedriver.exe'

browser = webdriver.Chrome(path)

# (3)访问网站
# url = 'https://www.baidu.com'
#
# browser.get(url)

url = 'https://www.jd.com/'
browser.get(url)
content=browser.page_source
print(content)

保存界面快照:

browser.save_screenshot('baidu.png')

元素定位:

input=browser.find_element_by_id('kw')
input.send_keys('昆凌')

button=browser.find_elements_by_xpath("//input[@id='su']")

交互例子:

from selenium import webdriver
import time

path='chromedriver.exe'
browser=webdriver.Chrome(path)

url='https://www.baidu.com'
browser.get(url)

time.sleep(2)

#找到输入框输入周杰伦
input=browser.find_element_by_id('kw')
input.send_keys('周杰伦')

time.sleep(2)

#点击百度一下
button=browser.find_element_by_id('su')
button.click()

time.sleep(2)

#滑倒最底部
js_button='document.documentElement.scrollTop=100000'
browser.execute_script(js_button)

time.sleep(2)

#点击下一页
next=browser.find_element_by_xpath("//a[@class='n']")
next.click()

time.sleep(2)

#返回上一页
browser.back()

time.sleep(2)

#回到第二页
browser.forward()

time.sleep(3)

browser.quit()

Phantomjs:无界面浏览器,速度快

案例:

from selenium import webdriver
import time

path = 'phantomjs.exe'

browser = webdriver.PhantomJS(path)

url = 'https://www.baidu.com'
browser.get(url)

browser.save_screenshot('baidu.png')

time.sleep(2)

input=browser.find_element_by_id('kw')
input.send_keys('昆凌')

time.sleep(2)

browser.save_screenshot('kunling.png')

4.requests

get请求:

import requests

url='https://www.baidu.com/s'

headers={
    ...
}

data={
    'wd':'北京'
}

response=requests.get(url,params=data,headers=headers)

content=response.text
print(content)

post请求:

import requests,json

url='https://fanyi.baidu.com/langdetect'

headers={
    ...
}

data={
    'query':'眼睛'
}

response=requests.post(url,headers=headers,data=data)

content=response.text
print(content.encode('utf-8'))

两者区别在参数名字:get:params    post:data

代理例子:

import requests

url='http://www.baidu.com/s'

headers={
    ...
}

data={
    'wd':'ip'
}

proxy={
    'http':'60.185.213.223:18052'
}

response=requests.get(url,params=data,headers=headers,proxies=proxy)
content=response.text
with open('daili.html','w',encoding='utf-8') as fp:
    fp.write(content)

5.scrapy

scrapy是一个为了爬取网站数据,提取结构性数据的而编写的应用框架

1.创建scarpy项目

        scrapy startproject 项目名称

2.创建爬虫文件

        跳转到spiders文件夹 cd/目录名字/目录名字/spiders

        scrapy genspider 爬虫名字 网页的域名

3.运行爬虫文件

        在spiders文件夹内运行 scrapy crawl 爬虫的名称

scrapy工作原理

  • 8
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值