python爬虫教程:详解4种类型的爬虫技术

1.商品详情页

2.商品名称

3.商品价格

4.评价人数

5.商品商家

‘’’

from selenium import webdriver # 引入selenium中的webdriver

from selenium.webdriver.common.keys import Keys

import time

def get_good(driver):

try:

通过JS控制滚轮滑动获取所有商品信息

js_code = ‘’’

window.scrollTo(0,5000);

‘’’

driver.execute_script(js_code) # 执行js代码

等待数据加载

time.sleep(2)

查找所有商品div

good_div = driver.find_element_by_id(‘J_goodsList’)

good_list = driver.find_elements_by_class_name(‘gl-item’)

n = 1

for good in good_list:

根据属性选择器查找

商品链接

good_url = good.find_element_by_css_selector(

‘.p-img a’).get_attribute(‘href’)

商品名称

good_name = good.find_element_by_css_selector(

‘.p-name em’).text.replace(“\n”, “–”)

商品价格

good_price = good.find_element_by_class_name(

‘p-price’).text.replace(“\n”, “:”)

评价人数

good_commit = good.find_element_by_class_name(

‘p-commit’).text.replace(“\n”, " ")

good_content = f’‘’

商品链接: {good_url}

商品名称: {good_name}

商品价格: {good_price}

评价人数: {good_commit}

\n

‘’’

print(good_content)

with open(‘jd.txt’, ‘a’, encoding=‘utf-8’) as f:

f.write(good_content)

next_tag = driver.find_element_by_class_name(‘pn-next’)

next_tag.click()

time.sleep(2)

递归调用函数

get_good(driver)

time.sleep(10)

finally:

driver.close()

if name == ‘main’:

good_name = input(‘请输入爬取商品信息:’).strip()

driver = webdriver.Chrome()

driver.implicitly_wait(10)

往京东主页发送请求

driver.get(‘https://www.jd.com/’)

输入商品名称,并回车搜索

input_tag = driver.find_element_by_id(‘key’)

input_tag.send_keys(good_name)

input_tag.send_keys(Keys.ENTER)

time.sleep(2)

get_good(driver)

03 增量爬虫技术

某些网站会定时在原有网页数据的基础上更新一批数据。例如某电影网站会实时更新一批最近热门的电影,小说网站会根据作者创作的进度实时更新最新的章节数据等。在遇到类似的场景时,我们便可以采用增量式爬虫。

增量爬虫技术(incremental Web crawler)就是通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新后的新数据。

关于如何进行增量式的爬取工作,以下给出三种检测重复数据的思路:

  1. 在发送请求之前判断这个URL是否曾爬取过;

  2. 在解析内容后判断这部分内容是否曾爬取过;

  3. 写入存储介质时判断内容是否已存在于介质中。

  • 第一种思路适合不断有新页面出现的网站,比如小说的新章节、每天的实时新闻等;

  • 第二种思路则适合页面内容会定时更新的网站;

  • 第三种思路则相当于最后一道防线。这样做可以最大限度地达到去重的目的。

不难发现,实现增量爬取的核心是去重。目前存在两种去重方法。

  • 第一,对爬取过程中产生的URL进行存储,存储在Redis的set中。当下次进行数据爬取时,首先在存储URL的set中对即将发起的请求所对应的URL进行判断,如果存在则不进行请求,否则才进行请求。

  • 第二,对爬取到的网页内容进行唯一标识的制定(数据指纹),然后将该唯一标识存储至Redis的set中。当下次爬取到网页数据的时候,在进行持久化存储之前,可以先判断该数据的唯一标识在Redis的set中是否存在,从而决定是否进行持久化存储。

关于增量爬虫的使用方法示例如下所示。

【例3】爬取4567tv网站中所有的电影详情数据

‘’’

遇到问题没人解答?小编创建了一个Python学习交流QQ群:531509025

寻找有志同道合的小伙伴,互帮互助,群里还有不错的视频学习教程和PDF电子书!

‘’’

import scrapy

from scrapy.linkextractors import LinkExtractor

from scrapy.spiders import CrawlSpider, Rule

from redis import Redis

from incrementPro.items import IncrementproItem

class MovieSpider(CrawlSpider):

name = ‘movie’

allowed_domains = [‘www.xxx.com’]

start_urls = [‘http://www.4567tv.tv/frim/index7-11.html’]

rules = (

Rule(LinkExtractor(allow=r’/frim/index7-\d+.html’), callback=‘parse_item’, follow=True),

)

创建Redis链接对象

conn = Redis(host=‘127.0.0.1’, port=6379)

def parse_item(self, response):

li_list = response.xpath(‘//li[@class=“p1 m1”]’)

for li in li_list:

获取详情页的url

detail_url = ‘http://www.4567tv.tv’ + li.xpath(‘./a/@href’).extract_first()

将详情页的url存入Redis的set中

ex = self.conn.sadd(‘urls’, detail_url)

if ex == 1:

print(‘该url没有被爬取过,可以进行数据的爬取’)

yield scrapy.Request(url=detail_url, callback=self.parst_detail)

else:

print(‘数据还没有更新,暂无新数据可爬取!’)

解析详情页中的电影名称和类型,进行持久化存储

def parst_detail(self, response):

item = IncrementproItem()

item[‘name’] = response.xpath(‘//dt[@class=“name”]/text()’).extract_first()

item[‘kind’] = response.xpath(‘//div[@class=“ct-c”]/dl/dt[4]//text()’).extract()

item[‘kind’] = ‘’.join(item[‘kind’])

yield it

管道文件:

from redis import Redis

class IncrementproPipeline(object):

conn = None

def open_spider(self,spider):

self.conn = Redis(host=‘127.0.0.1’,port=6379)

def process_item(self, item, spider):

dic = {

‘name’:item[‘name’],

‘kind’:item[‘kind’]

}

print(dic)

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

img

img

img

img

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

g](https://i-blog.csdnimg.cn/blog_migrate/3443f3d934f11d6666b3767ac0897763.png)

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值