海量数据处理的高频面试题分析

前言

硬件扩容是难满足海量数据处理需要的,如何利用现有条件进行海量信息处理
海量信息处理日益成为当前程序员笔试面试中一个新的亮点
主要参考书籍有:《java程序员面试宝典》

基本方法

通过查询网上的方方面面知识点,以及阅读一些相关书籍

常见的方法有Hash法、Bit - map法、Bloom filter法、数据库优化法、倒排索引法、外排序法、Trie树、堆、双层桶法以及 MapRe-duce法等

1.1 哈希算法

也被叫做散列(映射关系)。数据元素中的关键字为key,按散列函数计算出hash ( key),也就是计算出它的存储地址,从而对数据进行一些操作

冲突指的就是两个关键字对应同一个函数值,也就是映射了相同的地址

为了减少冲突,散列函数也很有讲究。尽量简单,函数值域要在其范围内,也要减少其冲突

在数据结构这本书中也有提及

  • 常用的构造散列函数的方法主要有:直接寻址法(按照关键字的线性关系)、取模法、数字分析法、平方取中法等
  • 常见的解决冲突的方法主要有:开放地址法(遇到冲突的时候按照某种方法进行探测)、链地址法等等

1.2 位图法

B使用位数组来表示某些元素是否存在(可用于查重,也可用于判断某个数据是否存在
适用于海量数据的快速查找、判重、删除等。

具体的操作是生成N位字符,如果有数字标为1,没数字标为0。(用空间来换取时间,其排序的时间复杂度为 O(n))

在这里插入图片描述

1.3 Bloom Filter

检测一个元素是否属于一个集合。牺牲正确率换取空间效率与时间效率的提高

基本原理是位数组与Hash函数的结合,包含m位数组(初始化为0),定义k个不同的hash函数(每个函数映射到位数组的k个位置)联合使用。向集合插入元素时,根据k个Hash函数可以得到位数组中的k个位(设置为1),查询查询某个元素是否属于集合,k个为1(存在),k个位不为1(不存在)。在插人其他元素时,可能会将其他位置为1,产生了错误。

在这里插入图片描述

1.4 数据库优化

可以通过数据库的工具、数据分区、索引、缓存机制、优化查询、排序等

1.5 倒排索引法

根据关键字的某些值进行排序从而建立索引

存储在全文搜索下某个单词在一个文档或者一组文档中的存储位置的映射,它是文档检索系统中最常用的数据结构
有两种不同的反向索引形式:
第一种形式是一条记录的水平反向索引(或者反向档案索引)包含每个引用单词的文档的列表;
第二种形式是一个单词的水平反向索引(或者完全反向索引)又包含每个单词在一个文档中的位置。
第二种形式提供了更多的兼容性(例如短语搜索),但是需要更多的时间和空间来创建。

一般情况下可以采用矩阵的方式存储来存储,但会浪费大量的空间

1.6 外排序法

定义:在内存中不能一次处理过多的对象,须以文件形式外放。排序需一步步调入内存处理(相对大文件,无法一次装入内存中,需多次交换数据)

可采用归并排序或者二路归并排序的手法

适用于大数据的排序和查重,但是效率比较低,因为要用到io的操作

1.7 字典树

利用字符串的公共前缀来减少时空开销(空间换时间)。用于快速字符串检索的多叉树结构

统计和排序大量的字符串(但不仅限于字符串),所以经常被搜索引擎系统用于文本词频统计。

优点是:最大限度地减少无谓的字符串比较,查询效率比散列表高。

Trie树一般具有3个基本特性:

  • 根结点不包含字符,除根结点外每一个结点都只包含一个字符。
  • 从根结点到某一结点,路径上经过的字符连接起来,为该结点对应的字符串。
  • 每个结点的所有子结点包含的字符都不相同。

2. 经典问题分析

2.1 top k问题

频率最高的k个数或者找出最大的k个数等,目前比较好的方法是分治+Trie树/hash +小顶堆

  1. hash方法分解成多个小数据集(如果有重复的数字的话,通过去重减少很多的数据集)
  2. Trie树或者hash统计每个小数据集中的query词频
  3. 小顶堆求出每个数据集中出频率最高的前K个数
  4. 最后在所有top K中求出最终的top K

在实际应用中,可能有足够大的内存,那么直接将数据扔到内存中一次性处理即可,也可能机器有多个核,这样可以采用多线程处理整个数据集。

2.2 重复问题

该问题可通过位图法进行,此方法最优
具体的执行代码可看书籍中的展示,此为该书籍的展示代码
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.3 排序问题

  • 数据库排序(要求数据库的规格比较好)
  • 分治法(虽然缩小内存,但是编码复杂,速度变慢)
  • 位图法
  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
当涉及到数据清洗的高频面试时,以下是一些常见的问和答案: 1. 什么是数据清洗? 数据清洗是指对原始数据进行处理和转换,以去除错误、不完整、重复或不必要的数据,以确保数据的准确性和一致性。 2. 如何处理缺失值? 处理缺失值的常见方法包括删除包含缺失值的行或列、用均值或中位数填充缺失值、使用插值方法填充缺失值等。 3. 如何处理重复值? 处理重复值的方法包括删除重复值、保留第一个或最后一个重复值、标记重复值等。 4. 如何处理异常值? 处理异常值的方法包括删除异常值、替换为缺失值、使用统计方法进行修正等。 5. 如何处理不一致的数据格式? 处理不一致的数据格式可以使用字符串操作函数(如strip、lower、replace等)进行格式化,或者使用正则表达式进行匹配和替换。 6. 如何处理数据类型转换? 可以使用Python的内置函数(如int、float、str等)进行数据类型转换,或者使用pandas库中的astype函数进行批量转换。 7. 如何处理日期和时间数据? 可以使用Python的datetime模块进行日期和时间数据的解析、格式化和计算,或者使用pandas库中的to_datetime函数进行批量转换。 8. 如何处理文本数据处理文本数据的方法包括去除特殊字符、分词、去除停用词、词干提取、词向量化等。 9. 如何处理数据集合的合并和拆分? 可以使用pandas库中的merge函数进行数据集合的合并,使用split函数进行数据集合的拆分。 10. 如何处理数据集中的异常值和离群点? 可以使用统计方法(如均值、标准差)进行异常值和离群点的检测和修正,或者使用可视化工具(如箱线图、散点图)进行可视化分析

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码农研究僧

你的鼓励将是我创作的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值