- 博客(3)
- 收藏
- 关注
原创 齐鲁工业大学25下12月数据采集与预处理题库(文中可能有误见谅)
网络爬虫是一种自动爬取的程序,它为搜索引擎搜索在万维网搜素网页,是搜索引擎的重要组成部分。简述 Hadoop三种安装模式。单机配置,文件存储在本地文件系统上。在本地机器运行伪分布式安装 文件存储在hdfs文件系统,namenode和datanode在一台机器上分布式安装 文件存储在分布式系统 ,namenode和datanode在不同节点上简述数据清洗的基本流程。数据定义 ,搜索的数据存在质量不达标准的,质量没达到标准的需要认为或通过计算机程序进行处理。
2025-12-28 22:12:26
353
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅