大数据期末复习资料2023 Beta版_大数据导论期末考试知识点(1)

hadoop fs -df <path>

示例:

hadoop fs -df /home/myfile

13. 合并文件

从HDFS拷贝多个文件、合并排序为一个文件
hadoop fs –getmerge <src> <localdst>

示例:

hadoop fs –getmerge /user/hduser0011/test /home/myfile/dir 

14. 屏幕显示内容存储到HDFS文件
echo abc

echo abc | hadoop fs –put - <path>

echo abc | hadoop fs  –put  /home/myfile/test.txt

第4章 MapReduce的工作机制

1. MapReduce功能

MapReduce实现了两个功能:

Map:把一个函数应用于集合中的所有成员
Reduce:对多个进程或者独立系统并行执行

在这里插入图片描述

2. MapReduce的架构

Job(作业),Tasks(任务)

主从结构 master slave

Namenode Datanode
ResourceManager NodeManager
JobTracker(可变) TaskTracker

JobTracker负责

  • 接收客户提交的作业,负责作业的分解和状态监控。
  • 把任务分给TaskTracker执行
  • 监控TaskTracker的执行情况

NodeManager:是执行应用程序的容器,

TaskTracker:从JobTracker接收并执行各种命令:运行任务、提交任务、杀死任务等;将本地节点上各个任务的状态通过心跳周期性汇报给JobTracker。

TaskTracker :是JobTracker和Task之间的桥梁, 从JobTracker接收并执行各种命令:运行任务、提交任务、杀死任务等;将本地节点上各个任务的状态通过心跳周期性汇报给JobTracker。

MapReduce架构由4个独立的节点(Node)组成
(1)Client
(2)JobTracker
(3)TaskTracker
(4)HDFS

在这里插入图片描述

3. 作业的调度

FIFO 调度器
Fair Scheduler公平调度器
Capacity Scheduler计算能力调度(容量调度)

4. WordCount 流程

输入数据 -> split(分割)-> map -> shuffle(洗牌)-> reduce

在这里插入图片描述

split包含 <文件名,开始位置,长度,位于哪些主机>等信息

1.输入数据通过Split的方式,被分发到各个节点上
2.每个Map任务在一个Split上面进行处理;
3.Map任务输出中间数据;
4.在Shuffle过程中,节点之间进行数据交换(Shuffle意为洗牌);
5.拥有同样Key值的中间数据即键值对(Key-Value Pair)被送到同样的Reduce任务中
6.Reduce执行任务后,输出结果。

第5章 Hive

1. Hive数据模型

元数据(MetaData)又称“数据的数据”或“中介数据”,是用于描述数据各项属性信息的数据例如数据的类型、结构、历史数据信息,数据库、表、视图的信息等Hive的元数据要经常面临读取、修改和更新操作,因此并不适合储存在HDFS中,而是通常储存在关系型数据库中,

  • 在 Hive 命令行里看到的是 元数据
  • 在 HDFS 上看到的是它的 物理数据
2. 复杂数据类型
  • 数组 ARRAY:ARRAY类型是由一系列相同数据类型的元素组成,这些元素可以通过下标来访问。
  • 结构体 STRUCT:STRUCT可以包含不同数据类型的元素。
  • 键值对 MAP:MAP包含key->value键值对,
3. Hive基本操作(大题)
3.1 进入 hive
start-all.sh

在这里插入图片描述

[zkpk@master ~]$ hive
hive>

3.2 查看hive中的表

在这里插入图片描述
Hive命令以 ; 结束

3.3 创建表

在这里插入图片描述

3.4 显示表结构

desc table-name;

在这里插入图片描述

3.5 显示表内容

select * from table-name;

在这里插入图片描述

3.6 从文件中导入数据

本地机创建文件 l.txt
在文件里添加数据

1	aaa	f
2	bbb	f
3	ccc	m
4	ddd	f
5	eee	m

从文件中导入数据
在这里插入图片描述
查看表内容
在这里插入图片描述

3.7 增加字段
alter table table_name add columns (newcolname type );

在这里插入图片描述

3.8 修改字段名称
alter table table_name change col_name new_col_name type;

在这里插入图片描述

3.9 修改字段类型、位置

在这里插入图片描述

3.10 删除字段
alter table table_name replace columns (col1 type,col2 type,col3 type);
(COLUMNS中放保留的字段)

在这里插入图片描述

3.11 复制表
create table new_table as select \* from exists_table;

在这里插入图片描述
在这里插入图片描述

3.12 复制表结构
create table new_table as select \* from exists_table where 1=0;

在这里插入图片描述

在这里插入图片描述

3.13 重命名表
alter table table_name rename to new_table_name;

在这里插入图片描述

3.14 清空表中数据
truncate table tableName;

在这里插入图片描述

3.15 删除表
drop table 表名;

在这里插入图片描述

3.16 将hive 表中数据下载到本地

在这里插入图片描述

insert  overwrite local directory ‘/home/zkpk/目录名’ select \* from 表名;

在这里插入图片描述

查看下载到本地的数据
在这里插入图片描述
在这里插入图片描述

4. 表的存储

表: 存储在 HDFS: /user/hive/warehouse
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5. 外部表和内部表

表:管理表(内部表,临时表) 删除的时候,元数据、实际表文件全部删除。
外部表:删除的时候,只删除元数据、实际表文件不删除。

创建外部表:

create external table tablename;

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

6. 分区表

分区表:将一张表的数据按照分区规则分成多个目录存储。这样可以通过指定分区来提高查询速度。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
开启动态分区功能

# 开启动态分区功能
set  hive.exec.dynamic.partition=true;
# 所有分区都是动态的(动态分区的模式)
set  hive.exec.dynamic.partition.mode=nonstrict;
# 最大动态分区个数
set  hive.exec.max.dynamic.partitions.pernode=1000;

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

7. 桶表

对于每一个表(table)或者分区,Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分

创建桶表
在这里插入图片描述
在这里插入图片描述

向桶表输入数据

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

8. 复杂数据类型

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

9. 其他语句
9.1 创建数据库

在这里插入图片描述

9.2 删除数据库

Hive不允许用户删除一个包含有表的数据库

DROP TABLE 数据库名.表名;
DROP DATABASE 数据库名;

删除命令的最后面加上关键字CASCADE,这样可以使Hive自行先删除数据库中的表

DROP DATABASE 数据库名 CASCADE;

10. 视图

11. 常用HQL命令

1.* 代表查询所有字段

select \* from lxl;

  1. 查询指定字段
select name,gender from lxl;

  1. limit 限制查询条数
select \* from lxl  limit 3;

  1. where 代表限定条件
select \* from lxl  where gender=‘f’;

  1. where 后面加多个条件
select \* from lxl  where gender=‘f’  and  no=1;

查询条件是字符、字符串的加上 ‘’ “” 均可

  1. distinct :去重
select  distinct   age  from lxlage;   (age相同的只显示一个)

  1. group by 分组

做一些运算,通常与聚合函数配合使用,聚合函数还有max(),min(),count()

在这里插入图片描述
8. order by
对数据排序,默认是按升序,如果要按降序进行在最后加一个desc

  1. like主要用于模糊匹配
select \* from lxl where name like '%a%'; 

查找name中含有a 这个字符的数据
in关键字的用法

在这里插入图片描述
10. between and的用法

select \* from lxl where no between 2 and 4; 

  1. join 按照条件把数据连接起来
select \*from lxl join lxlage on lxl.no=lxlage.no;

在这里插入图片描述

select \*from lxl left join lxlage on lxl.no=lxlage.no;

左右表有不一致数据,左表全部显示

select \*from lxl right join lxlage on lxl.no=lxlage.no;

左右表有不一致数据,右表全部显示

  1. union all 把数据合起来,条件是字段名与类型必须相同

在这里插入图片描述

  1. having

在这里插入图片描述

在这里插入图片描述

统计平均工资3800以上的部门。
在这里插入图片描述

where 关键字无法与聚合函数一起使用, having只用于group by分组统计语句。

在这里插入图片描述
在这里插入图片描述

11. 关闭hive
quit;

第6章 ZooKeeper分布式协调系统

1. 简介

ZooKeeper是一个分布式应用程序协调服务,主要用于解决分布式集群中应用系统的一致性问题。

ZooKeeper = 文件系统+通知机制。(类似于资源管理系统)

Zookeeper 和 Kafka 启动的时候都是需要在所有的计算机(指主从)都启动

不需要启动Hadoop集群

分别登录master和slave01、slave02节点
进入zookeeper安装目录,启动服务

# master节点
cd zookeeper-3.4.10/
bin/zkServer.sh start       #(s必须大写)

# slave节点
cd zookeeper-3.4.10/
bin/zkServer.sh start

启动命令bin/zkServer.sh start

ZooKeeper可以处理两种类型的队列

  • 同步队列,即当一个队列的所有成员都聚齐时,这个队列才可用,否则会一直等待所有成员聚齐
  • 先入先出队列,即按照先入先出方式进行入队和出队操作。
2. 持久节点和临时节点

ZooKeeper中节点主要有四种类型:

  • 持久节点(PERSISTENT):
    是指节点在被创建后就一直存在,直到有删除操作来主动清除这个节点。这类节点不会因为创建该节点的客户端会话失效而消失。
  • 持久顺序节点(PERSISTENT_SEQUENTIAL):
    在ZooKeeper中,每个父节点会为自己的第一级子节点维护一份时序文件,记录每个子节点创建的先后顺序。基于这个特性,可以创建持久顺序节点,即在创建子节点的时候,用户可以指定其顺序属性,ZooKeeper就会自动为给定节点名加上一个数字后缀,作为新的节点名
  • 临时节点(EPHEMERAL):
    和持久节点不同,临时节点的生命周期和客户端会话绑定。也就是说,如果客户端会话失效,那么这个节点就会自动被清除掉(注意是会话失效,而非连接断开)。另外,在临时节点下面不能创建子节点。
  • 临时顺序节点(EPHEMERAL_SEQUENTIAL):
    临时顺序节点与临时节点的不同在于:临时顺序节点在创建时会自动加上编号,其创建方法与编号格式与持久顺序节点相同。
3. get 获取节点数据和更新信息

cZxid :创建节点的事务id
ctime : 节点的创建时间
mZxid :修改节点的事务id
mtime :修改节点的时间
pZxid :子节点的id
cversion : 子节点的版本
dataVersion : 当前节点数据的版本
aclVersion :权限的版本
ephemeralOwner :判断是否是临时节点
dataLength : 数据的长度
numChildren :子节点的数量

4. 访问权限

ACL:Access Control List 访问控制列表
ZK的节点有5种操作权限:CREATE、READ、WRITE、DELETE、ADMIN 也就是 增、删、改、查、管理权限,这5种权限简写为crwda
这5种权限中,除了 DELETE ,其它4种
权限指对自身节点的操作权限

5. 四级命令
5.1.stat 查看状态信息
[zkpk@master zookeeper-3.4.5]$ su root
[root@master zookeeper-3.4.5]# echo stat | nc 192.168.1.100 2181

Zookeeper version: 3.4.5-37e277162d567b55a07d1755f0b31c32e93c01a0, built on 11/01/2017 18:06 GMT
Clients:
 /192.168.1.68:49346[0](queued=0,recved=1,sent=0)

Latency min/avg/max: 0/0/4   
Received: 62
Sent: 61
Connections: 1
Outstanding: 0
Zxid: 0x50000000a
Mode: follower
Node count: 10
[root@master zookeeper-3.4.5]# 

5.2 ruok 查看zookeeper是否启动
[root@master zookeeper-3.4.5]# echo ruok | nc 192.168.1.100 2181
imok[root@master zookeeper-3.4.5]# 

5.3 dump 列出没有处理的节点,临时节点
imok[root@master zookeeper-3.4.5]# echo dump | nc 192.168.1.100 2181
SessionTracker dump:
org.apache.zookeeper.server.quorum.LearnerSessionTracker@29805957
ephemeral nodes dump:
Sessions with Ephemerals (0):
[root@master zookeeper-3.4.5]# 

5.4 conf 查看服务器配置
[root@master zookeeper-3.4.5]# echo conf | nc 192.168.1.100 2181
clientPort=2181
dataDir=/usr/home/zookeeper-3.4.5/data/version-2
dataLogDir=/usr/home/zookeeper-3.4.5/data/version-2
tickTime=2000
maxClientCnxns=60
minSessionTimeout=4000
maxSessionTimeout=40000
serverId=2
initLimit=10
syncLimit=5
electionAlg=3
electionPort=3888
quorumPort=2888
peerType=0
[root@master zookeeper-3.4.5]# 

3.5 cons 显示连接到服务端的信息
[root@master zookeeper-3.4.5]# echo cons | nc 192.168.1.100 2181
 /192.168.0.68:49354[0](queued=0,recved=1,sent=0)
[root@master zookeeper-3.4.5]# 

3.6 envi 显示环境变量信息
[root@master zookeeper-3.4.5]# echo envi | nc 192.168.1.100 2181
Environment:
zookeeper.version=3.4.5-37e277162d567b55a07d1755f0b31c32e93c01a0, built on 11/01/2017 18:06 GMT
host.name=localhost
java.version=1.8.0_111
java.vendor=Oracle Corporation
java.home=/usr/local/jdk1.8.0_111/jre
java.class.path=/usr/home/zookeeper-3.4.5/bin/../build/classes:/usr/home/zookeeper-3.4.5/bin/../build/lib/*.jar:/usr/home/zookeeper-3.4.5/bin/../lib/slf4j-log4j12-1.6.1.jar:/usr/home/zookeeper-3.4.5/bin/../lib/slf4j-api-1.6.1.jar:/usr/home/zookeeper-3.4.5/bin/../lib/netty-3.10.5.Final.jar:/usr/home/zookeeper-3.4.5/bin/../lib/log4j-1.2.16.jar:/usr/home/zookeeper-3.4.5/bin/../lib/jline-0.9.94.jar:/usr/home/zookeeper-3.4.5/bin/../lib/audience-annotations-0.5.0.jar:/usr/home/zookeeper-3.4.5/bin/../zookeeper-3.4.5.jar:/usr/home/zookeeper-3.4.5/bin/../src/java/lib/*.jar:/usr/home/zookeeper-3.4.5/bin/../conf:
java.library.path=/usr/java/packages/lib/amd64:/usr/lib64:/lib64:/lib:/usr/lib
java.io.tmpdir=/tmp
java.compiler=<NA>
os.name=Linux
os.arch=amd64
os.version=3.10.0-514.10.2.el7.x86_64
user.name=root
user.home=/root
user.dir=/usr/home/zookeeper-3.4.5/bin
[root@master zookeeper-3.4.5]#

3.7 mntr 查看zk的健康信息
[root@master zookeeper-3.4.5]# echo mntr | nc 192.168.1.100 2181
zk_version  3.4.5-37e277162d567b55a07d1755f0b31c32e93c01a0, built on 11/01/2017 18:06 GMT
zk_avg_latency  0
zk_max_latency  4
zk_min_latency  0
zk_packets_received 68
zk_packets_sent 67
zk_num_alive_connections    1
zk_outstanding_requests 0
zk_server_state follower
zk_znode_count  10
zk_watch_count  0
zk_ephemerals_count 0
zk_approximate_data_size    124
zk_open_file_descriptor_count   32
zk_max_file_descriptor_count    4096
[root@master zookeeper-3.4.5]# 

3.8 wchs 展示watch的信息
[root@master zookeeper-3.4.5]# echo wchs | nc 192.168.1.100 2181
0 connections watching 0 paths
Total watches:0
[root@master zookeeper-3.4.5]# 

3.9 wchc和wchp 显示session的watch信息 path的watch信息
[root@master zookeeper-3.4.5]# echo wchc | nc 192.168.1.100 2181
wchc is not executed because it is not in the whitelist.
[root@master zookeeper-3.4.5]# echo wchp | nc 192.168.1.100 2181
wchp is not executed because it is not in the whitelist.

6. 关闭zookeepr

关闭ZooKeeper (master,slave)

在这里插入图片描述

第7章 Kafka

1. Kafka概念

Kafka是一种高吞吐量的分布式发布订阅消息系统

Producer:消息生产者,负责将消息发布到Kafka上。

Consumer:消息消费者,从Kafka上读取消息。
在这里插入图片描述
Broker
即代理,也就是通常所说的服务器节点。Kafka集群包含一个或多个服务器节点,这种服务器就被称为Broker。一个Kafka节点就是一个Broker。

在这里插入图片描述

Message
即消息。Kafka的数据单元被称为消息。
消息元数据,键。

Partition
分区。Partition是物理上的概念,为了使得Kafka的吞吐率可以水平扩展.

Topic
主题。每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。

Segment
Partition物理上由多个Segment组成,每个Segment存着消息(message)信息。

2. kafka 特点
  • 可进行持久化操作。将消息持久化到磁盘,因此可用于批量消费。
  • 分布式系统,易于向外扩展。
  • 支持online和offline的场景。
  • 支持压缩(snappy、gzip)
3. 常用命令

分别登录master和slave节点启动Zookeeper
分别登录master和slave节点启动Kafka

在这里插入图片描述

在这里插入图片描述

在master创建一个名为 test的主题topic

[zkpk@master kafka_2.11-0.10.2.1]$ bin/kafka-topics.sh --create --zookeeper master:2181 --replication-factor 1 --partitions 1 --topic test

在这里插入图片描述
启动一个生产者,并在键盘上输入hello 然后回车

[zkpk@master kafka_2.11-0.10.2.1]$ bin/kafka-console-producer.sh --broker-list master:9092 --topic test

在这里插入图片描述

在slave01终端上启动一个消费者

[zkpk@master kafka_2.11-0.10.2.1]$ bin/kafka-console-consumer.sh --zookeeper master:2181 --topic test --from-beginning

在这里插入图片描述

查看topic列表

bin/kafka-topics.sh --list --zookeeper master:2181

在这里插入图片描述

查看topic说明信息

bin/kafka-topics.sh --describe --zookeeper master:2181 --topic test

在这里插入图片描述

4. 关闭
bin/kafka-server-stop.sh
bin/zkServer.sh  stop

第8章 HBase

1. 简介

HBase是一个高可靠、高性能、面向列、可伸缩的、实时读写的分布式数据库,是Hadoop的一个重要组件。

2. 和传统关系数据库的区别

HBase与传统的关系数据库的区别主要体现在以下几个方面:

(1)数据类型:HBase字符串
(2)数据操作:HBase操作则不存在复杂的表与表之间的关系,只有简单的插入、查询、删除、清空等
(3)存储模式:关系数据库是基于行模式存储的。HBase是基于列存储的
(4)数据索引:HBase只有一个索引——行键
(5)数据维护:HBase中执行更新操作时,并不会删除数据旧的版本,而是生成一个新的版本,旧有的版本仍然保留
(6)可伸缩性:

3. 常用命令
3.1 启动

单机模式

start-hbase.sh
stop-hbase.sh

伪分布式模式

start-all.sh
start-hbase.sh 
 (jps master:Hmaster  slave:Hregionserver)

完全分布式模式

start-all.sh   

zkServer.sh start
#(分别在master,slave上启动 jps quorumpeermain)

zkServer.sh status

follower   leader

start-hbase.sh #(master)

3.2 启动2
start-all.sh
start-hbase.sh

在这里插入图片描述
在这里插入图片描述

3.3 进入Hbase shell

在这里插入图片描述

3.4 集群状态命令 status

1 servers, 0 dead, 2.5000 average load
该集群共有1台RegionServer,平均每台山有2.5个region

在这里插入图片描述

3.5 创建表:

create '表名称', '列名称1','列名称2','列名称N'

create 'student', 'college', 'profile'

在这里插入图片描述

列举表: list
在这里插入图片描述

3.6 查看表结构

desc '表名'
在这里插入图片描述

3.7 查看所有记录
scan '表名称'

在这里插入图片描述

3.8 查看表中的记录总数
count '表名称'

在这里插入图片描述

3.9 添加记录
put  '表名称', '行名称', '列名称:', '值'

在这里插入图片描述

hbase (main) : 006: 0 > put 'student', '19052002', ‘college:school', ' Computer Engineering'
hbase (main) : 007: 0 > put 'student', '19052002', 'college:department', 'CS'
hbase (main) : 008: 0 > put 'student', '19052006', 'profile:name', 'liuneng'
hbase (main) : 009: 0 > put 'student', '19052006', 'profile:height', '170'
hbase (main) : 010: 0 > put 'student', '19052006', 'profile:weight', '122'
hbase (main) : 011: 0 > put 'student', '19052006', 'profile:birthday', '1999-08-02'
hbase (main) : 012: 0 > put 'student', '19052006', 'college:school', ' Computer Engineering '
hbase (main) : 013: 0 > put 'student', '19052006', 'college:department', 'EE'

在这里插入图片描述
在这里插入图片描述

3.10 查询表中有多少条记录,使用count命令。
hbase (main) : 014: 0 > count  'student'

在这里插入图片描述

3.11 获取一条数据,使用get命令

需要给出Row key。

hbase (main) : 015: 0 > get 'student', '19052006’

在这里插入图片描述

3.12 获取某行数据一个列族的所有数据,使用get命令。
hbase (main) : 016: 0 > get‘student’, ‘19052006’, ‘profile’

3.13 获取某行数据一个列族中一个列的所有数据,使用get命令
hbase (main) : 017: 0 > get  'student', '19052006', 'profile:name'

3.14 更新一条记录,使用put命令

将liuneng的体重改为135。

hbase (main) : 018: 0 > put 'student', '19052006', 'profile:weight', '135'
0 row(s) in 0.0850 seconds

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

Version
Filter   {VERSIONS=2}  必须大写

时间戳的类型是64位整型。时间戳可以由HBASE(在数据写入时自动)赋值,此时时间戳是精确到毫秒的当前系统时间。时间点细化为一连串数字,值越大,版本越新。
在这里插入图片描述
在这里插入图片描述

3.15 删除行键值为19052006的列height,使用delete命令。

在这里插入图片描述

可以看到,列height已经被删除。

3.16 增加列族
alter '表名', '列族名'

在这里插入图片描述

3.16 删除列族
alter '表名', 'delete' => '列族名'

在这里插入图片描述

3.17 删除整行

deleteall ‘表名’,‘行键’

deleteall ‘student’,’19052002’

put一次一个列

hbase (main) : 002: 0 > put student', '19052002', 'profile:name', 'zhaosi'
hbase (main) : 003: 0 > put 'student', '19052002', 'profile:height', '165'


put ‘student’, ‘19052002’, ‘profile:name’, ‘zhaosi‘,’profile:height’, ‘165’ 错误

3.18 下线 disable
disable 下线某个表
disable   '表名'

在这里插入图片描述
在这里插入图片描述

3.19 上线表 enable
enable  上线某个表 
enable  '表名'

在这里插入图片描述

3.19 判断命令(exists,is_enabled,is_disabled)

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
img
img
img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
img


put一次一个列



hbase (main) : 002: 0 > put student’, ‘19052002’, ‘profile:name’, ‘zhaosi’
hbase (main) : 003: 0 > put ‘student’, ‘19052002’, ‘profile:height’, ‘165’

put ‘student’, ‘19052002’, ‘profile:name’, ‘zhaosi‘,’profile:height’, ‘165’ 错误


##### 3.18 下线 disable



disable 下线某个表
disable ‘表名’


![在这里插入图片描述](https://img-blog.csdnimg.cn/3d4288b520914bf2bf7a4032c462b97a.png)  
 ![在这里插入图片描述](https://img-blog.csdnimg.cn/72f3f4225d39431699fd5c38e476f0fb.png)


##### 3.19 上线表 enable



enable 上线某个表
enable ‘表名’


![在这里插入图片描述](https://img-blog.csdnimg.cn/12487551b93542e8b4b7c45d7d1db96f.png)


##### 3.19 判断命令(exists,is\_enabled,is\_disabled)



**自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。**

**深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!**

**因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。**
[外链图片转存中...(img-UglAvmqv-1712891052253)]
[外链图片转存中...(img-9DkrqW0s-1712891052254)]
[外链图片转存中...(img-ZBh6RnUC-1712891052254)]
[外链图片转存中...(img-HTWufgKV-1712891052255)]
[外链图片转存中...(img-Gr1W8nr6-1712891052255)]

**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!**

**由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新**

**如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)**
[外链图片转存中...(img-U0JCTiFO-1712891052255)]

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值