Hadoop
start-dfs.sh stop-dfs.sh
Hadoop伪分布式配置 croe-sitexml、hdfs-site.xml
dfs.namenode.name.dir/名称节点存放目录/namenode存放目录/名称节点的存放位置 dfs.datanode.data.dir/数据节点存放目录/datanode存放目录/数据节点的存放位置
hdfs dfs -put 本地路径 HDFS hdfs dfs -get HDFS 本地路径
HDFS的操作:
(1)shell 指令
(2)编程(Eclipse)
(1) 对目录的操作: hdfs dfs -mkdir
hdfs dfs -mkdir -p
hdfs dfs -rm
hdfs dfs -rm -r
对文件的操作:
hdfs dfs -put 将本地文件上传到HDFS
hdfs dfs -get 将HDFS里的文件下载到本地
hdfs dfs -cat
hdfs dfs -appendToFile 将本地文件追加到HDFS (hdfs dfs -appendToFile 本地 HDFS)
例: hdfs dfs -mkdir input = hdfs dfs -mkdir /user/hadoop/input hdfs dfs -mkdir ./input = hdfs dfs -mkdir /user/hadoop/input hdfs dfs -mkdir /input
create '表名‘,'列族名’
put '表名',‘行健值’,‘列族名:列’,‘值’
scan ‘表名’
get
cd /usr/local/hbase bin/start-hbase.sh
bin/hbase shell
bin/stop-hbase.sh
DML
创建表
create ‘表名’,‘列族名’
create ‘表名’,{NAME=>'列族名',VERSIONS=>版本数}
alter 修改表
alter ‘表名’,‘列族名’-------增加一个列族
alter ‘表名’,{NAME=>’列族名‘,METHOD=>'delete'}----删除列族
alter 'S',NAME=>'列族名',VERSIONS=>n
或 alter ‘表名’,NAME=>'列族名:列',VERSION=>N
alter ‘表名’,max_filesize=>'n'------修改表region的大小
查看表
describe '表名'--------获取表的细节的描述
list-------查看都有什么表
exit '表名'---------查看表是否存在
禁用表,启用表
disable '表名'
enable '表名'
删除表
drop '表名'---------注意先禁用表
DDL
put
put ’表名‘,’行键‘,’列族名:列‘,’值‘----给一个单元格给值
get
get '表名',‘行键’
get ‘表名’,‘行键’,{COLUMN=>'列族名',VERSIONS=>n}
删除数据
delete ‘表名’,‘行键’,‘列族’:列‘
查看表中记录的数
count '表名'
Scala
max
min
bas
常量
var 可变
val 不可变
import io.StdIn._、
数组
val a=new Arrayint
for(i <- 0 to 2) println(a(i))
val b=Array(1,2,3)
val c=Array("bigdata","201","202")
元组
val d=("Hadoop",15,100)
print(d._2)
列表
val ls1=List(1,2,3)
var ls2=List(4,5,6)
val ls3=List(1,3,5)
val ls4=4::ls3
集合
var s1=Set("Hadop,"spark","spark")
s1+="scala"
import scala.collection.mutable.Set (var 变量 ,名称可变 右边的集合是不可变的)
import scala.collection.mutable.Set
函数
def max(x:Int,y:Int):Int={
if(x>y)
x
else
y
}