要使用HBase-Spark Connector,用户需要定义在HBase和Spark表之间的映射关系的schema目录,准备数据,并且填充到HBase表中,然后加载HBase Dataframe。之后,用户可以使用SQL查询做集成查询和访问记录HBase的表。以下描述了这个的基本步骤:
1、定义目录(Define catalog)
2、保存DataFrame
3、加载DataFrame
4、SQL 查询
1.定义目录Define catalog
val catalog = s"""{
|"table":{"namespace":"default", "name":"table1"}, //命名空间,表
|"