Phoenix常用操作命令
1.连接客户端
./sqlline.py 172.16.122.50:2181
2.创建Schema
create schema if not exists my_test;
3.创建Phoenix表
create table MY_TEST.EXAMPLE (my_pk bigint not null,m.first_name varchar(50),m.last_name varchar(50) constraint pk primary key (my_pk));
4.查询数据
SELECT * FROM MY_TEST.EXAMPLE;
注意:对于常量字符串,使用单引号,对于表名,字段名的小写使用双引号
5.hdfs数据写入
hadoop jar /usr/hdp/2.2.0.0-2041/phoenix/phoenix-4.12.0-HBase-1.2-TBDS-5.1.3.0-client.jar org.apache.phoenix.mapreduce.CsvBulkLoadTool \
-Dfs.permissions.umask-mode=000 \
-t MY_TEST.EXAMPLE \
-i /test.csv \
-c MY_PK,FIRST_NAME,LAST_NAME
6.修改option配置
ALTER TABLE METADATA.AE_HIVE_COLUMN SET UPDATE_CACHE_FREQUENCY=60000,COMPRESSION='SNAPPY';
7.更新表的meta信息
UPDATE STATISTICS METADATA.AE_HIVE_COLUMN;
8.创建索引
create index if not exists METADATA_AE_HIVE_COLUMN_qn_index on METADATA.AE_HIVE_COLUMN(qualifiedname) IMMUTABLE_ROWS=false, UPDATE_CACHE_FREQUENCY=60000, VERSIONS=1, DATA_BLOCK_ENCODING='FAST_DIFF',COMPRESSION='GZ',bloomfilter='ROW' ,TTL=2147483647
9.删除索引
drop index METADATA_PICC_CONTRACT_QN_INDEX on "picc_contract";
10.删除phoenix表不删除hbase表
hbase-site.xml配置参数phoenix.schema.dropMetaData=false,删除phoenix表不会删除hbase表