Phoenix-基于HBase的低延迟操作 头歌——答案

第1关:Phoenix初识

package com.educoder.bigData.sparksql4;
import java.sql.Connection;  
import java.sql.DriverManager;  
import java.sql.SQLException;
public class Case1 {  
    static {  
        try {  
            Class.forName("org.apache.phoenix.jdbc.PhoenixDriver");  
        } catch (ClassNotFoundException e) {  
            // TODO Auto-generated catch block  
            e.printStackTrace();  
        }  
    }
    public static void createEducoderTable1() {  
        Connection connection = null;  
        try {  
            connection = DriverManager.getConnection("jdbc:phoenix:127.0.0.1:2181");  
            connection.createStatement().execute(  
                    "CREATE TABLE EDUCODER_TABLE1 (ID BIGINT not null primary key, info.BEGINTIME VARCHAR, ENDTIME VARCHAR, SALARY INTEGER, CITY VARCHAR)DATA_BLOCK_ENCODING='DIFF',VERSIONS=3,BLOCKSIZE='32000',MAX_FILESIZE=10000000");  
            connection.commit();  
        } catch (Exception e) {  
            // TODO Auto-generated catch block  
            e.printStackTrace();  
        }  
        finally {  
            if(connection != null) {  
                try {  
                    connection.close();  
                } catch (SQLException e) {  
                    // TODO Auto-generated catch block  
                    e.printStackTrace();  
                }  
            }  
        }  
    }  
    public static void createEducoderTable2() {  
        Connection connection = null;  
        try {  
            connection = DriverManager.getConnection("jdbc:phoenix:127.0.0.1:2181");  
            connection.createStatement().execute(  
                    "CREATE TABLE \"educoder_table2\" (\"id\" BIGINT not null primary key, \"info\".\"begintime\" VARCHAR, \"endtime\" VARCHAR, \"salary\" INTEGER, \"city\" VARCHAR)COMPRESSION='GZ',VERSIONS=5,BLOCKSIZE='65536',MAX_FILESIZE=20000000");  
            connection.commit();  
        } catch (Exception e) {  
            // TODO Auto-generated catch block  
            e.printStackTrace();  
        }  
        finally {  
            if(connection != null) {  
                try {  
                    connection.close();  
                } catch (SQLException e) {  
                    // TODO Auto-generated catch block  
                    e.printStackTrace();  
                }  
            }  
        }  
    }
}

第2关 Phoenix 查询和更新

package com.educoder.bigData.sparksql4;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.ResultSetMetaData;
import java.sql.SQLException;

public class Test2 extends InitHdb2{
    public static void main(String[] args) throws SQLException {
        Connection connection = null;
        try {
            connection = DriverManager.getConnection("jdbc:phoenix:127.0.0.1:2181");
            connection.createStatement().executeUpdate("UPSERT INTO EDUCODER_TABLE1 VALUES('20190615','20190915', 1, 20, '上海') ON DUPLICATE KEY UPDATE SALARY = SALARY + 20");
            connection.createStatement().executeUpdate("UPSERT INTO EDUCODER_TABLE1 VALUES('20190618','20190918', 2, 10, '北京') ON DUPLICATE KEY UPDATE SALARY = SALARY + 20");
            connection.commit();
            queryTable(connection,"EDUCODER_TABLE1");
            connection.createStatement().executeUpdate("UPSERT INTO \"educoder_table2\"  SELECT * FROM EDUCODER_TABLE1 ");
            connection.commit();
            queryTable(connection,"educoder_table2");
        } catch (Exception e) {
            // TODO Auto-generated catch block
            e.printStackTrace();
        }
        finally {
            if(connection != null) {
                try {
                    connection.close();
                } catch (SQLException e) {
                    // TODO Auto-generated catch block
                    e.printStackTrace();
                }
            }
        }
    }
    private static void queryTable(Connection connection, String tableName) throws SQLException {
        ResultSet executeQuery = connection.createStatement().executeQuery("select * from \""+tableName+"\"");
        ResultSetMetaData metaData = executeQuery.getMetaData();
        int n = 0;
        while (executeQuery.next()) {
            System.out.println(tableName + "第" + ++n + "条数据:");
            for (int j = 0; j < metaData.getColumnCount(); j++) {
                String col_name = metaData.getColumnName(j + 1);
                Object value = executeQuery.getObject(col_name);
                System.out.print(col_name + ":" + value);
                if(j != metaData.getColumnCount() -1) {
                    System.out.print(",");
                }
                else {
                    System.out.println();
                }
            }
        }
    }
}

第3关 Phoenix 二级索引

package com.educoder.bigData.sparksql4;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.ResultSetMetaData;
import java.sql.SQLException;

public class Test3 extends InitHdb3{

	public static void main(String[] args) throws SQLException {
		Connection connection = null;
		
		/********* Begin *********/
        String sql = "select * from my_index limit 10";         
        connection = DriverManager.getConnection("jdbc:phoenix:127.0.0.1:2181");
        connection.createStatement().executeUpdate("CREATE  INDEX my_index ON EDUCODER_TABLE1 (salary) ");  
		/********* End *********/
		queryTable(sql, connection);
	}
	
	public static void queryTable(String sql,Connection connection) throws SQLException {
		ResultSet executeQuery = connection.createStatement().executeQuery(sql);
		ResultSetMetaData metaData = executeQuery.getMetaData();
		System.out.println("索引表数据:");
		while (executeQuery.next()) {
			for (int j = 0; j < metaData.getColumnCount(); j++) {
				String col_name = metaData.getColumnName(j + 1);
				Object value = executeQuery.getObject(col_name);
				System.out.print(col_name + ":" + value);
				if(j != metaData.getColumnCount() -1) {
					System.out.print(",");
				}
				else {
					System.out.println();
				}
			}
		}
	}

}

第4关 Phoenix Spark操作

package com.educoder.bigData.sparksql4;
import java.util.Arrays;
import org.apache.spark.api.java.JavaRDD;  
import org.apache.spark.api.java.JavaSparkContext;  
import org.apache.spark.sql.Dataset;  
import org.apache.spark.sql.Row;  
import org.apache.spark.sql.SaveMode;  
import org.apache.spark.sql.SparkSession;
public class Case4 {
    public static void case4(TableVo1 vo) {  
        SparkSession spark = SparkSession.builder().appName("test1").master("local").getOrCreate();  
        JavaSparkContext context = JavaSparkContext.fromSparkContext(spark.sparkContext());  
        JavaRDD<TableVo1> parallelize = context.parallelize(Arrays.asList(vo));  
        Dataset<Row> df = spark.createDataFrame(parallelize, TableVo1.class);  
        df.write().mode(SaveMode.Overwrite).format("org.apache.phoenix.spark").option("zkUrl", "127.0.0.1:2181").option("table", "OUTPUT_TABLE").save();  
        spark.read().option("table", "OUTPUT_TABLE").option("zkUrl", "127.0.0.1:2181")  
        .format("org.apache.phoenix.spark").load().show();  
    }  
}
  • 2
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大数据处理平台Hadoop Friday, December 23, 2022 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第1页。 Hadoop—大数据时代的火种 摩尔定律 1965年4月19日,仙童半导体公司工程师,后来创建英特尔供的戈登。摩尔在著名的《电子学》杂志(Electonic Magazine)发表文章,语言半导体芯片上集成的晶体管和电阻的数量将每年增加1倍。 10年后,摩尔在IEEE国际电子组件大会上将他的语言修正为半导体芯片上集成的晶体管和电阻的数量将每两年增加1倍。 这个语言见证了半导体行业半个世纪的飞速发展,并见证了以此为基础的IT产业的蓬勃发展。 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第2页。 摩尔定律 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第3页。 大数据发展的驱动力 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第4页。 Google解决大数据计算问题的方法 面对爆炸式增长的数据,如何从海量的数据中找到自己想要的信息 Google三大神器 具备海量数据存储和访问的分布式文件系统 GFS 简洁高效的并行计算编程模型 MapReduce 支持海量结构化数据管理的BigTable 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第5页。 Hadoop的由来和发展 2003年Google发表了关于云计算核心技术的GFS论文 Apache开源项目Nutch搜索引擎的开发者Doug Cutting, 正面临如何将其架构扩展到处理数十亿网页的规模 他们意识到GFS的技术可以帮助他们解决Nutch抓取网页和建立索引的过程中产生的大量文件的问题 2004年编写了开源的类似的系统NDFS 2004年Google发表了另一核心技术MapReduce的论文,他们将Nutch的主要算法移植到MapReduce和NDFS上 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第6页。 Hadoop的由来和发展 Yahoo发现GFS和MapReduce的巨大潜力,将Doug Cutting招入公司,并成立了专门的团队 Nutch项目的分布式运算部分被单独剥离出来,成为Apache的一个子项目Hadoop Hadoop项目的名称来源于Doug Cutting儿子的一个黄色的大象玩具 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第7页。 Hadoop的由来和发展 Hadoop项目的目标是建立一个能够对海量数据进行可靠的分布式处理的可扩展开源框架。 Google GFS MapReduce BigTable Hadoop HDFS MapReduce HBase 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第8页。 Hadoop的发展历程 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第9页。 Hadoop的特性 Hadoop是一个能够对大量数据进行分布式处理的软件框架,并且是以一种可靠、高效、可扩展的方式进行处理的,它具有以下几个方面的特性: 支持超大文件 快速应对硬件故障 流式数据访问 高容错性 简化的一致性模型 硬件成本 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第10页。 Hadoop的应用现状 Hadoop凭借其突出的优势,已经在各个领域得到了广泛的应用,而互联网领域是其应用的主阵地 Hadoop被公认为行业大数据标准开源软件,在分布式环境下提供了海量数据的处理能力 几乎所有主流厂商都围绕Hadoop提供开发工具、开源软件、商业化工具和技术服务,如谷歌、雅虎、微软、思科、淘宝等,都支持Hadoop 大数据分析技术基础教学课件3-大数据处理平台Hadoop全文共27页,当前为第11页。 Apache Hadoop 版本演变 Apache Hadoop版本分为两代,我们将第一代Hadoop称为Hadoop 1.0,第二代Hadoop称为Hadoop 2.0 第一代Hadoop包含三个大版本,分别是0.20.x,0.21.x和0.22.x,其中,0.20.x最后演化成1.0.x,变成了稳定版,而0.21.x和0.22.x则增加了NameNode HA等新的重大特性 第二代Hadoop包含两个版本,分别是0.23.x和2.x,它们完全不同于Hadoop 1.0,是一套全新的架构,均包含HDFS Federation和YARN两个系统,相比于0.23.x,2.x增加了NameNode HA和Wire-compatibil

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值