Hive的连接池-HikariCP

前言:之前分享过一篇使用druid管理Hive的连接池,因为我们的大部分的项目是用的都是druid,所以到Hive这块,第一个想到的也是druid,不过作为一个喜欢不断折腾的小青年,最近又尝试了HikariCP,使用起来比druid要简单多了,而且性能上比druid也要强一些。
  1. 先看一下我的pom文件,因为我们的spring-cloud使用的是Edgware.SR3这个版本,spring默认使用的连接池还不是Hikari,所以这里要单独引入HikariCP,spring-boot 2.0就已经使用HikariCP作为默认的连接池,所以使用2.0版本额小伙伴就不用这么麻烦了
    <dependency>
    	<groupId>org.springframework.boot</groupId>
    	<artifactId>spring-boot-starter-jdbc</artifactId>
    	<exclusions>
    		<exclusion>
    			<groupId>org.apache.tomcat</groupId>
    			<artifactId>tomcat-jdbc</artifactId>
    		</exclusion>
    	</exclusions>
    </dependency>
    <dependency>
    	<groupId>com.zaxxer</groupId>
    	<artifactId>HikariCP</artifactId>
    	<version>2.7.4</version>
    </dependency>
    
  2. 配置中心的配置
    spring:
      hive:
    	minimum-idle: 0
    	maximum-pool-size: 2
    	max-lifetime: 600000
    	connection-timeout: 60000
    	username: root
    	password: 123456
    	jdbc-url: jdbc:hive2://hadoop03:10001/default;transportMode=http;httpPath=cliservice
    	driver-class-name: org.apache.hive.jdbc.HiveDriver
    	testOnBorrow: false
    
  3. 关于DataSourceJdbcTemplate的配置文件
    @Configuration
    public class JdbcConfiguration {
    
    	@Bean(name = "hiveJdbcDataSource")
    	@Primary
    	@ConfigurationProperties(prefix = "spring.hive")
    	public DataSource hiveDataSource(){
    		return DataSourceBuilder.create().build();
    	}
    
    	@Bean(name = "hiveJdbcTemplate")
    	public JdbcTemplate hiveJdbcTemplate(@Qualifier("hiveJdbcDataSource") DataSource dataSource){
    		return new JdbcTemplate(dataSource);
    	}
    }
    
  4. 最后一步,愉快的使用,就是这么的简单
    @Component
    public class CommonHiveDao {
    	private final Logger logger = LoggerFactory.getLogger(this.getClass());
    	@Autowired
    	@Qualifier("hiveJdbcTemplate")
    	JdbcTemplate hiveJdbcTemplate;
    
    	public HiveResponse execute(HiveBean bean){
    		hiveJdbcTemplate.execute(bean.getHql());
    		HiveResponse hiveResponse = HiveResponse.successResult();
    		return hiveResponse;
    	}
    
    	public HiveResponse executeQuery(HiveBean bean){
    		List<Map<String, Object>> result = hiveJdbcTemplate.queryForList(bean.getHql());
    		return HiveResponse.successResult().setListResult(result);
    	}
    }
    
  • 0
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Hive-JDBC Uber Jar 是一个包含了所有依赖项的单一 JAR 文件,使得使用 Hive JDBC 连接数据库更加方便。为了下载 hive-jdbc-uber-jar,您可以按照以下步骤进行操作: 1. 打开您的网络浏览器并访问 Apache Hive 的官方网站(https://hive.apache.org/)。 2. 在页面的顶部菜单栏中,您会找到一个"Downloads"(下载)的选项。单击这个选项。 3. 在下载页面上,您可以看到不同的 Hive 版本和相关的下载链接。根据您的需求选择适合的版本。一般建议选择最新版本。 4. 找到并单击下载链接,以启动 hive-jdbc-uber-jar 文件的下载。可以选择一个合适的下载镜像,点击相关链接即可开始下载。 5. 下载完成后,您可以在您指定的下载文件夹中找到 hive-jdbc-uber-jar 文件。可以通过文件管理器打开文件夹并查看文件。 在您下载了 hive-jdbc-uber-jar 文件后,您可以将其添加到您的项目中,并使用 Hive 的 JDBC API 连接Hive 数据库。您可以在项目的构建路径中添加该 JAR 文件,并在代码中引入相关的类和方法。确保在代码中正确配置 JDBC 连接参数,如 Hive 服务器的 URL、用户名和密码等。 总结起来,您可以通过在 Apache Hive 官方网站下载页面上选择适当的 Hive 版本并点击相关的下载链接,从中直接下载 hive-jdbc-uber-jar 文件。这个 JAR 文件是使用 Hive JDBC 连接Hive 数据库时所需的所有依赖项的集合。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值