自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

不花的花和尚的博客

菜鸟起飞了

  • 博客(12)
  • 资源 (12)
  • 收藏
  • 关注

原创 sql:hive:mysql:函数:NVL、NVL2、NULLIF,IFNULL、Coalesce

NVL:第一个参数为空(注意这里是指null,不是空串)那么显示第二个参数的值,如果第一个参数的值不为空,则显示第一个参数本来的值select NVL(age,9999999 ) from tmp.testage223999999977...mysql中没有nvl ()函数,使用ifnull代替SELECT ifnull(valuess,'11111') a FROM test_regexp;NVL2:格式:NVL2(expr1,expr2, expr3)如果该.

2020-05-27 17:10:42 2202 1

原创 sql:mysql:查询所有数据库+表名+字段名+字段类型+注释

select TABLE_SCHEMA '数据库',TABLE_NAME '表名',COLUMN_NAME '字段名',COLUMN_TYPE '字段类型',COLUMN_COMMENT '注释'from information_schema.columns where table_schema in (SELECT SCHEMA_NAME AS `Database` FROM INFORMATION_SCHEMA.SCHEMATA)

2020-05-26 16:38:08 310

原创 spark:sparksql:sparksql的agg函数,作用:在整体DataFrame不分组聚合

1、agg(expers:column*) 返回dataframe类型 ,同数学计算求值df.agg(max("age"), avg("salary"))df.groupBy().agg(max("age"), avg("salary"))2、agg(exprs: Map[String, String])返回dataframe类型 ,同数学计算求值 map类型的df.agg(Map("age" -> "max", "salary" -> "avg"))df.groupBy()....

2020-05-24 00:53:51 2599

原创 Spark:coalesce()方法和repartition()方法

https://blog.csdn.net/olizxq/article/details/82808412

2020-05-23 21:54:52 1415

转载 hadoop:JournalNode的作用

NameNode之间共享数据(NFS 、Quorum Journal Node(用得多))两个NameNode为了数据同步,会通过一组称作JournalNodes的独立进程进行相互通信。当active状态的NameNode的命名空间有任何修改时,会告知大部分的JournalNodes进程。standby状态的NameNode有能力读取JNs中的变更信息,并且一直监控edit log的变化,把变化应用于自己的命名空间。standby可以确保在集群出错时,命名空间状态已经完全同步了。上面在Activ

2020-05-18 19:36:45 1346

原创 hive:正则:匹配中文/英文/数字(REGEXP 和 rlike)

数据:Java开发工程师Java工程师海外BD岗移动web研发工程师DBA工程师JAVA高级开发工程师PHP开发工程师android资深开发经理课程顾问/sales managerEPM认证工程师品牌总监分时租赁总经理销售总经理硬件测试工程师薪酬管理岗算法工程师大区销售总监财务经理研发总监110100110100130100130100160100200500160100110100110100110100484946964861474

2020-05-15 16:48:50 25407 3

原创 java:获取字符串中某个字符串第一次出现的位置(索引)

此处用Matcher和Pattern类会非常简单,这两个类是利用正则表达式匹配查找的相关类,详细可以参见java Pattern和Matcher详解 public static void main(String[] args) { String str = "人生自古谁无死,留取丹心照汗青"; Integer start = startChar(str,"}"); System.out.println(str.substring(start+1,s

2020-05-15 14:19:41 10235

原创 hive:几种实现like的方式

Locate:SELECT s.title,t.nameFROM (select * from bo.t_positions limit 1000) sRIGHT JOIN resume.pf_basic_dic tON(TRUE)WHERE LOCATE(s.title,t.name)>0like:SELECT s.position_name,t.senior_name FROM (select * from tmp.t_position_name_data_times_le

2020-05-11 20:10:00 4401

原创 hive:表做关联,字段出现了换行

我用sqoop拉取mysql表,到hive中后表的存储格式为parquet格式。这时我要用此表关联另一张表,自己建的表。如下:两个建表语句(语句2多了 STORED AS parquet):语句1: CREATE TABLE `tmp.t_position_name_data_times_greate300_positions`( `id` string, `title` string, `company_name` string, `work_city` string

2020-05-11 11:27:35 1047

原创 hadoop:MapReduce (Writable)输出结果中文乱码解决

hadoop涉及输出文本的默认输出编码统一用没有BOM的UTF-8的形式,但是对于中文的输出window系统默认的是GBK,有些格式文件例如CSV格式的文件用excel打开输出编码为没有BOM的UTF-8文件时,输出的结果为乱码,只能由UE或者记事本打开才能正常显示。因此将hadoop默认输出编码更改为GBK成为非常常见的需求。自定义 TextOutputFormat.class 子类TextOutputFormat.class 类代码展示:package com.ljt.hdfs;imp.

2020-05-09 02:58:45 1786

原创 hadoop:IDEA本地编写mapreducer的wordcount并测试,并上传到hadoop的linux服务器进行测试

直接上代码:package main.java;import java.io.IOException;import java.util.StringTokenizer;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io...

2020-05-04 17:53:44 632

原创 hadoop:HDFS:基本命令

一:文件操作1、建立目录[hadoop@hadoop1:hadoop]$bin/hadoop dfs -mkdir testdir在HDFS中建立一个名为testdir的目录2、上传文件到HDFS[hadoop@hadoop1:hadoop]$bin/hadoop dfs -put /home/hadoop/test.zip testfile.zip把本地文件large.zip拷贝到...

2020-05-04 16:53:44 214

Xftp-7.0.0085p和Xshell-7.0.0087p教育版.zip

Xftp-7.0.0085p和Xshell-7.0.0087p教育版

2021-10-18

apache-phoenix.zip

实现sql查询Hbase,Phoenix 基于Hbase给面向业务的开发人员提供了以标准SQL的方式对Hbase进行查询操作,并支持标准SQL中大部分特性:条件运算,分组,分页,等高级查询语法。 这里提供两个版本: apache-phoenix-4.8.1-HBase-1.2-bin.tar.gz(建议使用) apache-phoenix-4.14.1-HBase-1.2-bin.tar.gz

2020-09-01

Hadoop本地环境配置 需要的文件hadoopdll和winutilexe.zip

windows本地跑hadoop环境配置,需要的文件hadoop.dll和winutil.exe,亲测可用,里边包含了我写的配置方法,需要的拿去!

2020-04-23

RedisDesktopManager_v0.9.3.817_itmop.com(可用).zip

之前下载的版本总是乱码,终于找到了这款,直接解压就可以用,分享给需要的人。 资源简介: 一款非常实用的redis桌面管理工具,它可以支持命令控制台操作,以及常用,查询key,rename,delete等操作。

2019-12-19

DBeaver(含hive驱动)

其实在网上搜一下,连接hive的工具还有很多,使用DBeaver的原因是因为我之前连接关系型数据库使用的就是DBeaver,正好DBeaver支持连接hive,且个人认为DBeaver确实挺好用的,支持各种关系型数据库,如连接Oracle数据库不需要像plsql那样自己配置连接文件,只需要在界面上输入url、用户名、密码即可,还有就是DBeaver的快捷键和Eclipse是一样的,比如注释、删除一行、复制一行到下一行等。 安装以及连接hive参考:https://blog.csdn.net/weixin_38750084/article/details/85263918

2019-05-31

MouseWithoutBordersSetup 无界鼠标

无界鼠标由于是微软出品的,所以只支持 Windows 平台,安装包也是 MSI 文件格式。安装和配置上比 Synergy 相对简单,可配置的项目不算多,最大的优点是可以实现跨电脑拷贝文件与拖放文件。另外,无界鼠标的电脑们是完全对等模式,你拿起任意一台电脑连接的鼠标和键盘都能操作其它电脑。

2019-05-25

kafkatool 连接kafka工具

kafka连接工具

2019-01-24

zookeeper客户端

详细安装:https://blog.csdn.net/weixin_38750084/article/details/86622166

2019-01-24

【进程查看器】Process+Explorer

Process Explorer 是一款免费的增强型任务管理器,是最好的进程管理器. 它能让使用者了解看不到的在后台执行的处理程序,可以使用它方便地管理你的程序进程. 能监视,挂起,重启,强行终止任何程序,包括系统级别的不允许随便终止的关键进程和十分隐蔽的顽固木马. 除此之外,它还详尽地显示计算机信息: CPU,内存,I/O使用情况,可以显示一个程序调用了哪些动态链接库DLL,句柄,模块,系统进程. 以目录树的方式查看进程之间的归属关系,可以对进程进行调试. 可以查看进程的路径,以及公司,版本等详细信息,多色彩显示服务进程,很酷的曲线图. 可以替换系统自带的任务管理器,有了它,系统自带的任务管理器就可以扔进垃圾桶了.

2018-09-30

DbVisualizer-8.0.9免安装版

特别好用的数据库连接工具,可以连接各种关系型数据库,还可以连接hive

2018-09-14

高级小知识点

2017-05-13

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除