自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 资源 (1)
  • 收藏
  • 关注

原创 ElasticSearch_入门操作

1.创建索引对象curl -XPUT 'http://192.168.10.201:9200/demo_02'2.插入数据curl -H "Content-Type:application/json" -XPUT 'http://192.168.10.201:9200/demo_01/emp/5' -d '{"name":"xiao","age":56,"sex":"女","salary":1000}'3.查询数据--------------------查询指定id的信息curl -XGET

2020-10-21 20:23:25 5426

原创 MySQL异常_java.sql.SQLException: Access denied for user ‘root‘@‘124.160.227.218‘ (using password: YES)

一、可以尝试直接设置免密登陆/etc/my.cnf 中进行编辑:skip-grant-tables最后 重启mysql服务: systemctl restart mysqld二、进行权限设置1、查看 mysql 初始的密码策略SHOW VARIABLES LIKE 'validate_password%'; 2、指定密码的强度验证等级 set global validate_password_policy=LOW; 3、固定密码的总长度set global validate_p

2020-10-13 20:30:13 148

原创 15、Spark_RDD算子——AggregateByKey

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-12 21:25:39 164

原创 14、Spark_RDD算子——CombineByKey_ReduceByKey转换

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-12 21:23:08 111

原创 13、Spark_RDD算子——CombineByKey_GroupByKey转换

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-12 21:11:36 165 1

原创 12、Spark_RDD算子——MapPartitionWithIndex

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-12 21:09:21 318

原创 11、Spark_RDD算子——CoalesceAndRepartition

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-12 21:07:27 68

原创 10、Spark_RDD算子——MapPartition

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-10 17:19:47 242

原创 9、Spark_RDD算子——SortByKey

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-10 17:17:30 234

原创 8、Spark_RDD算子——GroupByKey

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-10 09:03:14 238 1

原创 7、Spark_RDD算子——Join

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-10 08:59:25 276 2

原创 6、Spark_RDD算子——Distinct

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-10 08:55:50 144

原创 5、Spark_RDD算子——Union

一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext

2020-10-10 08:52:55 344

SHELL编程详细教程——基础篇

主要针对shell编程的基础做一个阐述,其中包括基础的变量、常量、字符串、数组等的定义方式,一些比较运算符的详细介绍,分支判断语句、循环语句的基础用法、自定义函数的使用方法。还包括一些代码示例

2020-08-21

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除