- 博客(13)
- 资源 (1)
- 收藏
- 关注
原创 ElasticSearch_入门操作
1.创建索引对象curl -XPUT 'http://192.168.10.201:9200/demo_02'2.插入数据curl -H "Content-Type:application/json" -XPUT 'http://192.168.10.201:9200/demo_01/emp/5' -d '{"name":"xiao","age":56,"sex":"女","salary":1000}'3.查询数据--------------------查询指定id的信息curl -XGET
2020-10-21 20:23:25 5426
原创 MySQL异常_java.sql.SQLException: Access denied for user ‘root‘@‘124.160.227.218‘ (using password: YES)
一、可以尝试直接设置免密登陆/etc/my.cnf 中进行编辑:skip-grant-tables最后 重启mysql服务: systemctl restart mysqld二、进行权限设置1、查看 mysql 初始的密码策略SHOW VARIABLES LIKE 'validate_password%'; 2、指定密码的强度验证等级 set global validate_password_policy=LOW; 3、固定密码的总长度set global validate_p
2020-10-13 20:30:13 148
原创 15、Spark_RDD算子——AggregateByKey
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-12 21:25:39 164
原创 14、Spark_RDD算子——CombineByKey_ReduceByKey转换
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-12 21:23:08 111
原创 13、Spark_RDD算子——CombineByKey_GroupByKey转换
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-12 21:11:36 165 1
原创 12、Spark_RDD算子——MapPartitionWithIndex
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-12 21:09:21 318
原创 11、Spark_RDD算子——CoalesceAndRepartition
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-12 21:07:27 68
原创 10、Spark_RDD算子——MapPartition
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-10 17:19:47 242
原创 9、Spark_RDD算子——SortByKey
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-10 17:17:30 234
原创 8、Spark_RDD算子——GroupByKey
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-10 09:03:14 238 1
原创 7、Spark_RDD算子——Join
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-10 08:59:25 276 2
原创 6、Spark_RDD算子——Distinct
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-10 08:55:50 144
原创 5、Spark_RDD算子——Union
一、SparkUtils工具类import org.apache.spark.{SparkConf, SparkContext}object SparkUtils { /** * 默认的master url路径 */ val DEFAULT_MASTER = "local[*]" /** * 默认master为local[*]的获取sparkContext */ def getSparkContext(appName:String):SparkContext
2020-10-10 08:52:55 344
SHELL编程详细教程——基础篇
2020-08-21
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人