- 博客(24)
- 资源 (12)
- 收藏
- 关注
原创 数据的插入、修改和删除
(1)当字段设置了自增约束时,系统会根据记录的顺序自动生成对应的编号(id);(2)当字段设置了默认约束时,插入数据的时候,该字段没有赋值,系统会将该字段的值)设置成对应的默认值;(3)当字段没有设置默认值约束和自增约束时,插入数据的时候,该字段没有赋值,系统会将该字段的值设置成null;(4)当字段设置了非空约束时,插入数据的时候,必须给该字段赋值。
2024-04-17 14:17:33 1147
原创 Hadoop3.1.4完全分布式集群搭建
在Centos7中直接使用root用户执行hostnamectl命令修改,重启(reboot)后永久生效。要求:三台主机的名字分别为:master slave1 slave2。
2024-04-02 09:40:27 1375 1
原创 Mysql8.3.0的安装(保姆级)
由于初始化产生的随机密码太复杂,不便于我们登录mysql,因此,我们应当修改一个自己能记住的密码: alter user ‘root’@‘localhost’ identified by ‘1234’;使用mysql -u root -p进行登录。修改成功后,下次登录就可以用简单密码了。例如:我的路径是在F:\mysql下。下载好压缩包后,对该压缩包进行解压。输入quit即可退出MySQL。输入刚才随机产生的密码。
2024-03-05 23:59:03 6584 6
原创 Java基础---switch语句
default的位置可以随便放,但是它的执行顺序不会变一定是在表达式的值和所有case后面的值都匹配不上的时候才会执行default中的语句体。不会因为default的放置顺序而发生改变【案例】System . out . println("请输入月份:");case 12 : case 1 : case 2 : System . out . println(month + "月是冬天");break;
2023-11-22 23:04:13 106
原创 zookeeper集群部署
bigdata1、bigdata2 和 bigdata3 三个节点上部署Zookeeper。修改其他两台的myid: 路径:cd /opt/module/zookeeper-3.5.7/zkData/myid235.配置zoo.cfg文件(/opt/module/zookeeper-3.5.7/conf)环境变量:(三台全部配)
2023-10-19 13:02:43 81
原创 idea运行出现:命令行过长。 通过 JAR 清单或通过类路径文件缩短命令 错误
出现图片中的问题如何来解决了?1.点击编辑配置2.点击修改选项3.点击缩短命令行4.选择JAR清单5.点击确定,重新运行程序即可
2023-09-25 14:29:44 2229
原创 linux配置环境变量操作失误,导致找不到命令
在执行命令source /etc/profile时,报错,后发现ls,vim等一些基本命令失效。安装完jdk后,配置了错误的环境变量,并执行了“source /etc/profile”命令。/usr/libexec/grepconf.sh:行5: grep: 未找到命令。
2023-09-12 16:02:55 535
原创 【JavaSE基础二】Java程序设计第一个案例HelloWorld
项目场景:这是Java程序设计的第一个案例问题描述:我们希望在控制台输出 I love Java!class HelloWorld { public static void main(String[] args) { System.out.println(" I love Java!"); }} 程序解释:A:Java程序的最基本单位是类,所以我们要定义一个类。格式:class 类名举例:class HelloWorldB:在类中写内容的时候,用大括号括起来。C:Ja
2021-10-26 19:31:13 355
原创 【JavaSE基础一】Java环境变量的配置
此文章主要详细介绍了Java环境变量的配置步骤文章目录一、JDK的下载二、JDK的安装三、环境变量的配置四、java运行环境的验证一、JDK的下载以下为jdk的下载链接:[https://www.oracle.com/java/technologies/downloads/#java8-windows]接下来可以打开自己的系统设置面板查看电脑的系统位数。操作步骤:此电脑—》右键选择属性,就可以看到自己电脑的操作系统为64位或32位。然后打开刚才的下载链接网址,选择对应符合自己系统的安装包
2021-10-24 17:29:01 2941
原创 Spark抽取mysql中的数据到Hive中
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录思路一、案例介绍二、具体步骤1.编写scala程序完成从mysql讲数据导出成csv文件2.打包成jar包提交到集群上3.将hdfs上的这个文件下载到本地目录下4.将本地数据文件的数据加载到hive中总结思路spark抽取mysql中的数据到hive中,可通过以下2步完成:1.先将mysql中的数据抽取到存放再hdfs上的一个文件(.csv,.txt)2.再讲文件通过load命令加载到hive中下面用具体案例演示一.
2021-10-20 10:15:22 5668 6
原创 SparkRDD的行动操作
和转化操作类似,所有简单 RDD 支持的行动操作在键值对 RDD 上也是管用的,同时它还有一些更加编辑的行动操作。countByKey()对每个键对应的元素分别计数。在 spark-shell 中输入如下代码:截图如下:0llookup()返回给定键对应的所有值。在 spark-shell 中输入如下代码:截图如下:collectAsMap()将结果以映射表的形式返回,方便查询。在 spark-shell 中输入如下代码:截...
2021-09-24 16:47:22 210
原创 SparkRDD转换操作
1.reduceByKey(func)合并具有相同键的值。在 spark-shell 中输入如下代码:截图如下:2.groupByKey()对具有相同键的值进行分组。在 spark-shell 中输入如下代码:截图如下:3.mapValues(func)对键值对 RDD 的每个值应用一个函数而不改变对应的键。在 spark-shell 中输入如下代码:截图如下:flatMapValues(func)对键值对 RDD 中...
2021-09-24 16:27:55 625
原创 Flume案例1-arvo
案例1:AvroAvro可以通过client发送一个指定的文件给Flume,flume可以通过设置source的接受方式,监控avro发送数据的ip和端口,获取数据。Avro Source可以定制avro-client发送一个指定的文件给Flume agent,Avro源使用Avro RPC机制,Flume主要的RPC Source也是 Avro Source,它使用Netty-Avro inter-process的通信(IPC)协议来通信,因此可以用java或JVM语言发送数据到Avro Source
2021-09-23 15:21:19 710
原创 Flume的安装
一、下载flume并解压1、手动下载 flume安装包下载地址下载flume2.将安装包上传到虚拟机上,并解压tar -zxvf apache-flume-1.8.0-bin.tar.gz -C /export/software/3.重命名 mv apache-flume-1.8.0-bin flume4.修改环境变量5.修改配置文件 cd flume/conf/ mv flume-env.sh.template flume-e
2021-09-23 14:32:03 148
原创 Spark-Shell的启动与运行
一、运行spark-shell命令执行spark-shell命令就可以进入Spark-Shell交互式环境。命令如下:spark-shell --master <master-url>上述命令中,–master表示指定当前连接的Master节点,master-url用于指定spark的运行模式,可取的参考值如下所示:参数名称功能描述liocal使用一个Worker线程本地化运行Sparkliocal[*]本地运行spark,其工作线程数量与本机CPU逻
2021-08-09 14:18:45 2697
原创 Spark2.1.0安装和配置
一、scala的安装与配置1.scala的下载下载地址为:scala下载地址2.scala的安装与配置(1)安装包的解压tar -zxvf scala-2.12.14.tgzmv scala-2.12.14 /export/software/(2)环境变量的配置在命令行中输入如下命令,打开profile配置文件vi /etc/profile打开profile文件后在文件末尾加入如下配置语句:然后再命令行中输入source/etc/profile使环境变量生效。在命令行输入sc
2021-07-27 15:24:58 855
原创 Mapreduce编程(一)-----WordCount程序编写及运行
一、MapReduce概述 MapReduce的核心思想是“分而治之”,就是把一个复杂的问题,按照一定的“分解”方式分为等价的规模较小的若干部分,然后逐个解决,分别找出各部分的结果,把各部分的结果组成整个问题的结果。 Map Reduce作为一种分布式计算模型,它主要用于解决海量数据的计算问题。使用MapReduce分析海量数据时,每个MapReduce程序被初始化为一个工作任务,每个工作任务可以分为Map和Reduce两个阶段,具体介绍如下:List item...
2021-05-24 15:57:59 1145 4
原创 Hadoop平台搭建
一、修改主机名在Centos7中直接使用root用户执行hostnamectl命令修改,重启后永久生效。hostnamectl set-hostname 新主机名要求:三台主机的名字分别为:master slave1 slave2[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aAHdQIuT-1620739634507)(C:\Users\Hangerhui\AppData\Roaming\Typora\typora-user-images\162073
2021-05-11 21:28:25 3098 4
Java中JFrame窗口组件案例及源代码.rar
2021-01-24
kafka启动一段时间后报错,如何解决
2023-11-20
scala报错,如何解决?
2023-11-15
TA创建的收藏夹 TA关注的收藏夹
TA关注的人