自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(29)
  • 问答 (1)
  • 收藏
  • 关注

原创 五.后台退出功能开发

员工登录成功后,页面跳转到后台系统首页面(backend/index.html),此时会显示当前登录用户的姓名:管理员。如果员工需要退出系统,直接点击登录用户名右侧的按钮,即可退出系统,退出系统后页面应跳转回登录页面。重启应用,访问登录页面,成功登录之后,跳转到后台首页,单击按钮,成功退出,返回后台登录页面。在脚本文件/backend/api/login.js里查看logoutApi()函数。此时单击按钮,系统会报404错误,因为我们在雇员控制器里尚未编写对应的退出处理方法。@Slf4j // 日志注解。

2022-12-20 21:15:43 439

原创 四.后台登录功能开发

(一)页面原型展示找到项目资源 - 产品原型 > 瑞吉外卖后台(管理端)- 登录.html点开登录.html页面● 登录页面有两个文本框需要用户输入用户名和密码,客户端要进行非空校验,单击【登录】按钮之后,表单数据以JSON格式通过AJAX请求方式发送到后台,后台控制器要编写相应的处理函数,对提交的数据进行业务处理,然后将处理结果返回给前端。● 不妨看一看login.html页面代码引入样式开发环境版本,包含了有帮助的命令行警告引入组件库引入axios。

2022-12-20 21:09:43 366

原创 二. 瑞吉外卖项目概述

瑞吉外卖项目概述

2022-12-20 20:41:45 509

原创 一. 软件开发流程

软件开发流程

2022-12-20 20:39:51 204

原创 三、数据库环境搭建

启动Navicat,创建mysql连接。

2022-12-20 20:19:32 548

原创 二十二、ssm框架

@TOCSSM(Spring+SpringMVC+MyBatis)框架集由Spring、MyBatis两个开源框架整合而成(SpringMVC是Spring中的部分内容),常作为数据源较简单的Web项目的框架。Spring就像是整个项目中装配的大工厂,在配置文件中可以指定使用特定的参数去调用实体类的构造方法来实例化对象。也可以称之为项目中的粘合剂。Spring的核心思想是(控制反转),即不再需要程序员去显式地一个对象,而是让Spring框架帮你来完成这一切。在项目中拦截用户请求,它的核心即承担中介或是前台这

2022-06-23 17:38:59 241

原创 SSM框架用户登录

@TOCSSM(Spring+SpringMVC+MyBatis)框架集由Spring、MyBatis两个开源框架整合而成(SpringMVC是Spring中的部分内容),常作为数据源较简单的Web项目的框架。Spring就像是整个项目中装配的大工厂,在配置文件中可以指定使用特定的参数去调用实体类的构造方法来实例化对象。也可以称之为项目中的粘合剂。Spring的核心思想是(控制反转),即不再需要程序员去显式地一个对象,而是让Spring框架帮你来完成这一切。在项目中拦截用户请求,它的核心即承担中介或是前台这

2022-06-23 17:34:05 1248

原创 二一、spark RDD每日新增用户

@[TOC] 有以下用户访问历史数据,第一列为用户访问网站的日期,第二列为用户名: 通过上述数据统计每日新增的用户数量,得到以下统计结果: 使用倒排索引法,如果同一个用户对应多个访问日期,则最小的日期为该用户的注册日期,即新增日期,其他日期为重复访问日期,不应统计在内。因此每个用户应该只计算用户访问的最小日期即可。如下图所示,将每个用户访问的最小日期都移到第一列,第一列为有效数据,只统计第一列中每个日期的出现次数,即为对应日期的新增用户数。启动集群的HDFS与Spark 在HDF

2022-06-23 17:32:24 154

原创 二十、spark:计算平均分

@[TOC]预备工作:启动集群的HDFS与Spark 在上新建目录 在master虚拟机上创建三个成绩文件 将三个成绩文件上传到HDFS的/score目录 设置项目信息(项目名、保存位置、组编号、项目编号) 将java目录改成scala目录 在pom.xml文件里添加依赖与Maven构建插件 <?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache

2022-06-23 17:29:33 575

原创 十九、spring boot 和echarts表图

@[TOC]利用后端 Spring Boot 查询班级表数据,在使用Echarts 绘制各班人数柱状图。1、创建数据库创建数据库 - bootdbCREATE DATABASE bootdb; 执行命令后如下图所示 2、创建数据表创建表结构 t_classCREATE TABLE `t_class` ( `id` int(11) NOT NULL AUTO_INCREMENT, `class` varchar(50) CHARACTER SET utf8 DEFAULT NULL,

2022-06-23 17:25:57 501

原创 十八、speak框架

@[TOC]Web开发技术思维导图 从学习角度来说,理解技术问题要越透彻越好,被屏蔽或被封装起来的信息要越少越好。从工程实现角度来说,要尽量高效地使用现成框架和现成工具——这是“学习”和“工程实现”的差别,但这两件事并不矛盾,我们学习得越透彻,在工程实现时,对框架和工具的使用就越高效。网址:Spring | Home Spring Framework - Spring Framework 目前(2022-5-27)Spring Framework版本是5.3.201.Spring makes Java pr

2022-06-23 17:23:20 445

原创 十七、Spark Streaming数据源

StreamingContext API中直接提供了对一些数据源的支持,例如文件系统、Socket连接、RDD队列流等,此类数据源称为基本数据源。对于从任何与HDFS API(HDFS、S3、NFS等)兼容的文件系统上的文件中读取数据,创建DStream的方式:streamingContext.fileStreamKeyClass, ValueClass, InputFormatClass,Spark Streaming将监视目录dataDirectory并处理在该目录中的所有文件。对于简单的文本文件,创

2022-06-17 09:21:00 580

原创 十六、Spark Streaming概述

Spark Streaming是Spark Core API(Spark RDD)的扩展,支持对实时数据流进行可伸缩、高吞吐量及容错处理。数据可以从Kafka、Flume、Kinesis或TCP Socket等多种来源获取,并且可以使用复杂的算法处理数据,这些算法由map()、reduce()、join()和window()等高级函数表示。处理后的数据可以推送到文件系统、数据库等存储系统。事实上,可以将Spark的机器学习和图形处理算法应用于数据流。使用Spark Streaming可以很容易地构建可伸缩

2022-06-17 09:19:57 572

原创 十五、Spark SQL案例分析

创建Maven项目 - SparkSQLWordCount在pom.xml文件里添加依赖和构建插件4.0.0#### (四)修改源目录名称将源目录名由java改成scala![在这里插入图片描述](https://img-blog.csdnimg.cn/ef8d47f8d78a4c79b6c0fed3ef7ce411.png)在pom.xml文件里,设置源目录![在这里插入图片描述](https://img-blog.csdnimg.cn/181621dbaaad49c6bb6eb86d67c

2022-06-17 09:18:58 461

原创 十四、Spark SQL内置函数

Spark SQL内置了大量的函数,位于API org.apache.spark.sql.functions中。这些函数主要分为10类:UDF函数、聚合函数、日期函数、排序函数、非聚合函数、数学函数、混杂函数、窗口函数、字符串函数、集合函数,大部分函数与Hive中相同。使用内置函数有两种方式:一种是通过编程的方式使用;另一种是在SQL语句中使用。读取HDFS上的people.json,得到数据帧,执行命令:val peopleDF = spark.read.json(“hdfs://master:9000/

2022-06-17 09:17:58 2818

原创 十三、Spark SQL数据源 - JDBC

Spark SQL还可以使用JDBC API从其他关系型数据库读取数据,返回的结果仍然是一个DataFrame,可以很容易地在Spark SQL中处理,或者与其他数据源进行连接查询。在使用JDBC连接数据库时可以指定相应的连接属性创建表student,执行命令:CREATE TABLE student (id INT, name VARCHAR(10), gender VARCHAR(2), age INT);启动Spark Shell读取student表val studentDF = spark.

2022-06-17 09:16:43 675

原创 十二、Spark SQL数据源 - Hive表

Spark SQL还支持读取和写入存储在Apache Hive中的数据。然而,由于Hive有大量依赖项,这些依赖项不包括在默认的Spark发行版中,如果在classpath上配置了这些Hive依赖项,Spark就会自动加载它们。需要注意的是,这些Hive依赖项必须出现在所有Worker节点上,因为它们需要访问Hive序列化和反序列化库(SerDes),以便访问存储在Hive中的数据。在使用Hive时,必须实例化一个支持Hive的SparkSession对象。若系统中没有部署Hive,则仍然可以启用Hive

2022-06-17 09:15:21 2387

原创 十一、Spark SQL数据源 - JSON数据集

Spark SQL可以自动推断JSON文件的Schema,并将其加载为DataFrame。在加载和写入JSON文件时,除了可以使用load()方法和save()方法外,还可以直接使用Spark SQL内置的json()方法。该方法不仅可以读写JSON文件,还可以将Dataset[String]类型的数据集转为DataFrame。需要注意的是,要想成功地将一个JSON文件加载为DataFrame,JSON文件的每一行必须包含一个独立有效的JSON对象,而不能将一个JSON对象分散在多行。创建user.jso

2022-06-17 09:14:05 680

原创 十、Spark SQL数据源 - Parquet文件

Apache Parquet是Hadoop生态系统中任何项目都可以使用的列式存储格式,不受数据处理框架、数据模型和编程语言的影响。Spark SQL支持对Parquet文件的读写,并且可以自动保存源数据的Schema。当写入Parquet文件时,为了提高兼容性,所有列都会自动转换为“可为空”状态。加载和写入Parquet文件时,除了可以使用load()方法和save()方法外,还可以直接使用Spark SQL内置的parquet()方法执行命令:val usersdf = spark.read.parque

2022-06-17 09:10:38 981

原创 九、Spark SQL数据源 - 基本操作

Spark SQL提供了两个常用的加载数据和写入数据的方法

2022-06-16 11:31:50 516

原创 八、Scala类和对象

对象是类的具体实例,类是抽象的,不占用内存,而对象是具体的,占用存储空间。面向对象三大特性之一:封装(encapsulation) - 封装数据和操作Scala中一个简单的类定义是使用关键字class,类名必须大写。类中的方法用关键字def定义创建User类,包含三个私有属性和一个公共方法class User {private var name = “张三丰”private var gender = “男”private var age = 25单例对象(一)单例对象概念Scala中没

2022-06-16 11:30:18 550

原创 七、Scala数据结构

Array的API文档:https://www.scala-lang.org/api/2.11.x/index.html#scala.Array自动推断数组类型手动指定数据类型ArrayBuffer的API文档:https://www.scala-lang.org/api/2.11.x/index.html#scala.collection.mutable.ArrayBuffer变长数组使用类scala.collection.mutable.ArrayBuffer进行定义定义一个变长Int类型数组arr

2022-06-16 11:28:48 206

原创 六、Scala函数

[public | private | protected] def 函数名(参数列表) : 返回值声明 = {函数体}注意事项函数通过def关键字定义def前面可以具有修饰符,可以通过private、protected来控制其访问权限。注意默认访问权限是public还可使用override、final等关键字修饰函数体中return关键字往往可以省略掉,一旦省略掉,函数将会返回整个函数体中最后一行表达式的值,这也要求整个函数体的最后一行必须是正确类型的值的表达式scala一般都可以自动推断出返

2022-06-16 11:27:47 242

原创 五、Scala内建控制结构

op运算符与.op方法调用是等价的,op表示运算符:+、-、*、/……演示x + y与x.+(y)的等价性str.indexOf(‘c’) 与 str indexOf ‘c’ 是等价的Scala和Java运算符基本相同,不同之处在于比较运算符。Java中,如果是基本数据类型,==与!= 比较的是值;如果是复杂数据类型,比较的是对象的地址,如果不是想比较地址而是想比较真正的内容,则需要使用 equals 方法。Scala中,如果是基本数据类型,==与!= 比较的是值;如果是复杂数据类型,会隐含地调用

2022-06-16 11:25:35 184

原创 四、Scala运算符

op运算符与.op方法调用是等价的,op表示运算符:+、-、*、/……演示x + y与x.+(y)的等价性str.indexOf(‘c’) 与 str indexOf ‘c’ 是等价的Scala和Java运算符基本相同,不同之处在于比较运算符。Java中,如果是基本数据类型,==与!= 比较的是值;如果是复杂数据类型,比较的是对象的地址,如果不是想比较地址而是想比较真正的内容,则需要使用 equals 方法。Scala中,如果是基本数据类型,==与!= 比较的是值;如果是复杂数据类型,会隐含地调用

2022-06-16 11:24:19 114

原创 三、Scala集成开发环境

Scala for Eclipse IDE为纯Scala和混合Scala与Java应用程序的开发提供了高级编辑功能,并且有非常好用的Scala调试器、语义突出显示、更可靠的JUnit测试查找器等。Scala for Eclipse IDE的安装有两种方式:一种是在Eclipse中单击Help菜单,然后选择Install new Software…在线安装Scala插件;另一种是直接下载已经集成好Scala IDE的Eclipse。现在无法访问官网(http://scala-ide.org/),Scala

2022-06-16 11:23:12 109

原创 二、Scala变量与数据类型

Scala中变量的声明使用关键字val和var。val类似Java中的final变量,也就是常量,一旦初始化将不可修改;var类似Java中的非final变量,可以被多次赋值,多次修改。val - value - 值var - variable - 变量1、声明方式val [: 数据类型] = 变量值定义变量比较灵活,可以指定数据类型,也可以不指定数据类型,由Scala根据赋的值自行判断数据类型在声明变量上,Scala兼具Java和Python的特点。Java是静态语言,声明变量必须指定...

2022-06-16 11:20:55 292

原创 一、Scala简介与安装

Scala是Scalable Language的简写,是一门多范式的编程语言,由联邦理工学院洛桑(EPFL)的Martin Odersky于2001年基于Funnel的工作开始设计,设计初衷是要集成面向对象编程和函数式编程的各种特性。Scala是一种将面向对象和函数式编程结合在一起的高级语言,旨在以简洁、优雅和类型安全的方式表达通用编程模式。Scala功能强大,不仅可以编写简单脚本,还可以构建大型系统。Scala运行于Java平台,Scala程序会通过JVM被编译成class字节码文件,然后在操作系统上

2022-06-16 11:14:12 737

原创 hadoop-在私有云上创建与配置虚拟机

单击“项目 - 计算 - 镜像”单击“项目 - 计算 - 实例”单击“身份管理 - 项目”单击“项目 - 计算 - 实例”单击【创建实例】按钮,在弹出的对话框里输入实例名称,设置描述单击【下一项】按钮,选择镜像源,创建新卷选择“否”单击可用栏目里的WindowsThinPC最右边的【 ↑ \uparrow ↑】按钮单击【下一项】按钮,分配实例类型 - m1.medium单击【下一项】按钮,分配网络 - 校园网(外网)单击【下一项】按钮,分配网络接口 - default单击【创建实例】按

2022-02-27 20:17:51 1731

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除