zlwm000
码龄4年
关注
提问 私信
  • 博客:17,294
    问答:23
    17,317
    总访问量
  • 29
    原创
  • 1,963,904
    排名
  • 1
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:四川省
  • 加入CSDN时间: 2021-06-25
博客简介:

zlwm000的博客

查看详细资料
个人成就
  • 获得1次点赞
  • 内容获得1次评论
  • 获得25次收藏
创作历程
  • 29篇
    2022年
成就勋章
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

五.后台退出功能开发

员工登录成功后,页面跳转到后台系统首页面(backend/index.html),此时会显示当前登录用户的姓名:管理员。如果员工需要退出系统,直接点击登录用户名右侧的按钮,即可退出系统,退出系统后页面应跳转回登录页面。重启应用,访问登录页面,成功登录之后,跳转到后台首页,单击按钮,成功退出,返回后台登录页面。在脚本文件/backend/api/login.js里查看logoutApi()函数。此时单击按钮,系统会报404错误,因为我们在雇员控制器里尚未编写对应的退出处理方法。@Slf4j // 日志注解。
原创
发布博客 2022.12.20 ·
297 阅读 ·
0 点赞 ·
1 评论 ·
0 收藏

四.后台登录功能开发

(一)页面原型展示找到项目资源 - 产品原型 > 瑞吉外卖后台(管理端)- 登录.html点开登录.html页面● 登录页面有两个文本框需要用户输入用户名和密码,客户端要进行非空校验,单击【登录】按钮之后,表单数据以JSON格式通过AJAX请求方式发送到后台,后台控制器要编写相应的处理函数,对提交的数据进行业务处理,然后将处理结果返回给前端。● 不妨看一看login.html页面代码引入样式开发环境版本,包含了有帮助的命令行警告引入组件库引入axios。
原创
发布博客 2022.12.20 ·
296 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

二. 瑞吉外卖项目概述

瑞吉外卖项目概述
原创
发布博客 2022.12.20 ·
401 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

一. 软件开发流程

软件开发流程
原创
发布博客 2022.12.20 ·
161 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

三、数据库环境搭建

启动Navicat,创建mysql连接。
原创
发布博客 2022.12.20 ·
499 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

二十二、ssm框架

@TOCSSM(Spring+SpringMVC+MyBatis)框架集由Spring、MyBatis两个开源框架整合而成(SpringMVC是Spring中的部分内容),常作为数据源较简单的Web项目的框架。Spring就像是整个项目中装配的大工厂,在配置文件中可以指定使用特定的参数去调用实体类的构造方法来实例化对象。也可以称之为项目中的粘合剂。Spring的核心思想是(控制反转),即不再需要程序员去显式地一个对象,而是让Spring框架帮你来完成这一切。在项目中拦截用户请求,它的核心即承担中介或是前台这
原创
发布博客 2022.06.23 ·
203 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SSM框架用户登录

@TOCSSM(Spring+SpringMVC+MyBatis)框架集由Spring、MyBatis两个开源框架整合而成(SpringMVC是Spring中的部分内容),常作为数据源较简单的Web项目的框架。Spring就像是整个项目中装配的大工厂,在配置文件中可以指定使用特定的参数去调用实体类的构造方法来实例化对象。也可以称之为项目中的粘合剂。Spring的核心思想是(控制反转),即不再需要程序员去显式地一个对象,而是让Spring框架帮你来完成这一切。在项目中拦截用户请求,它的核心即承担中介或是前台这
原创
发布博客 2022.06.23 ·
1151 阅读 ·
0 点赞 ·
0 评论 ·
5 收藏

二一、spark RDD每日新增用户

@[TOC] 有以下用户访问历史数据,第一列为用户访问网站的日期,第二列为用户名: 通过上述数据统计每日新增的用户数量,得到以下统计结果: 使用倒排索引法,如果同一个用户对应多个访问日期,则最小的日期为该用户的注册日期,即新增日期,其他日期为重复访问日期,不应统计在内。因此每个用户应该只计算用户访问的最小日期即可。如下图所示,将每个用户访问的最小日期都移到第一列,第一列为有效数据,只统计第一列中每个日期的出现次数,即为对应日期的新增用户数。启动集群的HDFS与Spark 在HDF
原创
发布博客 2022.06.23 ·
117 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

二十、spark:计算平均分

@[TOC]预备工作:启动集群的HDFS与Spark 在上新建目录 在master虚拟机上创建三个成绩文件 将三个成绩文件上传到HDFS的/score目录 设置项目信息(项目名、保存位置、组编号、项目编号) 将java目录改成scala目录 在pom.xml文件里添加依赖与Maven构建插件 <?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache
原创
发布博客 2022.06.23 ·
519 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

十九、spring boot 和echarts表图

@[TOC]利用后端 Spring Boot 查询班级表数据,在使用Echarts 绘制各班人数柱状图。1、创建数据库创建数据库 - bootdbCREATE DATABASE bootdb; 执行命令后如下图所示 2、创建数据表创建表结构 t_classCREATE TABLE `t_class` ( `id` int(11) NOT NULL AUTO_INCREMENT, `class` varchar(50) CHARACTER SET utf8 DEFAULT NULL,
原创
发布博客 2022.06.23 ·
431 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

十八、speak框架

@[TOC]Web开发技术思维导图 从学习角度来说,理解技术问题要越透彻越好,被屏蔽或被封装起来的信息要越少越好。从工程实现角度来说,要尽量高效地使用现成框架和现成工具——这是“学习”和“工程实现”的差别,但这两件事并不矛盾,我们学习得越透彻,在工程实现时,对框架和工具的使用就越高效。网址:Spring | Home Spring Framework - Spring Framework 目前(2022-5-27)Spring Framework版本是5.3.201.Spring makes Java pr
原创
发布博客 2022.06.23 ·
395 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

十七、Spark Streaming数据源

StreamingContext API中直接提供了对一些数据源的支持,例如文件系统、Socket连接、RDD队列流等,此类数据源称为基本数据源。对于从任何与HDFS API(HDFS、S3、NFS等)兼容的文件系统上的文件中读取数据,创建DStream的方式:streamingContext.fileStreamKeyClass, ValueClass, InputFormatClass,Spark Streaming将监视目录dataDirectory并处理在该目录中的所有文件。对于简单的文本文件,创
原创
发布博客 2022.06.17 ·
526 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

十六、Spark Streaming概述

Spark Streaming是Spark Core API(Spark RDD)的扩展,支持对实时数据流进行可伸缩、高吞吐量及容错处理。数据可以从Kafka、Flume、Kinesis或TCP Socket等多种来源获取,并且可以使用复杂的算法处理数据,这些算法由map()、reduce()、join()和window()等高级函数表示。处理后的数据可以推送到文件系统、数据库等存储系统。事实上,可以将Spark的机器学习和图形处理算法应用于数据流。使用Spark Streaming可以很容易地构建可伸缩
原创
发布博客 2022.06.17 ·
499 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

十五、Spark SQL案例分析

创建Maven项目 - SparkSQLWordCount在pom.xml文件里添加依赖和构建插件4.0.0#### (四)修改源目录名称将源目录名由java改成scala![在这里插入图片描述](https://img-blog.csdnimg.cn/ef8d47f8d78a4c79b6c0fed3ef7ce411.png)在pom.xml文件里,设置源目录![在这里插入图片描述](https://img-blog.csdnimg.cn/181621dbaaad49c6bb6eb86d67c
原创
发布博客 2022.06.17 ·
406 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

十四、Spark SQL内置函数

Spark SQL内置了大量的函数,位于API org.apache.spark.sql.functions中。这些函数主要分为10类:UDF函数、聚合函数、日期函数、排序函数、非聚合函数、数学函数、混杂函数、窗口函数、字符串函数、集合函数,大部分函数与Hive中相同。使用内置函数有两种方式:一种是通过编程的方式使用;另一种是在SQL语句中使用。读取HDFS上的people.json,得到数据帧,执行命令:val peopleDF = spark.read.json(“hdfs://master:9000/
原创
发布博客 2022.06.17 ·
2704 阅读 ·
0 点赞 ·
0 评论 ·
7 收藏

十三、Spark SQL数据源 - JDBC

Spark SQL还可以使用JDBC API从其他关系型数据库读取数据,返回的结果仍然是一个DataFrame,可以很容易地在Spark SQL中处理,或者与其他数据源进行连接查询。在使用JDBC连接数据库时可以指定相应的连接属性创建表student,执行命令:CREATE TABLE student (id INT, name VARCHAR(10), gender VARCHAR(2), age INT);启动Spark Shell读取student表val studentDF = spark.
原创
发布博客 2022.06.17 ·
623 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

十二、Spark SQL数据源 - Hive表

Spark SQL还支持读取和写入存储在Apache Hive中的数据。然而,由于Hive有大量依赖项,这些依赖项不包括在默认的Spark发行版中,如果在classpath上配置了这些Hive依赖项,Spark就会自动加载它们。需要注意的是,这些Hive依赖项必须出现在所有Worker节点上,因为它们需要访问Hive序列化和反序列化库(SerDes),以便访问存储在Hive中的数据。在使用Hive时,必须实例化一个支持Hive的SparkSession对象。若系统中没有部署Hive,则仍然可以启用Hive
原创
发布博客 2022.06.17 ·
2317 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

十一、Spark SQL数据源 - JSON数据集

Spark SQL可以自动推断JSON文件的Schema,并将其加载为DataFrame。在加载和写入JSON文件时,除了可以使用load()方法和save()方法外,还可以直接使用Spark SQL内置的json()方法。该方法不仅可以读写JSON文件,还可以将Dataset[String]类型的数据集转为DataFrame。需要注意的是,要想成功地将一个JSON文件加载为DataFrame,JSON文件的每一行必须包含一个独立有效的JSON对象,而不能将一个JSON对象分散在多行。创建user.jso
原创
发布博客 2022.06.17 ·
622 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

十、Spark SQL数据源 - Parquet文件

Apache Parquet是Hadoop生态系统中任何项目都可以使用的列式存储格式,不受数据处理框架、数据模型和编程语言的影响。Spark SQL支持对Parquet文件的读写,并且可以自动保存源数据的Schema。当写入Parquet文件时,为了提高兼容性,所有列都会自动转换为“可为空”状态。加载和写入Parquet文件时,除了可以使用load()方法和save()方法外,还可以直接使用Spark SQL内置的parquet()方法执行命令:val usersdf = spark.read.parque
原创
发布博客 2022.06.17 ·
866 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

那个编程软件好用点?

发布问题 2022.06.16 ·
2 回答
加载更多