scala+springboot大数据分析-预测

一、环境配置

idea 2021.3.3
mysql 8.0.31
spark 3.0.0
scala 2.12
hbase 2.5.5
hadoop 2.10.2
zookeeper 3.4.12

        需打开ubuntu下的hadoop、zookeeper、hbase,从hbase导进源文件后存入本地mysql数据库后再进行操作

二、项目操作

1、sparkProcess、forecost子模块中创建自己的数据库,
数据库名称-sleep_life_db,在application.yml、DBTool和Demo文件中
仅修改数据库名以及账号密码
    ——我的数据库名:sleep_life_db
    ——账号:root
    ——密码:****@qq.com

各数据表展示

                        

 2、在sparkBoot子模块中运行SpringAPP.java文件
    运行web成功后输入网址
    总展示页面 http://localhost:8080/index.html
    点击页面的链接——Continue后自动跳转到
    预测分析展示表格 http://localhost:8080/index2.html
    点击页面的链接——Continue后自动跳转到
    预测分析echarts展示 http://localhost:8080/pages/test_js.html

三、项目结构

        在该项目中分为三大模块:forecost、sparkBoot、sparkProcess

1、sparkProcess模块
(1)作用:数据集的拆分分析
(2)文件:
            process目录:hbase中引入数据,并进行数据分析,在数据库中生成各种数据表,以便展示使用
            util目录:
                        a.DBTool文件:连接本地数据库并可写入数据库
                        b.HBaseTools文件:连接ubuntu中的hbase数据库,并导入所需的hbase中的数据集
            其它文件(DBTool和Demo):实现本地连接,测试

2、forecost模块
(1)作用:实现部分数据集的预测分析
(2)文件:
            a.Machine_Learning_health.scala文件,作为线性回归模型来实现数据集的预测以及实际对比
            b.DBTool文件,连接并可写入数据库

3、sparkBoot模块
(1)作用:springboot服务器启动,进行数据展示
(2)文件:
            java目录下
                        Controller目录:路由设置
                        Dao目录:返回值模型设置
                        SpringAPP文件:启动springboot项目
            resources目录下
                        mapper目录:设置sql语句调用
                        static目录:
                                    整合多个echarts图表和预测分析图表

四、项目展示

首页

 预测表格

预测数据Echarts展示

五、下载

源数据集:health.csv · xiaojiang/scala+springboot大数据分析-预测 - 码云 - 开源中国 (gitee.com)icon-default.png?t=N658https://gitee.com/Nal_9526/scala-springboot/blob/master/health.csv

项目源代码:

f_end.rar · xiaojiang/scala+springboot大数据分析-预测 - 码云 - 开源中国 (gitee.com)icon-default.png?t=N658https://gitee.com/Nal_9526/scala-springboot/blob/master/f_end.rar

scala是一种现代化的编程语言,被广泛应用于大数据分析领域。它是一种静态类型的语言,具有高度的可扩展性和灵活性,有助于开发高效且易于维护的代码。Scala与Java有着密切的关系,因此可以很方便地与现有的Java代码进行交互。 而Spark是一个用于大规模数据处理的分布式计算框架。它提供了一套丰富的API和工具,使得大数据分析过程可以更加高效地进行。Spark支持各种常见的大数据处理任务,包括数据清洗、转换、模型训练和预测等。在Spark中,我们可以使用Scala编写分析代码,利用其强大的函数式编程特性和并行计算能力,来处理大规模的数据集。 将Scala和Spark结合起来,可以获得一个强大而灵活的大数据分析平台。Scala的简洁语法和函数式编程特性可以减少代码的编写量,并提供高度抽象的表达能力。而Spark的分布式计算框架可以以高性能处理海量的数据,并提供各种优化策略,以确保数据分析的效率和准确性。 因此,Scala和Spark的组合是大数据分析领域的一种理想选择。它们的结合可以提供高效、可扩展和易维护的大数据分析解决方案,帮助我们更好地处理和分析海量的数据,并从中获取有价值的信息和洞察力。无论是在商业还是学术领域,Scala和Spark都在大数据分析领域发挥着重要的作用,并为我们带来了更快、更有效的数据分析方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值