自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(109)
  • 收藏
  • 关注

原创 【spark学习 | sparkstreaming 与kafka】使用sparkstreaming与kafka相结合进行实时处理数据(文件流)

System.err.println("用法: KafkaWordProducer ")// Kafka生产者属性// 文件路径val filePath = "/home/hadoop/bilibili/streaming/data/part2.txt" // 假设数据文件名为 part2.txt// 记录已发送的行数// 等待一段时间再次检查文件是否有新内容// 不会执行到这里,因为循环会一直运行。

2024-05-07 16:23:35 235 1

原创 远程连接ubantu虚拟机mysql

开启tftp客户端然后进入ubantu找到 bind-address 这一行,将其注释掉或修改为 0.0.0.0,这样 MySQL 就会监听所有网络接口要实现主机通过 Navicat 连接到虚拟机中的 Ubuntu 系统上的 MySQL 数据库,你需要确保虚拟机的网络配置允许外部连接,并且 MySQL 服务配置正确。

2024-07-01 20:15:02 928 1

原创 安装打包工具0.13.11使用jar包(通用0.13.x)

插入语句:typesafe:artifactartifact.[ext]按esc退出编辑并且输入:wq退出。

2024-07-01 20:11:47 1004

原创 window创建anaconda环境并且搭载在Jupyter

这样,你就可以在 Jupyter Notebook 中使用你的虚拟环境了。注意,每个虚拟环境都需要单独地在 Jupyter Notebook 中进行添加。添加到 Jupyter Notebook 中,并将其显示为。Jupyter Notebook 应在浏览器中打开。

2024-07-01 20:08:59 223

原创 使用插件aplayer和MeingJS在hexo文章内添加音乐

title: “在Hexo博客中使用APlayer和Meting音乐播放器”

2024-07-01 20:05:32 708

原创 使用node+socket搭建一个星铁聊天室

使用node+socket搭建一个星铁聊天室👻👻 要实现一个基于Node.js和Socket.IO的网页聊天室创建一个Node.js项目。安装必要的依赖库。设置服务器端Socket.IO。创建客户端HTML和JavaScript代码。实现聊天功能,支持三个角色:阿晴、瓦尔特、三月七。1. 创建Node.js项目首先,初始化一个新的Node.js项目:mkdir cha

2024-07-01 19:37:12 937

原创 写一个简单的星铁对话发送信息

【代码】写一个简单的星铁对话发送信息👻👻。

2024-07-01 19:28:51 191

原创 如何设置虚拟机里面的neo4j可以在本机访问

操作系统:Ubuntu 16.04(虚拟机)数据库:neo4j-community-3.5.12-unix.tar.gz网络配置:桥接模式或NAT模式ifconfig或ip a查看IP地址,ufw配置防火墙。

2024-06-20 16:51:37 946

原创 [spark | 机器学习]房屋实时推荐系统和离线推荐系统开发

一个可以又可视化界面操作的实时推荐系统和离线推荐系统详细开发

2024-06-17 10:26:21 875

原创 【node学习】使用node简单搭建一个网页和todo

Express 是一个快速、开放、极简的 Node.js web 应用框架。的文件夹,可以在其中存放静态文件,如 CSS、JavaScript、图片等。首先,需要安装 Node.js 和 npm(Node 包管理器)。的文件夹,并在其中创建一个名为。,可以看到一个包含动态内容的网页。这会在项目目录中创建一个。在项目目录中创建一个名为。在项目目录中创建一个名为。在项目目录中创建一个名为。

2024-06-14 16:28:08 335

原创 【node学习】基础项目操作文档:使用 Express、MongoDB 驱动 和 Core 实现对 MongoDB 数据的插入、查询和更新

现在你已经创建了一个基础的 Express 项目,并使用 MongoDB 驱动程序与 MongoDB 进行交互。打开浏览器,访问,你可以看到一个简单的界面,可以插入、查询和更新用户数据。

2024-06-14 15:44:13 368

原创 【node学习】基础项目操作文档:使用 Express、Mongoose 和 Core 实现对 MongoDB 数据的插入、查询和更新

基础项目操作文档:使用 Express、Mongoose 和 Core 实现对 MongoDB 数据的插入、查询和更新1. 项目初始化首先,确保你已经安装了 Node.js 和 npm。然后,在你的项目目录中初始化一个新的 Node.js 项目。mkdir myprojectcd myprojectnpm init -y2. 安装必要的依赖安装 Express、Mongoose 和一些其他需要的包。npm install express mongoose body-parser cors

2024-06-14 15:39:56 227

原创 【node学习】mongoose和mongodb在node.js使用的区别

Mongoose提供更高级别的抽象,包括数据模式和验证,适合需要管理数据关系的应用。MongoDB驱动程序提供更底层的操作,适合需要更细粒度控制和性能优化的应用。选择使用哪个库取决于具体的需求和项目复杂度。

2024-06-14 13:09:19 678

原创 卸载mongodb

要卸载在 Linux 系统上手动安装的 MongoDB 7.0.1,你可以按照以下步骤操作。这里假设你的 MongoDB 安装在目录下。

2024-06-14 12:48:18 180

原创 【工具】房屋推荐系统使用工具

房屋推荐系统对于一个房屋推荐系统,使用 Node.js 为基础是个不错的选择,因为它可以处理大量的并发连接,并且拥有丰富的生态系统和库支持。

2024-06-14 12:46:33 269

原创 安装mongosh

版本为mongodb5.0以上,使用mongosh(mongodb shell)以下是详细的步骤来安装。

2024-06-14 12:44:50 235

原创 在 Ubuntu 22.04上配置 redis 单节点服务器并启用远程连接

在Ubuntu 22.04上配置Redis单节点服务器以启用远程连接的过程可以分为几个步骤。以下教程将指导你完成安装Redis,配置以允许远程连接,调整防火墙规则,并验证设置的完整性。

2024-06-11 15:55:24 1426

原创 在 Ubuntu 22.04上配置 MongoDB7.0 单节点服务器并启用远程连接

本文将详细讨论在 Ubuntu 系统上安装和配置 MongoDB 单节点服务器,以及设置远程连接。

2024-06-09 21:32:18 1221

原创 安装mongosh进行操作mongo文档

mongodb5.0以后没有mongo命令,要安装更强操作mongosh

2024-06-09 21:29:42 301

原创 【工具】开发node学习

在开发 Node.js 应用程序时,有许多工具和编辑器提高效率、简化开发过程。

2024-06-07 17:04:07 651

原创 阳光热线问政平台爬取数据分析学习,词云分析(详细版)

html/body/div[2]/div[3]/ul[2]/li//span[@class=‘state1’]/text()这样提取里面的内容。我们继续操作不难发现li标签可以提取到一行数据,并且第二行是li[2],第三行是li[3],按照这种思路我们可以把他们作为一组来提取。提取的思路就是按照里面的语法,我们来看看html元素。我们选中里面表格的元素进行点击检查,这个就实现一个页面我们如何提取数据。然后我们来处理开发下一页的逻辑。复制后我们点击下载好的插件。我们再进行词云分析学习。

2024-06-03 15:58:26 349

原创 js使用的请求有哪些

Asynchronous JavaScript and XML,是一种创建交互式网页应用的网页开发技术,通过在后台与服务器进行少量数据交换,可以使网页实现异步更新。这些是一些常见的JavaScript请求方法的示例,你可以根据具体的需求选择合适的方法来发起网络请求。:一种在单个TCP连接上进行全双工通信的协议,能够实现客户端和服务器之间的实时双向数据传输。:新一代的网络请求API,提供更强大和灵活的功能,并且支持 Promise 对象。:传统的发起HTTP请求的方式,可以实现异步数据交换。

2024-05-30 02:11:43 398

原创 flink这个窗口计算有什么用呢,有啥实用的例子,我为什么一定要保证等他到才计算,计算完后我后面干什么

通过确保事件数据的完整性和准确性,你可以进行精确的实时分析和决策,这对于业务的动态调整和优化非常重要。无论是评估促销活动的效果、调整营销策略还是优化库存管理,事件时间和水印的计算都起到了至关重要的作用。

2024-05-28 02:02:05 592

原创 举例解释flink中的水印和事件时间提取逻辑

水印和事件时间提取逻辑帮助流式处理系统准确地管理基于事件时间的数据,处理延迟到达的数据,确保处理结果的正确性。例如,在我们的在线购物平台订单处理场景中,水印确保了即使订单数据延迟到达,系统也能正确地进行统计和分析。

2024-05-28 01:59:06 285

原创 我们来了解一下运行flink流处理运行的结果的疑惑(计算平均价格,使用处理时间)

解释一下flink流处理的输出结果

2024-05-28 01:48:39 415

原创 Flink 中默认是按照事件时间(Event Time)来进行处理的,而不是按照数据顺序,这个是啥意思呢?

在事件时间(Event Time)处理中,Flink 会根据每个事件自身携带的时间戳来处理数据,而不是按照数据到达的顺序。这样可以处理乱序数据,并在数据延迟的情况下依然保证计算的准确性。在这种情况下,尽管订单1是最早生成的,它被最后处理。这种方法可能导致计算结果不准确,特别是在处理需要时间顺序的数据时,例如计算每分钟的订单总数。订单数据从不同的地区发送到数据中心,可能会因为网络延迟而乱序到达。即使订单1和订单2比订单3晚到达,通过事件时间处理,Flink 仍然可以准确地计算每分钟的订单数量。

2024-05-28 01:14:22 563

原创 计算机网络作业实验二

答:在这里我们可以看出这里我们发送了一个百度请求,他直接就返回了我们想要的ip地址,和我们理论的不同,我们无法直接看到流程中是否经过了根域名服务器和权威域名服务器。可以看出是ipv4报文结构,他发送了一个请求查询www.baidu.com的ip地址,接着我们来看dns响应的数据包(解析 www.baidu.com 域名对应的 IPv4 地址)答:从图片可以查看出:IP 报文的协议字段的值是 17。IP报文版本号:这是IPv4,因为它的首部长度字段的值是5,代表20字节,而IPv4的首部长度为20字节。

2024-05-24 20:00:50 351

原创 详细处理房地产数据,对数据进行详细分析和步骤讲解

对房地产数据进行详细的数据清洗

2024-05-24 19:54:40 735

原创 前端文档展示页面开发

前端文档展示页面开发,支持侧边栏收缩,内容样式编辑。

2024-05-16 23:21:56 398

原创 简单展示界面开发2

【代码】简单展示界面开发2。

2024-05-16 08:14:21 193

原创 简单的展示代码

【代码】简单的展示代码。

2024-05-16 08:07:07 107

原创 个人内容展示前端,支持动态显示

这是一个HTML代码,用于创建一个简单的网页。该页面是一个"Credits"页面,用于显示一些内容并提供复制功能。页面的结构包括一个标题(Credits)、一系列产品(product),每个产品都包括一个标题(title)和一个内容部分(licence),以及一个复制按钮(copy-button)。用户可以点击复制按钮将内容复制到剪贴板,支持动态显示。

2024-05-16 07:50:43 256

原创 基于文件流的structstreaming

创建一个java的maven项目,把pom.xml导入,然后修改当前的scala环境2.12.7 或者2.12.x其他版本,然后创建scala项目文件,运行程序。确保你有一个包含数据的文件夹,该文件夹的路径在代码中指定为file:///home/hadoop/Desktop/data2/。在代码中已经指定了master(“local[*]”),这意味着代码将在本地模式下运行,使用所有可用的CPU内核。数据文件应该是文本文件,每行包含以制表符分隔的字段,字段的顺序和类型需要符合代码中定义的结构。

2024-05-15 20:46:45 69

原创 kafka_sparkstreaming实现流数据处理数据

创建Topic 名为 fiction_ratings。可以看出,数据已经读取成功,并且可以每秒输出一条。在生产者运行的情况下执行消费者代码,查看输出。启动监控端,监控是否有数据发送到该主题。可以看出数据成功读取并且分析统计。注意这里也要指定号端口,主题目。启动生产者,查看监控终端。启动zookeeper。

2024-05-14 13:57:14 304

原创 决策树算法超参数调优

/ 使用BinaryClassificationEvaluator评估AUC。.setNumFolds(5) // 设置交叉验证的折数。).na.fill(0) // 填充空值为0。// 创建SparkSession。// 读取CSV文件并选择所需的列。// 执行交叉验证,并选择最佳模型。// 关闭SparkSession。// 在测试数据集上进行预测。// 实例化决策树分类器。// 在验证集上进行预测。// 对测试集进行预测。// 创建新的标签列。// 设置超参数网格。// 评估预测准确率。

2024-05-09 22:25:25 397

原创 决策树算法实现二分类

println(s"训练集行数: ${trainData.count()}, 验证集行数: ${testData.count()}").setHandleInvalid(“skip”) // 设置handleInvalid参数为"skip",跳过空值。// 使用MulticlassClassificationEvaluator评估模型在验证集上的分类准确率。).na.fill(0) // 填充空值为0。// 展示训练集和验证集的行数。// 划分训练集和验证集。// 创建新的标签列。// 创建新的标签列。

2024-05-09 22:24:04 539

原创 文件流代码

统计不同视频的播放量前十。统计不同类型出现的次数。

2024-05-07 16:02:26 103

原创 抽签程序开发

【代码】抽签程序开发。

2024-05-05 02:14:35 379

原创 变换暗亮主题切换

【代码】变换暗亮主题切换。

2024-04-30 10:30:12 88

原创 等价替换把原scrpt变成new Vue结构

等价替换把原scrpt变成new Vue结构。

2024-04-30 08:37:51 57 1

使用node+socket搭建一个星铁聊天室

现代网页聊天应用是一款基于Node.js和Socket.IO的实时聊天系统,旨在为用户提供流畅且互动性强的在线聊天体验。该应用采用前后端分离的开发模式,前端使用HTML、CSS和JavaScript构建用户界面,后端使用Node.js和Socket.IO实现实时通信功能。应用支持文字、表情、图片、音频和视频等多种消息类型的发送和接收,用户可以通过头像选择器更换自己的头像,并且群主还拥有更改聊天室名称的特权。

2024-07-01

技术关键词:HadoopMapReduceHiveFlinkKafkaECharts数据可视化数据预处理

本课程设计项目主题为"湛江链家二手房MapReduce数据分析"。项目的核心目标是利用大数据技术对湛江地区的二手房市场进行深入分析,旨在通过数据驱动的方法洞察市场趋势和房价模式。项目采用了Hadoop生态系统中的MapReduce编程模型进行数据处理和分析,同时结合了Hive和Flink等大数据处理工具进行数据的批处理和实时分析。数据预处理环节确保了数据的质量和分析的准确性。分析结果通过ECharts进行了直观的数据可视化展示,使复杂数据更易于理解和分析。此外,项目还包括了使用Kafka进行数据流处理的实践,展示了实时数据处理的能力。整个项目不仅锻炼了学生在大数据技术应用方面的能力,也提供了一个实用的二手房市场分析平台。

2024-06-25

大数据+spark+mongodb+nodejs+express+redis+scala实现实和离线房屋系统开发

内容概要,一个基于逻辑为使用node做为后端端口,使用kafka主题作为流接口,利用前端发送的数据来到kafak主题然后进行spark分析形成推荐列表进行实时推荐,并且使用历史数据实现历史推荐,使用了redis作为缓存数据库,使用mongodb作为存储历史数据数据库,前端使用html和nignx作为服务器,后端接口为express和node,后台分析使用scala+spark,适用人群为想要了解实时推荐如何实现的同学,还有如何简单实现的推荐系统操作的同学,想要了解如何使用学的spark进行数据分析推荐的同学,使用场景为推荐系统,实现实时分析推荐,目标是让大家了解一个简单实时推荐和离线推荐的逻辑和实现,代码已经都放在文件里面,大家使用的可以自取,注明:不能使用在课程作业中,只能使用日常学习和运用

2024-06-22

科学学科教学ppt,讲述科学,科学仪器介绍

科学学科教学ppt 科学学科教学ppt,讲述科学,科学仪器介绍

2024-04-22

Nosql数据库原理与应用综合项目

项目背景:针对城市化背景下房地产市场的复杂性,通过整合Redis、HBase、MongoDB和Neo4j数据库,构建一个二手房信息平台。 项目功能:实现多数据库集成、数据导入更新、高级查询和知识图谱探索。 运行环境:包括Ubuntu 16.04、Windows 11操作系统,Hadoop 2.7.1大数据框架,以及Redis、MongoDB、HBase、Neo4j等NoSQL数据库。 数据集与预处理:通过Python爬取,得到14371个二手房数据,经过合并、字段调整、空值处理等预处理步骤,形成包含15个字段的数据集。 数据库操作: HBase:进行数据导入、表的增删改查操作。 MongoDB:实现数据导入、表操作及聚合分析和Map-Reduce统计。 Redis:执行数据导入和表的基本操作。 Neo4j:完成数据导入、表操作,并构建基于知识图谱的对话系统。 项目总结:项目通过整合多种数据库和大数据框架,提供了一个高效、安全的数据管理平台。个人体会强调了技术能力的提升和对数据管理理解的加深,以及解决数据清洗和处理中遇到的问题。

2024-04-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除