自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(46)
  • 收藏
  • 关注

原创 【香橙派5】使用frp建立香橙派内网穿透

在香橙派上建立frp内网穿透

2024-07-11 13:03:27 401

原创 【物联网实战项目】STM32C8T6+esp8266/mqtt+dht11+onenet+uniapp

在onenet官网创建设备,名字地区随便写,创建成功后点击设备详情页面。2、ch340串口连接底座(注意RXD和TXD的连接方式)1、stm32c8t6开发板连接stlinkv2下载线。附上main.c一部分代码文件。4、产品开发栏进行添加属性。

2024-05-27 17:48:36 2014 1

原创 【STM32】串口助手接受数据是乱码如何解决

打开工程,找到此文件(stm32f10x.h)的这个位置,如工程中未添加,可以从此文件(system_stm32f10x.c)第65行进行跳转。将自己使用的外部晶振系数修改一下,我的是c8t6,外部晶振为8Mhz,所以修改这个地方为8000000,大家根据自己的晶振实际参数进行修改。找到此文件(system_stm32f10x.c)的第1056行,进行倍频修改,按照72Mhz。我的配置为 8MHz * 9 =72MHz,所以此处我改为9倍频,大家根据实际情况修改。

2024-03-11 19:10:57 2150 1

原创 【stm32Cubemx】STM32F103zet6战舰v3开发板——用PWM功能实现LED呼吸灯

stm32F103ZET6战舰开发板使用pwm输出led呼吸灯

2024-03-06 14:40:36 804

原创 STM32——创建HAL库工程

stm32入门,创建hal库工程

2024-01-26 22:54:56 1075

原创 免费激活Vmware16且配置虚拟机网络

今天从头配置了一台虚拟机,遇到了点问题,记录一下从头开始的过程,以便下次查看。

2024-01-26 15:15:29 1129

原创 Sublime text免费安装教程

链接:链接:https://pan.baidu.com/s/1HZr11nl_qUZ8SuIFRK3fxg提取码:4mg9。

2023-09-24 17:46:49 547

原创 搭建大数据平台常用的端口号

7077:spark基于standalone的提交任务的端口号。18080:historyServer的webUI的端口号。8080:master的webUI,Tomcat的端口号。4040:application的webUI的端口号。9083:hive的metastore的端口号。8081:worker的webUI的端口号。60010:Hbase的webUI的端口号。50070:HDFSwebUI的端口号。8088:yarn的webUI的端口号。8080:sparkwebUI的端口号。

2023-09-24 12:12:31 226

原创 SpringBoot入门到入土

SpringBoot是Spring中的一个成员, 可以简化Spring,SpringMVC的使用。他的核心还是IOC容器。特点:创建spring应用内嵌的tomcat, jetty , Undertow提供了starter起步依赖,简化应用的配置。比如使用MyBatis框架 , 需要在Spring项目中,配置MyBatis的对象 SqlSessionFactory , Dao的代理对象。

2023-09-24 09:50:03 177

原创 Vue出现Use // eslint-disable-next-line to ignore the next line.

在你创建的脚手架目录下找到名为vue.config.js的文件添加以下代码即可成功。

2023-09-24 09:46:17 78

原创 docker: Error response from daemon: pull access denied for 9c, repository does not exist or may requ

遇到此问题,直接进行重启docker。

2023-09-24 09:44:13 2107

原创 服务器被植入挖矿病毒-xmrig

今天早晨登录宝塔面板发现服务器CPU占用率和内存都爆满了,赶紧检查一下服务器的进程使用top命令查看服务器的cpu和内存占用情况。

2023-09-24 09:41:56 1694

原创 宝塔面板配置java项目遇到的问题

添加项目的时候,由于宝塔会自动创建新用户来执行jar包导致用户权限不足,然后就一直出现这个报错

2023-09-24 09:40:15 447

原创 伪分布模式下Hadoop启动没有namenode节点

发现是我的docker代理在使用9000端口,和我的datanode端口冲突,导致我的datanode起不来。hadoop@hadoop:~$ sudo kill -9 7975(7975是端口号)可用第二种方法:修改core-site.xml文件,把9000改成其他如9001。最后重新执行启动脚本,jps就可以看到NameNode了。原因:是端口9000已经被占用,解决办法有两个,重启hadoop就可以看到NameNode啦!第一种:查找占用端口的进程,kill掉它。如果已占用进程需要使用9000端口,

2023-09-24 09:34:36 712

原创 启动Hadoop集群——HDFS和Yarn

前提:务必查看防火墙状态!(三台主机都要看)保证关闭再进行下一步。

2023-09-24 09:33:31 600

原创 Hadoop普通分布式

Tips:除环境变量以外,以下文件都在hadoop安装包的etc/hadoop之下。

2023-09-24 09:32:52 39

原创 搭建Hadoop分布式集群———配置免密

配置集群免密服务

2023-09-24 09:31:34 214

原创 一分钟安装STC—ISP单片机烧录软件(免费)

安装stc-isp软件

2023-09-23 15:39:44 1799 2

原创 [29523] Cannot open self /usr/local/bin/docker-compose or archive /usr/local/bin/docker-compose.pkg

解决方案:1、打开docker的官方网站,找到compose的安装目录链接:https://docs.docker.com/compose/install/进去之后往下滑,找到图片所示位置!2、执行图片所标注的命令(1)下载docker-composesudo curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/lo

2021-12-15 21:11:39 1531

原创 docker (56) Recv failure: Connection reset by peer

如果出现以下错误:docker (56) Recv failure: Connection reset by peer,按照此文章进行排错!

2021-12-15 16:10:55 5429 2

原创 21年省赛pom文件

<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/mav

2021-12-14 21:44:32 39

原创 Spark连接Hive的两种方式

一、使用hive-site.xml第一步:将集群中的hive-site.xml的内容复制出来,并放在idea项目的resources下,要求文件命名为:hive-site.xml<configuration> <property> <name>datanucleus.schema.autoCreateAll</name> <value>true</value> </property><pr

2021-12-14 21:42:24 8162

原创 正则表达式(详细解析)

关于正则表达式的基本所有的知识和用法,内容很多,可分开阅读,建议挑选重要的学习,用的很少的功能可以理解就好。

2021-12-07 22:37:45 19362 3

原创 Flink(Scala版)消费Kafka数据存入Mysql

使用Flume采集日志存入kafka,并用Flink消费kafka数据,最后存入Mysql中

2021-12-05 15:06:52 1927 1

转载 Redis常用命令大全

1.基于内存的key-value数据库2.基于c语言编写的,可以支持多种语言的api //set每秒11万次,取get 81000次3.支持数据持久化4.value可以是string,hash, list, set, sorted set使用场景去最新n个数据的操作排行榜,取top n个数据 //最佳人气前10条精确的设置过期时间计数器实时系统, 反垃圾系统pub, sub发布订阅构建实时消息系统构建消息队列缓存cmd访问redisredis-cli.exe -h 127.0

2021-12-05 11:48:17 126

原创 Hive操作

#分区中的参数不要与原表中的参数一样;#多个参数或是多个分区参数用,隔开#row foramat…是指定列切割符,lines terminated by '切割符’是指定行切割符操作分区表查看表的分区 SHOW PARTITION 表名;增加分区#增加单个分区ALTER TABLE 表名 ADD PARTITION(列名称 数据类型);#增加多级分区ALTER TABLE 表名 ADD PARTITION(列名称 数据类型) PARTITION(列名称 数据类型);删除分

2021-12-04 12:19:04 449 1

原创 SparkSql清洗Hive中数据并存入Mysql

一、准备数据因为数据目前在本地,所以先将数据上传至Hive,再进行清洗。上传步骤:1、将数据上传至虚拟机中:使用rz -E 选择文件2、进入hive,选择数据库,并进行建表create table data(TRIP_ID string,CALL_TYPE string,ORIGIN_CALL string,ORIGIN_STAND string,TAXI_ID string,TIME_STAMP string,DAY_TYPE string,MISSING_DATA string,PO

2021-12-03 16:14:44 1922

转载 Hive 建表语句详解

一、HQL建表语法格式(hql不区分大小写,[ ]中的属性是可选属性)CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name[ (col_name data_type [COMMENT col_comment], ...) ][COMMENT table_comment][PARTITIONED BY(col_name data_type [COMMENT col_comment],...) ][CLUSTERED BY (col_name,col_

2021-12-03 11:52:04 16131

原创 Spark程序打包至虚拟机运行

首先将打包好的jar包上传至虚拟机我的jar包统一放在/usr/apps/jar目录中接下来进入spark的目录cd /usr/apps/spark-2.1.1/以下代码为提交jar包到spark运行的命令./bin/spark-submit \--class test \--master spark://master:7077 \/usr/apps/jar/test1-1.0-SNAPSHOT.jar \注意:严格按照此格式编写,如若格式不对,容易出现异常。其他配置参数:(以下

2021-11-23 19:45:35 850

原创 低版本kafka相关命令

查看kafka的list列表命令./kafka-topics.sh --list --zookeeper 192.168.38.141:2181

2021-11-22 21:24:27 176 1

原创 Flume监听端口并存入Kafka

第一步:编写flume的配置文件ListenPort.conf 文件用来监听本地的55555端口,并将数据存入kafka中# Name the components on this agent# 分别给agent中组件定义别名a1.sources = r1a1.sinks = k1a1.channels = c1 # Describe/configure the source# 配置接收方法、地址和端口号a1.sources.r1.type = netcata1.sources.r1.

2021-11-22 21:02:48 2126

原创 Spark读写MYSQL

抽取MYSQL数据并保存到新的表中import org.apache.spark.sql.{SaveMode, SparkSession}import java.util.Properties//TODO 1. 查询后写入object SparkReadMysql3 { def main(args: Array[String]): Unit = { val spark = SparkSession.builder().appName("sparksql").master("local"

2021-11-10 20:31:03 237

原创 Flink将本地数据写入Redis

redis的启动文件默认安装在了/usr/local/bin/中

2021-11-10 20:07:07 786

原创 Kafka常用命令

以下所有命令在/usr/apps/kafka目录运行1.启动内置的zookeeperbin/zookeeper-server-start.sh config/zookeeper.properties2.启动kafka服务bin/kafka-server-start.sh config/server.properties3.创建topic话题bin/kafka-topics.sh --create --topic test --bootstrap-server 192.168.38.144:909

2021-11-10 19:21:22 156

原创 Flume监听日志文件并存入Kafka中消费

第一步配置Flume配置文件此配置可以去官网搜索,简单修改即可链接:https://flume.apache.org/releases/content/1.7.0/FlumeUserGuide.html创建监听日志文件的配置:/usr/apps/flume-1.7.0/kafka-producer.confpro.sources = s1pro.channels = c1pro.sinks = k1 pro.sources.s1.type = execpro.sources.s1.

2021-11-10 19:09:50 342 1

转载 kafka命令大全

以下是kafka常用命令行总结:1.查看topic的详细信息./kafka-topics.sh -zookeeper127.0.0.1:2181-describe -topic testKJ12、为topic增加副本./kafka-reassign-partitions.sh -zookeeper127.0.0.1:2181-reassignment-json-file json/partitions-to-move.json -execute3、创建topic./kafka-topics.sh

2021-11-08 19:00:45 282

原创 Spark读取Mysql数据写入Hive

package SparkToHiveimport Spark抽取Mysql到Hive.抽取1.SparkUtilsimport org.apache.spark.SparkConfimport org.apache.spark.sql.SparkSessionimport java.util.Properties//spark读取Mysql数据,并写入到Hive指定表中object SparkHivePatition { def main(args: Array[String]): U

2021-11-08 11:03:29 3078 1

原创 爬取视频练习

爬取视频网站需要进行防盗链的预习何为防盗链?正文开始打开网址,随便找一个视频点进去,然后打开开发者工具,定位到视频的位置可以找到标签注意:此标签在HTML中并没有出现,所以要进入NetWork选中XHR然后刷新页面,可以看到返回的数据数据包返回的地址为:https://video.pearvideo.com/mp4/adshort/20211020/1634730996384-15784833_adpkg-ad_hd.mp4从video标签中可以看出正确的视频地址为:https://video

2021-10-22 10:34:30 124

原创 数据可视化练习题

题目1.文件读取及数据查看;2.提取股票代号600000在2017年1月3日至2017年1月20日的收盘价格数据,并绘制股票价格走势图进行分析;3.提取股票代号600000在2017年1月3日至2017年1月24日的交易量数据,并绘制交易量分布柱状图进行分析;4.提取股票代号600000在2017年1月至11月的交易量统计数据,并绘制月交易量分布饼图进行分析;5.绘制以上图形组成的3×1子图。答案1. 文件读取及查看import pandas as pdimport numpy as np

2021-10-22 09:29:11 1455

原创 数据分析与挖掘

题目:数据data_etr.csv为用户用电量数据,数据中有编号为1-200的200位电力用户,DATA_DATE表示时间,如2015/1/1表示2015年1月1日,KWH为用电量。请完成以下工作:(1) 将数据进行转置,转置后行为用户编号、列为日期、值为用户每日用电量。(2) 对数据中的异常数据进行识别并处理。(3) 统计每个用户用电数据的基本统计量,包括:最大值、最小值、均值、中位数、和、方差、偏度、峰度。(4) 每个用户用电数据按日差分,并求取差分结果的基本统计量,统计量同3。解析:先

2021-10-22 09:27:46 451

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除