自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

添柴程序猿的专栏

程序人生_困难下的坚持最珍贵.....

  • 博客(128)
  • 资源 (54)
  • 问答 (4)
  • 收藏
  • 关注

原创 K8S_Google工作笔记0002---K8S集群架构组件

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152Master主控节点是做控制用的,主要做管理node工作节点是做实际工作的可以看到master node包含:这里这个controller-manager是什么意思呢?比如API Server是个统一的入口,通过这个入口过来的,比如订单业务的restful请求,那么这个时候这个请求,会给这个Controller-manager,这个是个控制器,他就会调用,sched

2020-09-30 16:21:13 268

原创 K8S_Google工作笔记0002---K8S介绍和特性

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152以前做部署都用Docker,但是docker做单机部署很方便,但是做集群虽然也可以但是做起来麻烦一些.但是k8s就可以很方便的来实现集群....

2020-09-30 09:44:52 312

原创 K8S_Google工作笔记0001---K8S学习过程梳理

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-30 09:40:49 255

原创 MQTT工作笔记0001---MQTT协议概述

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152一共是这些内容在阿里云上有对MQTT协议的介绍实际上就是发布订阅的意思,比如海创电子关注了工控老鬼,那么工控老鬼发布消息,海创电子就能收到,但是由于海创电子没有关注工控老鬼,所以海创电子发布消息的时候,工控老鬼就收不到.上面就描述了海创电子关注工控老鬼,工控老鬼没有关注海创电子的情况那么如果海创电子和挨踢在加班互相关注了呢,就可以互相发消息都可以收到了

2020-09-30 09:10:38 3227 1

原创 ARM裸机工作笔记0001---ARM那些事

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152RISC cpu的类型,精简指令集.ARM就是先进精简指令集机器.ARM6开始做嵌入式的,之前的ARM1到ARM5是做电脑的.从内核架构出来到CPU出来还是需要5,6年的时间的.Linaro是ARM公司做的一个组织,做移植的,是免费的,出来一个平台,他就做个移植,可以把ARM的架构移植到对应的平台上去.A15是性能比较高的.发热量大.iphone5s

2020-09-29 20:40:57 272

原创 FPGA工作笔记0001---FPGA简介-强大的逻辑资源和恐怖的IO并行处理能力

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这个ASIC简单来说,就是原来都是用晶体管什么的堆起来的电路,现在拿到一个涂层上来做,比如华为的麒麟990,就是,先涂一层,金属材料,当然不同涂层材料不一样然后再涂抹上光刻胶,然后再进行光刻,这样一层一层,用ASIC集成电路的技术,把这些电路都做到一层一层的涂层上,这样就做出这样一个芯片来了.随着发展,又发现这个ASIC,做起来会慢一些,比如从设计IC,到仿..

2020-09-29 20:10:09 440

原创 STM32工作笔记0099---Pacman常用命令

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152Pacman是Arch Linux 的包管理器。它将一个简单的二进制包格式和易用的构建系统结合了起来。不管软件包是来自官方的 Arch 库还是用户自己创建,Pacman 都能方便得管理。更新系统在 Archlinux 中,使用一条命令即可对整个系统进行更新:pacman -Syu如果你已经使用pacman -Sy将本地的包数据库与远程的仓库进行了同步,也可以只执行:pacman -Su安装包

2020-09-28 17:35:48 350

原创 STM32工作笔记0098---Windows下的Linux环境_Cygwin_MinGW_MSYS_MSYS2_之间的关系

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152MSYS2网上有很多文章讲它们之间的区别与联系,初学者看的一头雾水,在知乎上看到这篇文章讲的很清楚,容易理解。在讲区别联系之前,我们先看一下这几个东东的前世今生。Cygwin,原 Cygnus 出品(已被红帽收购),目前是 RedHat 名下的项目。项目的目的是提供运行于 Windows 平台的类 Unix 环境(以 GNU 工具为代表),为了达到这个目的,Cygwin 提供了一套抽象层 dll,

2020-09-28 17:20:50 386

原创 STM32工作笔记0097---OEM厂是什么意思

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152oem是生产出来的产品,bai贴其它企业的商标。成为其du它公司的产品。oem就是zhi给贴牌的意思。oem工厂dao,简单的理解,就是:按你的要求做产品,你自己提供商标。只负责生产。生产型企业。一般企业为:生产、销售、研发为一体的。oem 是:生产。OEM意思就是又叫定牌生产和贴牌生产。...

2020-09-28 17:07:32 324

原创 Netty工作笔记0085---TCP粘包拆包内容梳理

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-27 11:33:40 296

原创 Netty工作笔记0084---通过自定义协议解决粘包拆包问题2

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152继续写服务器回复给客户端的内容这里写入回复消息代码加入编码器,编码后发给客户端客户端加入解码器,解码后显示数据客户端这里读取数据,读取服务器端发过来的数据这个是客户端收到的数据,可以看到启动多个客户端的时候,也没有粘包和拆包的问题了....

2020-09-27 11:33:25 303

原创 Netty工作笔记0083---通过自定义协议解决粘包拆包问题1

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152咱们写一个案例,来解决拆包,粘包的问题自己定义一个协议,先去,这里只有协议内容和长度然后用以前的这些Client和server就可以了首先这里的MyClientHandler的类型要改成咱们自己的了,messageProtocol然后异常简单处理一下channelRead0里面的内容都删除掉.给服务器端发送字符串,但是发送的数据封装在协议里面然.

2020-09-27 11:32:27 242

原创 Netty工作笔记0082---TCP粘包拆包实例演示

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152还是用一起的client和server.然后自己写一个initializer这里发送10个hello,server 给服务器端然后服务器收到数据,以后,打印出来,然后统计一下,当前是接收的第几次,也就是说,咱们要看一下这个服务器收到,客户端的10次发送的消息,服务器这边是不是也是10次?收到的,还是怎么样.服务器收到消息打印,然后发送一个随机的id,给客户端

2020-09-25 11:43:46 319

原创 Netty工作笔记0081---编解码器和处理器链梳理

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这个算法把包合起来,然后发出去,但是这算法,合起来的时候,可能把1个完整的数据,和另一个数据的一半合在一起,这样就出问题了.可以看到会如果客户端发送数据,D2,D1这两个完整的数据,经过TCP的算法,会出现粘包和拆包的问题....

2020-09-25 11:43:41 291

原创 Netty工作笔记0080---编解码器和处理器链梳理

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-25 11:43:36 254

原创 Netty工作笔记0079---Log4j整合到Netty

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-25 11:43:31 328

原创 Netty工作笔记0078---Netty其他常用编解码器

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152跑起来然后看看效果

2020-09-25 11:43:26 256

原创 Netty工作笔记0077---handler链调用机制实例4

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这次来写,服务器端发送一个long数据到客户端先看一下这个图,如果是从客户端发送到服务器端,那么ClientHandle 先经过编码 encoder ( OutBoundHandler 这个encoder实际上是一个出栈)然后把编码后的数据放到socket中去,然后再发给服务器,服务器收到数据以后,首先要用,Decoder (InBoundHandler这个decoder实际上是一个入

2020-09-25 11:40:22 265

原创 Netty工作笔记0076---handler链调用机制实例3

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152前面咱们写的例子,如果客户端发送到服务器端,那么服务器端会收到什么样的数据?这里实际上我发送了16个字节的数据.那么按说,服务器会收到两个long.对吧其实是这样的,decode会根据接收的数据,被调用多次...先启动服务器然后再启动客户端可以看到服务器接收到这部分数据,调用了两次MyByteToLongDecoder进行解码为什么是两次呢?因为

2020-09-25 11:40:16 241

原创 Netty工作笔记0075---handler链调用机制实例1

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152接下来写客户端跟以前一样写,然后写初始化类初始化类中需要添加一个handler,用来编码,编码后发送给服务器然后再写一个handler去处理业务业务处理这里发送数据给服务器就可以了,这个时候,这个数据会先给刚写的编码的handler去,先去编码,编码完了以后,再去发送给服务器.写好的编码和业务类都添加进去然后初始化类也添加进去,然后进去写,开启客户端

2020-09-25 11:40:10 361

原创 Netty工作笔记0074---handler链调用机制实例1

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152注意,这里服务器发送这个long的时候,需要编码器接收这个long的时候,需要解码器同样客户端也是这样,接收需要解码器,发送需要编码器这样服务器就写好了,然后自定义一个初始化类初始化类中来添加对应的,处理器,这里添加咱们自定义的解码器,把初始化类添加到,服务器的创建中去.自定义这个解码器,添加到初始化类的pipeline中去然后再写一个handler,来实现,接

2020-09-25 11:39:04 268

原创 Netty工作笔记0073---Neety的出站和入站机制

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152道理是这样的,如果数据进入客户端是入站,出客户端 是出站,然后对于服务器来说也是一样的.入站到客户端解码出站到服务器需要编码去看看,比如客户端这里发送数据到服务器的时候,因为这个是出站,所以这个时候要编码可以看到这里的这个编码器就是个handler,是个outboundHnalerAdapter.那么服务器发送数据到客户端的时候,入站,需要解码这里解码也

2020-09-25 11:38:59 384

原创 Netty工作笔记0072---Protobuf内容小结

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-24 09:17:31 184

原创 Netty工作笔记0071---Protobuf传输多种类型

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152还是先去写proto文件,这里写入两个实体类,可以看到student和worker然后在protobuf中可以使用message来管理其他message,这里咱们就用一下可以看到这里在MyMessage中,用DataType,表示一个枚举.然后下面的data_type,用来选择是哪个枚举类型.这里定义了两个,那么data_type就是选择其中一个然后这里oneof

2020-09-24 09:17:25 311

原创 Netty工作笔记0070---Protobuf使用案例Codec使用

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这里发送一个对象.这样就把新建的这个student这个对象,传过去了然后这里,注意,因为需要protobuf的编码,所以要添加进去.protobuf的解码在服务器端也要,添加上.这样protobuf的编码解码都有了接下来我们在NettyServerHandler中去接收数据.原来的代码删除启动客户端,服务器端去看看可以看到可以,收到客

2020-09-24 09:17:21 206

原创 Netty工作笔记0069---Protobuf使用案例

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152之前咱们写了NettyClient的案例,就直接用它了可以看到如果要用protobuf需要首先添加包引入.然后创建一个Student.proto然后去编写这个proto文件可以看到这里的类型int32 id=1注意这里:的左边的类型是protobuf的类型,这里写的时候就要用protobuf的类型,他有个对应的类型列表,就是说protobuf的什么类

2020-09-24 09:17:17 191

原创 Netty工作笔记0068---Protobuf机制简述

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-24 09:17:14 211

原创 Netty工作笔记0067---Netty编解码机制简述

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-24 09:17:10 259

原创 Netty工作笔记0066---Netty核心模块内容梳理

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-09-24 09:17:06 258

原创 Netty工作笔记0065---WebSocket长连接开发4

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这里,websocketserverprotocolhandler是通过一个状态码 101这个可以看看,抓包看看,第一次是http然后第二次访问就切换了,可以看到有个状态码是 101 就是说这个是状态切换的协议.注意uri要对应起来,访问的是hello,然后服务器端对应的也要是hello....

2020-09-24 09:17:01 259

原创 Netty工作笔记0064---WebSocket长连接开发3

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这样浏览器端就写好了,然后先开启服务器然后再打开浏览器可以看到有提示了,连接开启发送信息也可以发送如果关闭浏览器,会走这个handlerRemoved方法关闭一下看看,确实走了....

2020-09-24 09:16:58 264

原创 Netty工作笔记0063---WebSocket长连接开发2

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这样服务器的ws协议处理的websocket的handler就写完了这里要注意这个地方就是业务逻辑处理.,添加上去就可以了.

2020-09-24 09:16:52 236

原创 Netty工作笔记0062---WebSocket长连接开发

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152先写服务器注意这部分代码就是从heartBeat的MyServer.java中copy过来的.然后修改:这里原来的代码删除掉.这里因为用http,所以需要http的编码解码然后因为以块方式写,所以添加hunkedwritehandler处理器这里去看一下websocketFrame有6个子类.然后添加websocket的处理器,这里ws://

2020-09-23 08:32:16 246

原创 Netty工作笔记0060---Tcp长连接和短连接_Http长连接和短连接_UDP长连接和短连接

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152因为做语音通信要用到,长连接,这里对各个协议的长短连接做个总结刚接触HTTP请求就听说过HTTP请求有1.0和1.1两个版本(其实还有个0.9版本,因为只接受GET一种请求,不支持POST方法,因此客户端无法向服务器传递太多信息而为人们所忽略),而且还知道HTTP1.0协议不支持长连接,从HTTP1.1协议以后,连接默认都是长连接。但终究觉得对于长连接一直不明觉厉,有种抓不到关键点的感觉。我.

2020-09-23 08:32:11 1578

原创 Netty工作笔记0061---Netty心跳处理器编写

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这里写处理空闲的处理器handler这里捕获各种空闲状态捕获各种状态然后打印消息启动去看看效果这里打印日志是因为加入了日志处理器了.先启动服务器,然后再启动客户端客户端,咱们就用咱们写的这个群聊系统的.可以看到客户端和服务器没有通信的时候,就出现了空闲的情况.这里不停的输出,是因为,服务器,在发送心跳包的原因.如果没有这个输出,就说明

2020-09-23 08:32:05 254

原创 Netty工作笔记0060---Netty心跳机制实例

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这里对于客户端发送给s数据,对server来说就是读取server发送数据给client,对server来说就是写入.这里注意,这个3,5,7都是什么意思可以看到3是读空闲时间,5是写空闲时间,然后下一个7是读写空闲的时间这个IdleStateHandler是空闲状态处理器也就是说,这里只要3秒读空闲,5秒写空闲,7秒读写空闲就会触发IdleStat

2020-09-23 08:31:58 211

原创 Netty工作笔记0059---Netty私聊实现思路

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152实现私聊也是很简单的这里可以用个map,绑定channel和用户的名字可以当有客户加入的时候,加入到channels中去这个map,把用户的id,和channel对应起来就可以了.然后这里,还要验证用户的用户名,密码之类的这里可以User,用User就可以绑定对应的channel用户绑定了channel以后,就可以,给对应的用户发送消息了.从而实现了私聊的.

2020-09-23 08:31:53 337

原创 Netty工作笔记0058---Netty群聊系统客户端

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152用这个打印出发消息的时间可以,channelGroup.writeAndFlush就是给channelGroup中的所有客户端发送消息.然后去写客户端获取对应的channel然后,从channel中获取pipeline这里注意上一章节写的时候好像没有加入,自己的业务处理handler,这里添加上去再这里就是把客户端控制台写入的信息,发送到服务端.然后这里

2020-09-23 08:31:49 273

原创 Netty工作笔记0057---Netty群聊系统服务端

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后再写自己的业务处理handler可以看到这个模型这里声明了一个channelGroup可以看到其实也可以用list来放channel但是list来放的话,需要自己,去循环调用方法,但是这个channelGroup这个是个netty提供的,不需要循环就可以执行了.然后再写两个函数,一个是channelActive用来监控客户端上线,一个是c

2020-09-23 08:31:44 253

原创 Netty工作笔记0056---Unpooled应用实例2

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152可以看到这个unpooled可以把一个字符串,直接转换为一个bytebuf数组而且可以打印出来看看这里要注意,这个widx就是widx12是字符的个数,而cap是数组的大小.,要知道和这个cap数组的大小是,比字符的大小要大的然后这个arrayOffset这个偏移是0,readerIndex也是0writerindex是12因为字符串转换的时候就相关于写入到数组中数

2020-09-23 08:31:39 344

瀚高数据库连接开发工具-2024-hgdbdeveloper.zip

这个是用来连接瀚高数据库的工具,连接pg的工具是连接不了,瀚高数据库安全版的,所以还是需要使用,专门的工具来连接,使用方法非常简单,跟使用操作mysql的navicat差不多.

2024-06-29

datax插件-瀚高数据库支持插件-highgowriter.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了.

2024-06-29

datax插件-瀚高数据库同步支持插件-highgoreader.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了. 如果想自己开发其他的插件可以参考官网的解释.

2024-06-29

瀚高数据库迁移工具2024版.zip

瀚高数据库迁移工具2024版.zip 是一个旨在帮助用户高效、可靠地将数据从瀚高数据库从一个环境迁移到另一个环境的工具。这个工具特别适用于需要进行数据库升级、迁移或备份恢复操作的用户。通过使用这个工具,用户可以轻松地将数据从瀚高数据库的一个版本迁移到另一个版本,或者在不同的服务器、操作系统和硬件平台上迁移数据。 这个工具的主要特点和优势包括: 1. 支持多种迁移场景:无论是同一版本之间的迁移,还是跨版本的迁移,这个工具都能够提供支持。同时,它还支持在不同的服务器、操作系统和硬件平台之间的迁移。 2. 高效的性能:这个工具采用了高效的数据迁移算法,可以快速地将大量的数据从一个环境迁移到另一个环境,同时保证数据的完整性和一致性。 3. 用户友好的界面:这个工具提供了一个直观、易用的界面,用户可以通过简单的点击和选择,完成复杂的迁移操作。 4. 安全可靠:这个工具在迁移过程中采用了多种安全机制,如数据加密、数据验证等,确保数据的安全和可靠。 5. 完善的文档支持:这个工具附带了详细的使用说明和操作指南,用户可以通过阅读这些文档,了解工具的使用方法和操作步骤。

2024-06-12

MSVCR120.dll缺失-瀚高数据迁移工具修复DLL.zip

这是一个专业的修复工具,旨在解决瀚高数据库迁移过程中可能出现的问题。在使用此工具时,用户首先需要启动程序,随后选择需要迁移的数据库,指定数据迁移的源端和目标端。然而,有用户反映在这一过程中遇到了报错提示,显示某个动态链接库(DLL)找不到。为了帮助用户顺利解决这个问题,我们提供了这个工具的详细使用说明,包含在压缩包中。用户可以参考这些说明来排除故障,确保数据库迁移工作的顺利进行。我们建议用户仔细阅读使用说明,遵循指示步骤操作,以充分发挥修复工具的作用,保障数据库迁移的成功实施。

2024-06-12

Semantic-Kernel-MyPlugins.zip

以上是人工智能_大模型028_大语言模型开发框架_Semantic Kernel详细介绍_框架安装_Semantic Functions脚本编写---人工智能工作笔记0163 这个博文中的案例文件,是包括了,如何使用Semantic Function进行,利用自然语言,编写函数. 在当今的AI技术领域,大模型和大型语言模型正变得越来越流行,因为它们能够处理更复杂的任务并生成更高质量的输出。Semantic Kernel是大语言模型开发框架的一个例子,它提供了一个强大的工具集,用于构建和部署高级语言处理应用程序。 Semantic Kernel框架的安装和使用相对简单,它支持多种编程语言和平台,包括Python、C#和JavaScript。这个框架的核心是Semantic Functions,这是一种特殊的函数,它允许开发人员使用自然语言来定义和处理逻辑。这意味着,你可以用简单的英语句子来编写代码,而不是传统的编程语言。 介绍了如何使用Semantic Functions来编写函数。这个资源包括了多个案例文件,这些案例文件展示了如何使用SK

2024-04-10

highgowriter-highgoreader-dataxcode.zip

highgowriter_highgoreader_dataxcode.zip 这个资源用来给datax扩展对瀚高数据库的支持能力,可以使用这个插件,实现数据从mysql/postgresql等其他数据库同步到瀚高数据库,或反向同步 这个资源是一个为DataX工具定制的插件,专门用于增强DataX与瀚高数据库之间的数据同步能力。通过这个插件,用户可以方便地将数据从MySQL、PostgreSQL等其他类型的数据库迁移或同步到瀚高数据库,同时也支持将数据从瀚高数据库同步到其他类型的数据库。 具体来说,这个插件扩展了DataX的数据同步功能,使得用户在执行数据迁移任务时,能够更加灵活地处理与瀚高数据库相关的需求。它能够帮助用户简化数据同步的流程,提高数据同步的效率,并且保证了数据的一致性和准确性。

2024-04-07

docker-compose-linux-x86-64-v2.26.0.zip

docker-compose-linux-x86_64.zip 好吧上周发布的v2.26.0的最新版,给大家准备好了已经,如果你下载不下来,从这里取了直接用吧. 为了确保您能够顺利使用Docker Compose的v2.26.0最新版本,我已经提前准备好了适用于Linux x86_64架构的最新版Docker Compose文件——`docker-compose-linux-x86_64.zip`。如果直接从官方GitHub仓库下载遇到困难,您可以随时使用我提供的这个文件。这样,您就可以跳过在线下载步骤,直接开始配置和使用Docker Compose了。希望这能为您带来便利!

2024-03-29

docker-compose离线版.zip

Ruoyi-Cloud-Plus_使用Docker部署分布式微服务系统---SpringCloud工作笔记200 这个资源可以配合这个博文使用,这里面用到的软件,如果不用这个,自己去下载,会很慢,所以直接放到这里了,希望对大家有帮助. Ruoyi-Cloud-Plus是一个基于SpringCloud的分布式微服务系统,它集成了多种实用的企业级开发功能,如权限管理、数据权限、工作流、三方登录等等。为了方便开发者更快地部署和使用这个系统,这里提供了一个包含所有必要软件的Docker镜像资源。通过使用这个镜像,可以避免由于网络问题导致软件下载缓慢或不稳定的情况,从而大大提高开发效率。 这个博文详细介绍了如何利用Docker来部署Ruoyi-Cloud-Plus分布式微服务系统。通过阅读这篇博文,您可以了解到如何快速搭建开发环境,以及如何使用SpringCloud的各种组件来构建一个高效、稳定的微服务架构。希望这个资源和博文能够为您的开发工作提供有力的支持,让您的项目进展更加顺利。

2024-03-29

ChatGLM-6b-int4基础模型文件.zip-这个是除了比较大的文件的其他文件-其他大的模型文件可以在清华云下载

ChatGLM-6b-int4基础模型文件.zip_这个是除了比较大的文件的其他文件_其他大的模型文件可以在清华云下载,在安装ChatGLM大模型的时候,发现,模型文件特别大,而小文件,又在国内下载特别慢就整理出来了. config.json configuration_chatglm.py gitattributes ice_text.model LICENSE MODEL_LICENSE modeling_chatglm.py quantization.py quantization_kernels.c quantization_kernels_parallel.c README.md tokenization_chatglm.py tokenizer_config.json 这些文件.

2024-02-29

nifi-p12-store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件

nifi_p12_store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件,我们下载最新的nifi-1.23.2这个版本的安装文件以后,解压以后,启动是启动不了的,原因是缺少,这个keystore.p12文件和truststore.p12文件,这两个文件放到conf下面以后,然后去配置nifi.properties文件,配置以后,指定了这两个p12文件的位置,然后去启动nifi就可以启动了,其实,比这个版本低的nifi也是这样的,弄好久才找到了这个问题所在啊...分享 2023-10-08 21:18:18这个时间亲测 可以的..下载去用吧

2023-10-08

瀚高DB企业版最新版连接操作工具2023.zip

瀚高DB企业版最新版连接操作工具2023 这个是在安装完了以后可以用这个工具像用Navicat操作mysql数据库一样来操作瀚高DB数据库. 这个可以结合对应的博文: Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 可以结合这个博文来看,这里面写了如何安装,以及如何用这个操作连接工具远程连接使用瀚高DB数据库.

2023-07-21

瀚高DB企业版最新6.0.4官方安装教程.zip

瀚高PG的安装本来以为很简单,装上就可以了,但是安装了两天,工作经验10年,安装了两天,很麻烦的还是...要注意,首先下载的时候要和对应的系统匹配下载,比如你是Centos,就要下载Centos版本的,我是安装在了openeuler华为的欧拉系统上了,出现了一堆的问题,就很麻烦, 解决了很久,...最后还是没有安装上.. 最后还是换成了centos7来安装的,安装后又找连接工具,这个时候发现连接工具在官网上也没有找到下载的地方,折腾了很久是找到了,可是连不上,又配置远程连接,最后总于弄好了. Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 https://credream.blog.csdn.net/article/details/131836438?spm=1001.2014.3001.5502 对应了我的这个博客可以参考,希望能帮助到你们把.

2023-07-21

NIFI-MySqlToMySql增量同步数据实时采集-实现了日期类型-以及空值处理-插入已存在变更新-更新未存在变插入.zip

NIFI_MySqlToMySql增量同步数据实时采集_实现了日期类型_以及空值处理_插入已存在变更新_更新未存在变插入.zip 使用了NIFI1.21.0最新版,2023-06-20作者在这个时间做好的,这个大数据处理流程,已经实现了,增量mysql的cdc数据读取以后,在插入到目标mysql数据库的时候,如果碰到主键一样的id,就自动变成更新数据,如果在更新的时候碰到主键没有的id就自动变成插入操作,这个是比较符合实际应用情况的.

2023-06-20

NIFI1.21.0-大数据同步处理模板-MysqlToMysql增量同步-单表-处理日期-空值数据.zip

NIFI1.21.0_大数据同步处理模板_MysqlToMysql增量同步_单表_处理日期_空值数据.zip 是作者自己实际项目中用到的,自己学习后制作的NIFI流程模板文件,导入后可以直接使用, 实现了Mysql到mysql数据库的增量CDC数据的实时同步,通过过程中,实现了sql的拼接,以及对日期类型,和空数据类型的处理.

2023-06-20

NIFI1.21.0-Mysql和Postgresql到MysqlHbase-全量指定库和表同步到Mysql和Hbase.zip

NIFI1.21.0_Mysql和Postgresql到MysqlHbase_全量指定库和表同步到Mysql和Hbase.zip 是一个nifi的模板,实现了从mysql以及postgresql中同时读取数据,读取的时候支持,指定数据库和数据表进行同步,数据全量同步,可以同时同步到mysql数据库以及hbase数据库中.

2023-06-20

NIFI大数据处理-PostgresqlToMySql指定表多表-CDC增量数据实时同步.zip

这个项目花费了我比较多的心血,NIFI还是挺好用的,主要是很灵活,可以自己定制,我感觉比一些做CDC的工具,会更灵活一些,但是学习门槛高,现在用的还不是那么的多,很多东西需要自己去查阅官网去自己学习,然后,很多代码需要不停的尝试,才能知道对应的处理器,最终是应该如何使用. 上面的资源我弄了一个星期,终于实现了,把数据从postgresql数据库可以动态的,实时,读取postgresql的cdc数据然后根据cdc的内容,进行数据增量的同步到mysql数据库中去,而且还添加了,cdc数据的分页功能,如果cdc数据内容特别多就不用担心了. 然后还添加了数据表过滤的功能,比如你只想同步一个数据库中的3张表,那么这里面我已经帮你实现了,然后如果你想同步一个数据库中的所有的表,我也已经帮你实现了,你下载以后,直接导入到nifi中,然后配置好自己的数据源就可以直接使用了.

2023-06-12

K线理论-付费课程-实战经验-总结学习手册-2023-05-29.zip

首先是见顶的单根K线的形态: 1、大阳线见顶 也就是开盘在相对低位,收盘在最高价附近,强势状态非常明显,但是如果出现在股价相对的高位或者是上涨行情的尾声阶段的大阳线,往往就是见顶信号,如图: 大阳线见顶技术分析有一定的难度,单纯的按照大阳线本身来判断行情,很难判断准确,往往要结合后市的走势来判断,也就说一只股票当天出现大阳线后,是没有办法判断的,要后面几天的走势才能基本判断,一般大阳线过后连续两根阴线就要开始小心了。 付费炒股课程,学习总结 2、大阴线见顶 开盘价就是最高价,收盘在最低位附近,当大阴线出现在股价运用的相对高位区域,意味着空头处于主导。要堤防股价已经见顶,仅作为短线见顶的信号,也就是讲股票运行到了相对高位区域,出现了大阴线,一般称为乌云盖顶,切记是真阴线,不是假阴线,也就是说收盘价是低于昨日收盘价的 3、十字星见顶 十字星就是开盘价和收盘价都在同一个位置附近,在当天盘中有上攻和下跌的动作,但是都有没有突破,局面平衡,显示即将有方向性的突破,同样也需要结合后面几天的走势来判断是否是顶部,

2023-05-29

NIFI大数据模板-MySqlToPostGresql数据分页实时采集-带分页.zip

NIFI大数据模板_MySqlToPostGresql数据分页实时采集-带分页.zip 使用NIFI将数据实时同步到PostGresql中. 下载以后配置自己的mysql数据库连接池,包括连接地址,用户名密码 配置postgresql的数据库连接池,包括连接地址,以及用户名密码 然后启动流程进行数据实时同步

2023-05-25

NIFI大数据模板-HbaseToMysqlByPhoenix-实时数据同步带分页.zip

NIFI大数据模板_HbaseToMysqlByPhoenix-实时数据同步带分页.zip 这里面编写了一个NIFI大数据传输流程,使用phoenix从hbase中去获取数据,带分页获取数据以后,然后把数据同步到指定的mysql数据库中去,实现数据的实时同步. 下载以后配置一下对应的数据库连接池,以及数据库的用户名密码,就可以使用,导入就可以用,非常方便

2023-05-25

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip NIFI大数据处理模板,导入以后可以直接将数据从postgresql从通过phoenix拉取到Hbase中去,注意这里,需要自己配置一下phoenix连接hbase的参数,包括集群的地址,指定用户名,密码,指定phoenix驱动的位置. 还要注意最好安装nifi1.21.0版本,这个版本笔者是测试过的可以用的

2023-05-25

NIFI大数据模板-PostgresqlToHbase数据实时采集-带分页.zip

如果你也需要利用NIFI进行数据同步,并且你用到了Postgresql数据库,想从Postgresql数据库中去获取数据然后,把数据同步到Hbase中去,这里我们使用的大数据存储工具,Hbase来存储原始数据. 我们需要把所有的关系型数据,以及文档数据等,存入到Hbase中,做为原始数据使用,所以这里 就利用NIFI做了一下. 这个模板导入到NIFI中去以后就可以直接使用,记得配置一下自己的Hbase集群的连接地址,以及Postgresql的连接地址.配置以后,直接启动,就可以进行数据同步了. 记得配置上对应的需要同步的表名以及字段.

2023-05-22

大数据Nifi处理-MySqlToSqlServer数据分页实时同步.zip

项目中需要的整理出来给需要的宝子们,实现了在大数据场景中,实时同步指定MySql数据源的数据,实时同步到SqlServer数据库中去. 下载以后使用的时候,需要配置一下自己的mysql数据源的用户名,密码,ip地址端口号信息,设置以后,在数据库连接池中,启动自己的数据库连接池. 然后再去配置一下sqlserver的数据库连接池,指定对应的IP地址,数据库名称,用户名,密码,然后去启动SqlServer数据库连接池. 最后启动所有流程,Nifi就会根据流程自动从mysql数据库中读取数据,读取数据有把数据同步到SqlServer中去

2023-05-19

MySqlToHbase数据分页导入到Hbase.zip

项目中自己用的,弄了很久,需要把数据从各种数据源导入到,我们的原始数据库,原始数据库采用hbase,来存储所有数据,那么这里就用的nifi,从其他数据源获取数据以后,然后导入到Hbase中去,这个是设计好的流程模板. 导入nifi中以后,直接启动,配置好自己的连接地址,就可以进行数据同步了.

2023-05-16

大数据处理NIFI模板-MySqlToMySql增量数据实时同步-利用Binlog实时同步数据.zip

花了作者好多时间,这个NIFI不得不说还是挺好用的,可以减少很多代码的编写,但是,由于资料太少了,应用案例也少,很多功能,网上都找不到,所以只能自己去研究,研究了很久... 终于攻克了,使用mysql的binlog功能,来实现,insert,update,delete数据的实时同步,增量同步,有了这个流程工具以后,同步数据就变得非常方便了. MySql的Binlog打开以后,然后直接把下载的模板导入到自己的nifi中去,然后配置好自己要同步的数据库和表,配置好数据库连接信息,就可以了启动实时同步了,太酷了...

2023-05-06

Nifi模板-PostGreSqlToMySql数据分页实时采集-带分页.zip

使用大数据处理工具NIFI,进行数据从Postgresql中导入到MySql中,实现数据的同步处理,处理的时候,是带有分页的,因为作者正在做相关的项目,而,用nifi同步数据好说,如何,进行数据的分页同步不好弄,这里,主要是,采用处理器,自动生成分页sql,来进行数据的分页. 弄了好久终于弄出来了,希望能帮到你,这个模板可以导入到nifi中直接使用.非常的方便.

2023-05-06

2023自己实操-验证过的-通达信公式-胜率很高-神技-趋势+底部钝化+底部结构+选股+风口-一整套-.zip

作者自用的一款胜率很高,自己根据经验积累调整,实现的几个指标,交了几年学费总结的. 导入到通达信中就可以用,手机电脑端都可以用,注意包含源码的哈,自己通过这一整套指标,已经有不错的营收,作者自身是程序员,公式是自己根据经验,调整,并且实战操作,胜率很高,分享出来着实有点舍不得,炒股者...往往都是赔钱...我也一样,前好几年都是赔了不少,教了很多学费...经过长时间摸索,才有了这个东西...珍惜吧... 包含了从选股指标 到 风口 到 趋势 到钝化 到结构 5大指标 同时共振使用,效果很好,胜率很高自己一直在用...多了不说了.

2023-04-28

整理了好久-2023最新Java面试题-如果你在找工作-希望能帮到你了

以前的面试题都太旧了,这两年技术发展太快了,找的面试题都是很多旧的,因此整理了一圈,整理出很多新的问题,包括,Redis,Java,Java系列的大数据等内容,很全面,今年工作并不好找,祝你早日找到心仪的好工作.加油~

2023-04-28

2023-04-28最新-自己封装整理-可直接使用-亲测可用-多模态AI合集-ChatGPT4-ChatGpt3.5.zip

2023-04-28最新_自己封装整理_可直接使用_亲测可用_多模态AI合集_ChatGPT4_ChatGpt3.5.zip 人工智能辅助可以帮助我们的工作,生活,提高更多的效率,上面是作者自己整理的,常用的,可用的,无需登录注册就可以使用,来提高我们的工作效率,包括写文档,各种文档,比如论文,产品方案,详细设计,概要设计,需求文档,以及写代码,遇到问题让他给出解决思路,个人用的非常爽...也许真的未来,我们和AI共存..

2023-04-28

大数据Nifi模板-Mysql数据分页同步-实现了分页功能-MySqlToMySql数据分页实时采集-带分页功能.zip

1.最近在用大数据处理工具nifi做大数据处理,纯界面化的操作很方便,但是资料少,就这个mysql分页弄了好久,分享出去了 2.如果你用到了点个赞吧,笔者自己弄了好几天,测试过了可以放心用 3.配置好自己需要同步的表,修改一下数据连接池记得修改成自己的. 4.下载以后配置一下直接启动就可以用了

2023-04-24

大数据nifi模板,用来实时从mysql数据中读取数据到另一个mysql的数据库中

1.最近在做大数据项目,使用了nifi,确实好用,但是不得不说,资料少,而且虽然可以进行自定义处理器开发,但是资料也少. 2.下载以后导入nifi,然后直接点击启动就可以实现数据的同步了,可以直接同步一整张表,数据库连接池已经配置好了,笔者自己测试过用了.. 3.可以配置需要同步的表,然后需要同步的目的地的表就可以了.

2023-04-24

文心一言解读-及应用方向解读2023-04-19PDF.zip

⽂⼼⼤模型强调产业级知识增强的特性,旨在降低B端应⽤场景的AI门槛,便于⼆次开发。和⾦融、电⼒、航天等⾏业的⽣态伙伴发布⼀系列⾏业⼤模型,帮助企业迅 速迭代出和业务模式相匹配的模型,截⾄22年底发布了11个⾏业⼤模型。 n2022年,百度世界⼤会和中国探⽉⼯程联合发布百度航天⽂⼼⼤模型,是⾸个航天领域⼤模型,把航天领域的知识图谱和客户积累的数据进⾏智能采集、分析和理 解,助⼒智能感知、深空探测的技术突破。 l⼤模型之上提供⼯具和平台层,以SDK、API接⼝调⽤的⽅式为AI开发者提供⼤模型的套件,⾯向零基础开发者的EasyDL可以做简单的AI开发,把AI中台封装在成型的 BML⼤模型向外做相应的输出。 ⽂⼼⼀⾔在百度2⽉到3⽉的优先级最⾼,⽐如百度阳泉超算中⼼主要为⽂⼼⼀⾔做训练推理。除了A100,还⽤了⼀些国产化的产品,⽐如寒武纪的思元590

2023-04-19

ChatGpt2023年研究框架-2023-04-19.zip

ChatGpt最新专题研究报告 ChatGPT市场反应热烈,国内外巨头纷纷入场 据统计,ChatGPT日活跃用户数的增速远超Instagram,国内外科技巨头都非常重视ChatGPT引发的科技浪潮,积极布局生成式AI,国内厂商(百度、腾讯等)也高度关注ChatGPT,积极探索前沿技术,相关深度应用也即将推出。 ChatGPT经历多类技术路线演化,逐步成熟与完善 ChatGPT所能实现的人类意图,来自于机器学习、神经网络以及Transformer模型的多种技术模型积累。Transformer建模方法成熟以后,使用一套统一的工具来开发各种模态的基础模型这种理念得以成熟,随后GPT-1、GPT-2、GPT-3模型持续演化升级,最终孵化出ChatGPT文本对话应用。 AIGC跨模态产业生态逐步成熟,商用落地未来可期 AIGC产业生态当前在文本、音频、视频等多模态交互功能上持续演化升级,奠定了多场景的商用基础。跨模态生成技术也有望成为真 正实现认知和决策智能的转折点。

2023-04-19

nacos-server-1.1.4 这个下载以后可以直接使用

nacos-server-1.1.4 这个下载以后可以直接使用,找到对一个的bin目录可以直接启动了,如果有对应的mysql,配置中心可以修改conf文件夹中的application.properties文件,配置,对应的配置中心的内容,具体是mysql的地址,用户名密码

2023-03-16

xsync 脚本将文件同步到大数据集群中的所有机器

xsync 脚本将文件同步到大数据集群中的所有机器,使用起来非常方便,自己封装的 使用的时候,记得修改,脚本中的,集群机器名称.

2023-02-23

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表,然后设计有定时任务,可以每个月月末的时候,去创建下一个分表程序

2022-08-22

idl编译jar包模板工程.zip

北向接口开发之idl打包成jar包用到工程的模板,直接把里面的java文件替换成自己的java文件, 首先把厂商提供的idl包编译成java文件,然后把编译后的java文件导入到工程里面去,然后保证项目没有错误,然后点击编译,编译成的jar包可以用来,开发北向接口,采集网管数据.

2022-08-04

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息,在大数据采集项目中用到的,已经测试过了

2022-07-25

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了,很好用,分享给大家

2022-06-28

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密.zip

2022-06-24

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除