自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

添柴程序猿的专栏

程序人生_困难下的坚持最珍贵.....

  • 博客(2818)
  • 资源 (88)
  • 问答 (6)
  • 收藏
  • 关注

原创 KubeSphere核心实战_kubesphere部署mysql有状态副本集_创建mysql存储卷_创建配置集_拉取容器mysql镜像_配置应用占用cpu和内存---分布式云原生部署架构搭建044

然后我们选择读写的方式 挂载到容器的/var/lib/mysql 就是存储mysql数据的地方对吧.配置文件是/etc/mysql/conf.d这个文件,这个,我们可以用k8s中的配置集来做。首先我们来到工作负载,因为我们部署的mysql是有状态副本集,所以这里我们点击创建。我们看一下,我们把/var/lib/mysql 也就是mysql存储数据的目录。然后再去下一步,挂载存储,这里,我们点击添加存储卷模板,表示重新创建存储卷,然后,再去填写,比如,我们限制,mysql 占用 几核心的cpu。

2024-07-26 15:12:52 3

原创 KubeSphere核心实战_使用kubesphere给kubernetes部署中间件_步骤说明_kubesphere_工作负载_服务_存储管理_应用路由说明---分布式云原生部署架构搭建043

然后我们再来看对于端口,开放,如果type是clusterIP那么开放的端口,只能在集群内部可以访问,不能对外访问。首先去创建工作负载,其实就是pod,然后再去创建服务service,决定是集群内访问,还是集群外也可以访问。然后我们再来看,部署完了以后,就可以看到部署的应用内,在容器组中显示,其实就是对应了pod。创建好以后,他会自动的,帮我们创建,工作负载,然后创建 服务 然后再去创建 应用路由。然后在kubesphere中,对应服务这块,就是服务这里,可以看到可以创建服务对吧。

2024-07-24 11:25:42 7246

原创 KubeSphere核心实战_kubesphere多租户_添加企业空间_创建项目_给项目邀请成员---分布式云原生部署架构搭建042

可以看到在这个项目里面,有很多的功能,他可以用,比如有应用 服务 工作负载 应用路由等等.可以看到,进入这个项目以后,下面有个项目设置,点击项目成员,点击邀请,就给为这个项目邀请成员。可以看到邀请进来,但是做为wuhan-viewer角色对吧,观察者,只能看对吧.然后我们再去登录pm-wang,王总监,将这个客户wang添加到,具体的项目中去。big-li登录去看看,可以看到,由于pm-wang 王总监把他邀请进了。然后去点击右边的邀请成员,把wuhan-boss邀请进来,但是他是。

2024-07-24 11:24:39 7148

原创 KubeSphere核心实战_kubesphere多租户使用_kubesphere_企业空间划分_添加企业空间成员_设置企业空间角色---分布式云原生部署架构搭建041

然后可以看到,现在在wuhan这个企业空间中,就有 wuhan-boss 和 boss-li 这两个成员了。可以看到登录以后,可以看到,shenzhen-boss,也可以看到shenzhen这个企业空间。然后wuhan-boss这个账号,我们再使用这个账号,去在邀请成员去,给wuhan。wuhan-boss这个账户,看看wuhan企业空间,可以看到,在企业成员中,有。这个时候可以,使用wuhan-boss账号,把boss-li移除掉,是可以的。现在企业空间设置中,的企业成员,只有boss-li对吧。

2024-07-23 19:44:38 7340

原创 KubeSphere核心实战_kubesphere多租户使用_hr账户_创建其他用户_入职普通用户_boss用户---分布式云原生部署架构搭建040

然后我们来看,这个划分,首先,看看kubesphere,有,企业管理员 workspaces-manager :这个相当于一个集团的总公司领导,他可以来创建,比如武汉分部,深圳分部等.然后我们继续看,现在我们需要一个boss-li账户,这个是整个集团的boss,可以添加,分部,比如深圳分部,济南分部等等..现在我们有了boss-li这个总boss,有了几个企业空间,有了hr-zhang,人力资源,那么现在。首先添加wuhan-boss,这个主意,要使用hr-zhang这个账户登录以后,然后来添加。

2024-07-23 11:45:46 2159

原创 KubeSphere核心实战_在Centos7.9使用kubekey一键构建k8s集群完整平台_多节点自动化部署kubesphere_k8s集群---分布式云原生部署架构搭建039

可以看到其实就是指定了配置文件,kubernetes的版本和kubesphere的版本。可以看到我们有三台机器,并且内部互通.点击复制标志可以复制它的内网的ip地址。进行一键部署的,现在我们准备3台机器,用kubekey,部署k8s集群.上一节我们在一个单节点上部署了kubesphere,使用kubekey。可以看官网,有all in one 就是所有的都装在一个机器上.也是首先执行上面的这两个命令,下载配置文件。可以看到安装步骤,跟着做就可以了.然后可以看到有个多节点安装,打开。连接上三台机器,首先。

2024-07-22 08:58:14 1869

原创 KubeSphere核心实战_在Centos7.9/linux单节点使用kubekey一键安装完整平台_启用插件_一键安装docker_k8s_kubesphere---分布式云原生部署架构搭建038

现在我们在单个linux节点上部署一个完整的,包含k8s,docker,kubesphere的环境,可以看到,正在running,但是还有kubesphere-system 两个在创建容器中,等等。现在我们安装了kubesphere以后,但是这个功能少很多,很单一,但是后面可以开启其他功能。但是我根据需要,安装了一个全功能版本的kubesphere,开启了很多功能,安装需要10几分钟,需要等, 提示是否安装,就输入yes。可以看到注意下载以后,记得,给kk,添加上执行权限.

2024-07-22 08:55:07 36

原创 KubeSphere核心实战_kubesphere全功能安装_启用kubesphere的热插拔插件---分布式云原生部署架构搭建037

这两个文件,上面是直接使用kubectl apply 去应用了,我们先下载,因为直接从官网下载可能下不下来,因为网络的原因.这个上一节已经安装好了,这个千万不要打开.打开了,他会去官网去下载metrics_server,会下载不下来,由于网络的原因。可以看到这里,首先storageClass,后面提示,说如果没有默认的,就写上自己的我们已经安装了default的存储类型。kubedege这个是边缘计算相关的,这个我们暂时打开也可以,因为我们没有边缘计算的设备.

2024-07-21 23:05:41 361

原创 KubeSphere核心实战_安装默认存储类型_实现pv和pvc存储空间动态创建_安装Metrics-server_动态监控集群以及pod_内存及cpu资源占用情况---分布式云原生部署架构搭建036

可以看到,在/nfs/data 目录下,创建一个不安全的,可读写的,可异步的不是root也可以使用的,其他存储空间,这个配置写入到。然后我们再去,做一下同步,其实就是做两个nfs的客户端,上面我们做的是nfsserver,现在我们。之前我们创建pv和pvc的时候,我们是用命令,手动去创建的,我们事先创建好一些存储空间,可以看到安装,其实也就是,用一个配置文件,之间在k8s中进行apply就可以了,安装这个可以来监控我们的集群,以及集群中的pod的,内存和cpu等的,占用情况.

2024-07-19 10:58:27 3893

原创 KubeSphere核心实战_KubeSphere平台安装_在kubernetes上安装kubesphere_安装k8s集群_加入worker节点---分布式云原生部署架构搭建035

这个时候,首先要找到k8s master节点的ip地址,额可以看到,ip a查看,找到以后.然后现在我们安装了docker,然后安装了基本环境,然后再开始安装kubernetes。可以看到,kubeadm ...这个就是,构建多个master节点,构建高可用的.然后我们再来看,上面我们记录的关键信息,初始化master节点的时候。然后我们再来青云看一下咱们的服务器,可以看到,他们所属的网络。可以看到,创建了很多的pod,等待这些pod创建完成.去执行. 可以看到就是,创建了.kube文件夹,然后。

2024-07-19 10:58:10 86

原创 KubeSphere核心实战_KubeSphere平台安装_简介_升级配置与重置系统_在kubernetes上安装kubesphere_安装k8s集群_基础环境---分布式云原生部署架构搭建034

这个很强大,可以看到支持多租户,并且多集群,比如我们可以建一个dev开发的k8s集群,建一个test集群,建一个prod集群等。安装方式有三种,可以看到,首先在如果你已经有了一个k8s的集群,那么你想用kubesphere管理起来,那么需要安装上。可以看到删除旧的docker以后,然后,把剩下的命令,进行复制,回车直接三台机器全部执行就可以了.可以看到选择三台机器,然后,更多操作中找到重置系统,然后输入密码就可以了。然后再去调整机器的配置,因为需要安装很多东西,所以可以看到上面的配置.

2024-07-18 11:30:49 253

原创 k8s核心操作_存储抽象_K8S中使用Secret功能来存储密码_使用免密拉取镜像_k8s核心实战总结---分布式云原生部署架构搭建033

可以看到这个是镜像内容,注意这里面没有引入secret,上面的配置文件引入了,可以先去掉.看效果。比如我们在公共仓库中个guignginx仓库,我们看到右边,显示他现在是。可以看到拉取镜像的时候报错了对吧,说access denied 因为镜像是私有的.然后下面我们会看一个更强大的,工具,可以进行完全在线,将监控等等,都统合起来。我们现在是从公共仓库拉取的,如果我们从私有仓库拉取,有密码。比如我们有个pod,他的镜像,如果是需要密码的,那么。

2024-07-17 17:03:31 8076

原创 k8s核心操作_存储抽象_K8S中使用ConfigMap抽取配置_实现配置热更新---分布式云原生部署架构搭建032

现在有个问题,是上面我们利用pv和pvc 就是持久卷 以及 持久卷申请,实现了对存储的,pod删除以后,对其使用的存储空间也进行了删除,那么还有个问题,对于redis这种我们希望,他的配置也管理起来.这个配置就指向了name是redis-conf的这个配置,可以看到,取他的key是redis.conf path也是redis.conf。这里就是要把key:redis.conf的内容,拿过来,然后挂载到,path:也就是redis.conf的路径下,这个路径。

2024-07-17 15:45:27 8439

原创 使用NIFI连接瀚高数据库_并从RestFul的HTTP接口中获取数据局_同步到瀚高数据库中---大数据之Nifi工作笔记0067

请求,可以看到这个时候就需要首先,在上层,去连接一个GenerateFlowFile这个处理器,数据从这里流过以后,估计还是有问题,应该是CustomText,写入了json,然后需要用表达式提取里面的内容把,后面有了进展会写在这里。然后还可以用InvokeHTTP处理器来进行,获取get或者post,或者put,或者delete。其实,只要配置好了链接的,连接字符串,和驱动,任何支持JDBC的数据库都可以连接的.然后,去更新值,继续获取数据,是这个思路,后面实现了会补充上.

2024-07-16 10:04:08 160

原创 k8s核心操作_构建一键上云002_K8S+harbor_部署微服务_WebSocket使用_K8S前端配置_XXLJob配置_微服务中Nacos配置---分布式云原生部署架构搭建031

再来看这个front.yaml 上面是内容.这些yaml是用来部署k8s的deployment的,这些的使用是在.这些yaml文件好像都没有用到,都只是,前面的脚本就解决了,这里把。这里还有一个backend-svc.yaml文件。配置文件也都保留到这里了,以便用到的好参考.

2024-07-16 10:03:39 1887

原创 k8s核心操作_构建一键上云001_K8S容器+harbor容器本地化搭建云原生环境_一键部署SpringCloud Alibaba 分布式微服务+Vue前端---分布式云原生部署架构搭建030

然后这里有个build.sh脚本,这个就是用来,构建镜像,并且把镜像推送到harbor仓库,然后再把镜像,部署到k8s中的,一个指定的namespace中。注意这个打包的镜像,其实就是一个nginx,只不过这个nginx,携带了,前端的代码,在自己的/usr/share/nginx/html文件夹中.并且可以看到,把dist目录,中的内容,复制到了nginx的 /usr/share/nginx/html目录中了.然后看一下这里,前端部署依赖使用的,是nginx,因此,依赖了nginx.

2024-07-15 10:19:30 141

原创 k8s核心操作_存储抽象_K8S中的持久卷与持久卷申请_PV/PVC理解与搭建_解决联动删除动态存储管理---分布式云原生部署架构搭建029

然后当pod需要存储的时候,会写一个PVC ,PV申请,提交以后,会根据这个PVC来分配PV,找一个比较合适的,如果需要1G,看看有没有1G的pv,如果有就分配,没有就,分配一个比如10G的也一样,但是他只占用1G的空间,其他空间还可以给其他PVC用.可以看到我们可以有个PV池,这个PV池中,有各种的PV,有的PV大小是1G,有的是20MG,有的是5G,而这些PV,分布在不同的机器中。然后当我们删除pod的时候,他申请的pvc也可以一看删除掉,而pvc记录了,用的是哪块pv所以就可以,将他使用的文件。

2024-07-15 10:17:56 114

原创 k8s核心操作_k8s中的存储抽象_基本概念与NFS搭建_Deployment使用NFS进行挂载---分布式云原生部署架构搭建028

这个就是将172.31.0.4:/nfs/data nfs server 中的这个节点中的/nfs/data这个文件夹 挂载到/nfs/data 本地的node1 的这个目录上去。上面/nfs/data 是NFS主节点创建的目录, 然后/bak/data是在 NFS的从节点node1 node2上的目录,实际上。NFS的主节点master节点,创建一个目录/nfs/data 然后我们再在node1,节点,node2节点,分别。

2024-07-12 10:28:36 4196

原创 k8s核心操作_Ingress高级功能_地址重写功能_流量限制功能配置_k8s服务网络模型总结---分布式云原生部署架构搭建027

然后流量经过ingress层,到达 service-a...等等 层,其实就是根据我们配置的ingress的规则,来调用不同的service对吧.可以看到是初始化的时候分配的,pod-network-cidr=192.168.0.0/16是这个网段。也就是当在浏览器访问左边的地址的时候,实际上是访问的右边的地址,这个就是重写,我们去试试。可以看到整体,首先流量可以经过一个LB,负载均衡,这个可以是自己配置的,可以是购买的。nginx的默认内容了.可以看到上面的现象对吧,多刷新几次,都是显示的。

2024-07-11 09:32:33 125

原创 k8s核心操作_Ingress统一网关入口_域名访问配置_ingress域名转发规则配置_根据域名访问不同服务---分布式云原生部署架构搭建026

可以看到 出现了ingress-nginx 的service,在ingre-nginx这个命名空间中,有两个,一个是。然后我们去编辑一下,我们添加一个nginx,让访问demo.atguigu.com的时候,访问/nginx 这个路径。包含了,hello.atguigu.com 和 demo.atguigu.com两个 域名对吧。然后修改了demo.atguigu.com:31405/nginx 转给了nginx-demo。

2024-07-11 09:31:51 263

原创 k8s核心操作_Service封装服务暴露端口_NodePort方式暴露_公网IP可访问_Ingress网络模型分析及安装_统一网关入口_调用---分布式云原生部署架构搭建025

可以看到这个结构,这里的上面,给所有的deployment,都生成对应的service,组成了,service层网络.可以看到,ingress就是很多service集合的,一个入口,给很多的service提供了一个统一的入口或者说网关。service a订单服务,需要,用户服务了,直接去调用 用户服务service b,这个service就可以,然后可以看到,我们映射暴露的是8000端口,但是使用NodePort方式的时候,每个pod,都映射到自己的公网IP上了,也就是可以使用公网IP来访问这个Pod。

2024-07-10 10:13:17 303

原创 k8s核心操作_Service概念_多实例封装成一个service给前端vue提供服务_Service服务发现_ClusterIP方式_测试Service的服务发现---分布式云原生部署架构搭建024

给出的ip地址,是只能在,内部使用的,在集群的节点上是可以的,但是,如果想提供给外面的人用是不行的。来看一下演示,首先我们,先给,可以看到我们my-dep这个deployment中有3个pod,然后现在我们来做个操作,我们把这3个pod,安装了3个nginx,端口都是80,我们把他们暴露。可以这样理解,如果我们一个deployment中,有3个pod,比如,我们的微服务,暴露了以后,我们就创建好了一个service了,然后我们就去,然后我们再去访问,

2024-07-10 10:13:00 8057 1

原创 k8s核心操作_Deployment滚动更新能力_不停机更新能力_版本回退能力使用_工作负载_其他种类应用部署_无状态_有状态_守护进程_任务调度类型任务---分布式云原生部署架构搭建023

这就相当于,启动一个没问题了,切过来流量,然后关闭一个,然后再去启动一个pod,切过来流量,然后再去关闭一个pod就这样。滚动更新,就是,他先去启动一个新的pod,当pod启动完成了可以提供服务了以后,然后把流量,从旧的。可以看到,他就是这样的,每当,启动完以后,然后再去停掉以后,直到这个deployment中的。可以看到,他就是先把1版本的nginx启动以后,没问题了,再把 2版本的nginx停掉,可以看到它就是,先启动一个pod,然后再去,把流量切过来以后,就停止这个pod。

2024-07-09 13:52:42 7440

原创 k8s核心操作_Deployment的扩缩容能力_Deployment自愈和故障转移能力---分布式云原生部署架构搭建022

replicas修改这个就可以了,修改以后,然后esc退出:wq保存就可以了.故障转移就是如果,一个机器宕机了,那么在这个机器上的pod,会被在其他。不能设置太小了,如果太小,可能会产生问题,就是不停的转移,就有问题了.node1上的pod被自动转移到了node2上了,可以看到。而故障转移的时间,一般都是5分钟,1分钟,2分钟可以设置,我们等一会可以看到,当node1机器关闭以后,可以看到。登录以后可以看到在deployment中,可以看到。可以看到w6shc,这个在node1上对吧.

2024-07-09 13:51:43 138

原创 k8s核心操作_k8s中使用Deployment部署应用_强大自愈能力保证应用永不宕机_以及Deployment的多副本能力---分布式云原生部署架构搭建021

这个时候我们再去kubectl get pod 可以看到,之前删除的这个mynginx这个pod没有了,也没有再自启动,但是。简写是deploy 可以看到删除了以后,这个mytomcat这个deployment就被彻底删除了。那么如果,我们需要,比如一个订单服务,他的使用量很多,需要启动多个副本,那么,也可以使用。创建一个deployment,里面可以指定,让他启动,几份,比如一下子启动10份等。如果删除了,deployment部署的pod,那么会自动复原,自愈。

2024-07-08 17:21:34 198

原创 k8s核心操作_使用k8s在一个pod中部署两个以上的容器_以及部署两个nginx尝试---分布式云原生部署架构搭建020

端口已经被占用,因为我们部署了两个nginx对吧,所以这两个nginx都是80端口重复了。然后在pods中dashboard中,可以看到,对应的pod启动的过程,可以看到。然后从dashboard中也可以进行,操作,pod中 nginx tomcat。然后这里要知道,在pod中的,容器之间是可以共享网络空间,以及共享存储的。可以看到事件这里有个back-off对吧,这个是出现问题了,报错了。我们来部署两个试试,可以看到,我们在一个pod中部署。这里分析一下,可以看到, nginx 默认是80端口。

2024-07-08 16:33:43 4237

原创 麒麟arm架构系统_安装nginx-1.27.0_访问500 internal server error nginx解决_13: Permission denied---Linux工作笔记072

配置configure --prefix 代表安装的路径,--with-http_ssl_module 安装ssl,--with-http_stub_status_module查看nginx的客户端状态。可以看到这里可以指定安装目录,我这里指定的是data/module目录,如果不指定,直接执行。然后再去/data/module/nginx-1.27.0/configure。然后再去执行/data/module/nginx-1.27.0。注意这里--user=root可以加上,也可以不加,没影响.

2024-07-05 13:12:59 400

原创 k8s核心操作_使用yaml文件创建nginx的Pod_在dashboard中创建pod_并且使用k8s分配的地址访问nginx pod---分布式云原生部署架构搭建019

原因是因为没有指定命名空间,因为,我们的yaml,文件,产生的pod是要放到某个。然后如果想看访问这个nginx,我们刚刚在k8s部署的,怎么弄呢?我们看一下左侧带有N的标志的功能,表示,这些是与命名空间有关的,pod,可以看到文件中指定了版本,指定了名称mynginx然后。直接把yaml的内容,直接复制进去就可以了,点击上传就可以了。然后我们再去看,如果我们在命令行不方便,也可以直接在界面上。k8s集群中,使用k8s分配的ip地址是可以访问的,但是。然后cd /usr/share/nginx/html/

2024-07-04 10:29:16 1856

原创 k8s核心操作_namespace的作用_创建_删除_理解k8s中的最小单位Pod_命令行创建nginx的pod---分布式云原生部署架构搭建018

这个就是pod的功能要强大一些,可以包含多个容器,比如一个pod中,你可以安装redis 还可以再安装其他的比如mysql等。那么现在k8s中,一个pod中可以包含多个容器,多个容器共通组成一个pod,当然也可以一个容器。这里的1/2 表示,pod中有两个应用,其中,1个应用在正常工作,另一个异常了.两个容器,共同被封装在了一个pod中,完成了一个,文件的推送和展示的功能.因为这个样的话,获取的是默认的default命名空间中的pods。之前我们在docker中,启动一个,容器,比如redis的容器,

2024-07-04 10:28:54 174

原创 k8s_集群搭建_k8s管理前端_dashboard安装部署---分布式云原生部署架构搭建017

添加了安全组还是不行,因为,发现,这几个机器,每个机器绑定了不同的安全组,我们修改成同一个,就是我们要访问的端口,我们就可以使用公网IP+ 30753端口访问一下,网页端的。然后再去安装一下一个dashboard,有了这个以后,操作k8s集群就不用。然后再去执行 这个命令,等上面的,状态变成了running以后。然后如果执行慢,可以直接先去下载,使用wget,然后再去。修改的时候,直接,去修改我们之前创建的VPC网络就可以了。其实就是,我们给我们之前的vpc网络,去设置的这个安全组。

2024-07-03 14:33:57 276

原创 k8s_集群搭建_在主节点中加入node节点_k8s集群自恢复能力演示_token过期重新生成令牌---分布式云原生部署架构搭建016

其实我们是可以正常关机之类的,不用担心,重新开机以后不能使用,要记得如果在青云上关机,记得公网IP不要释放掉啊。然后我们再来说一下,如果把node,加入到master的时候,如果令牌过期了怎么办,可以看到,在上面。24小时有效的,这个命令是,安装master节点以后,命令行中给出的,复制去执行就可以了。可以看到,以上执行的命令,这个命令,要在,所有的node节点都执行一下,这个命令是。再去执行,这个命令可以,控制,让他一秒钟刷新一次,去查看状态。可以看到,可以得到一个新的命令,然后复制过去使用就可以了。

2024-07-03 14:31:42 8149 1

原创 使用瀚高数据库开发管理工具进行数据的备份与恢复---国产瀚高数据库工作笔记008

对应的包中有个dbclient 这个目录,选中这个目录以后,就可以了,然后。某个模式,比如bigdata_huiju 然后右键进行,点击。其实就是hgdbdeveloper,瀚高的数据库开发管理工具。但是只要报错中没有语法错误,sql执行错误就可以,恢复,然后进行恢复就可以了,但是要注意。data_middle 中,选中。使用瀚高数据库,备份 恢复数据。就正常用就行,不用管了就.在对应的数据库,比如。恢复以后会是报错的.

2024-07-02 17:30:38 110

原创 瀚高数据库2024最新版_6.0.4_Windows版安装使用---国产瀚高数据库工作笔记007

cmd中pg_ctl.exe -D D:\2024\highgo\data start 能启动后,然后再去执行 pg_ctl -D D:\2024\highgo\data stop ,然后去服务中其中再看下。D:\2024\highgo\data中postgresql.auto.conf和 postgresql.conf看下maintenance_work_mem。可以启动以后,然后修改一下,允许远程连接的配置;就可以了,然后再去用桌面上的工具去连接查看。手动启动无法启动,这个时候,首先去。

2024-07-02 13:55:48 241

原创 基于Datax开发支持瀚高数据库的插件_插件开发_以及部署---国产瀚高数据库工作笔记006

可以看到,使用的时候,可以直接先去安装最新版的datax,然后再把,这个编译好的,highgoreader,去放到。6.复制一个插件中的pom.xml文件,然后,到我们新建的插件中。如果想直接使用,开发好的插件,那么可以去下载笔者上传的,打包好的插件,直接放入到。8.然后在最外层的package.xml中,加上,我们自己的插件。10.打包,将最外层的pom.xml其他模块注释,留下自己的。12.然后把插件放到安装好的,服务器上的datax中,比如。7.将其他插件的这个文件夹,复制一份到我们自己的插件中。

2024-06-29 12:05:10 504

原创 k8s_集群搭建_容器环境安装_预备环境安装_ 安装k8s集群三大件_kubeadm_kubectl_下载k8s组件镜像_初始化master主节点---分布式云原生部署架构搭建015

你可以,将其他对机器,加入到master,里面,可以让机器有多个master,做均衡来用,高可用 可以看到 control-plane nodes,命令都给出来了。执行以后,然后再去,验证一下,三台机器,都ping 一下 cluster-endpoint。然后也可以将其他机器,通过执行下面的命令,以worker node的方式,加入到集群中去.然后再去关闭swap,一个是临时关闭一个是永久关闭,都执行一下,所有机器执行一下。然后再去,允许iptables 检查桥接流量,这些复制以后,在三台机器执行,然后。

2024-06-28 10:27:02 160

原创 k8s_组件架构_组件交互逻辑剖析_k8s集群安装逻辑_k8s集群安装流程梳理_开通三台青云服务器_集群规划_搭建基础集群---分布式云原生部署架构搭建014

再通过api server去通知,workernode,然后每个节点都有一个kubelet的角色,就是,从apiserver收到指令以后,然后去,在worker node上去。信息,存入etcd数据库,然后,controller manager做了决策以后,然后由scheduler去看看适合,要部署在哪个worker node上,得到了结果以后,然后,通知秘书部,api server, 然后调度者, scheduler是通过秘书部,来对所有几点进行统计,查询,看看哪个节点适合去做什么,

2024-06-28 10:25:28 229

原创 kubernetes的概念介绍_服务发现负载均衡_存储编排_自动部署和回滚_自动完成装箱计算_自我修复_集群的方式_架构原理---分布式云原生部署架构搭建013

如果领导只有一个,可能会挂掉,那么master有多个,就可以做成高可用,master挂了会,以少数服从多数原则,选举新的master.如果有一个机器down机了,那么,kubernetes会自动把这个应用再部署到,另一个机器,这样。这里容器编排系统,就是先把容器进行编,就是哪些容器,是一个分组,哪些是一个分组,然后再排。然后还有存储编排,就是等,容器删除以后,k8s会自动回收,对应容器的存储,然后自动完成装箱,指的是,可以对容器进行封装,封装他的cpu和内存,然后先看他的功能,负载均衡和服务发现,

2024-06-27 18:26:04 32

原创 使用容器配置文件构建任意应用镜像_并将应用镜像推送到公共仓库共享_应用分享与启动---分布式云原生部署架构搭建012

ENTRYPOINT ["java","-jar","java-demo-0.0.1-SHAPSHOT.jar"] 这个是入口,就是执行java -jar 后面加上jar包的名称,当然,因为我们这里。COPY target/*.jar /app.jar 将target目录下的所有jar包,都复制,成app.jar名字,然后。ENTRYPOINT ["java","-jar","app.jar"] 就可以了。以前是这样做的,不方便,因为需要在服务器上,安装jdk什么的,现在有了。

2024-06-27 18:25:28 324

原创 使用容器部署redis_设置配置文件映射到本地_设置存储数据映射到本地_并开发java应用_连接redis---分布式云原生部署架构搭建011

可以看到java应用的部署过程,首先我们要准备一个java应用,并且我们,用docker,安装一个redis。然后对于端口可以看到,我们要让本地的6379,映射到镜像中的6379。可以看到对应的目录,我们要把镜像中的,映射到本地,方便我们修改。最后那一行可以看到,表示redis的启动命令,所以。然后我们用的是青云服务器,去配置一下安全组放开。然后我们用redis工具连接一下看看,可以了。然后我们再去配置一下redis的密码。放在这里,然后我们去安装redis。对应的路径也映射好了,然后去执行。

2024-06-25 13:24:13 305

原创 从公共仓库拉取推送的镜像并启动_将镜像内部目录挂载到外部目录使用_从镜像中复制文件到本机目录_从本机目录复制文件到镜像中---分布式云原生部署架构搭建010

usr/share/nginx/html 映射到本地的/data/html目录,并且,设置了,镜像中的这个文件是可读可写的 rw 的。可以看到,上面这个命令,我们把本机的/data/html 和 镜像中的/usr/share/nginx/html 进行映射。把容器中的/etc/nginx/nginx.conf 这个文件,复制到本机的/data/conf/nginx.conf这里。/data/conf/nginx.conf:/etc/nginx/nginx.conf 进行映射。

2024-06-25 13:23:54 186

瀚高数据库连接开发工具-2024-hgdbdeveloper.zip

这个是用来连接瀚高数据库的工具,连接pg的工具是连接不了,瀚高数据库安全版的,所以还是需要使用,专门的工具来连接,使用方法非常简单,跟使用操作mysql的navicat差不多.

2024-06-29

datax插件-瀚高数据库支持插件-highgowriter.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了.

2024-06-29

datax插件-瀚高数据库同步支持插件-highgoreader.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了. 如果想自己开发其他的插件可以参考官网的解释.

2024-06-29

瀚高数据库迁移工具2024版.zip

瀚高数据库迁移工具2024版.zip 是一个旨在帮助用户高效、可靠地将数据从瀚高数据库从一个环境迁移到另一个环境的工具。这个工具特别适用于需要进行数据库升级、迁移或备份恢复操作的用户。通过使用这个工具,用户可以轻松地将数据从瀚高数据库的一个版本迁移到另一个版本,或者在不同的服务器、操作系统和硬件平台上迁移数据。 这个工具的主要特点和优势包括: 1. 支持多种迁移场景:无论是同一版本之间的迁移,还是跨版本的迁移,这个工具都能够提供支持。同时,它还支持在不同的服务器、操作系统和硬件平台之间的迁移。 2. 高效的性能:这个工具采用了高效的数据迁移算法,可以快速地将大量的数据从一个环境迁移到另一个环境,同时保证数据的完整性和一致性。 3. 用户友好的界面:这个工具提供了一个直观、易用的界面,用户可以通过简单的点击和选择,完成复杂的迁移操作。 4. 安全可靠:这个工具在迁移过程中采用了多种安全机制,如数据加密、数据验证等,确保数据的安全和可靠。 5. 完善的文档支持:这个工具附带了详细的使用说明和操作指南,用户可以通过阅读这些文档,了解工具的使用方法和操作步骤。

2024-06-12

MSVCR120.dll缺失-瀚高数据迁移工具修复DLL.zip

这是一个专业的修复工具,旨在解决瀚高数据库迁移过程中可能出现的问题。在使用此工具时,用户首先需要启动程序,随后选择需要迁移的数据库,指定数据迁移的源端和目标端。然而,有用户反映在这一过程中遇到了报错提示,显示某个动态链接库(DLL)找不到。为了帮助用户顺利解决这个问题,我们提供了这个工具的详细使用说明,包含在压缩包中。用户可以参考这些说明来排除故障,确保数据库迁移工作的顺利进行。我们建议用户仔细阅读使用说明,遵循指示步骤操作,以充分发挥修复工具的作用,保障数据库迁移的成功实施。

2024-06-12

Semantic-Kernel-MyPlugins.zip

以上是人工智能_大模型028_大语言模型开发框架_Semantic Kernel详细介绍_框架安装_Semantic Functions脚本编写---人工智能工作笔记0163 这个博文中的案例文件,是包括了,如何使用Semantic Function进行,利用自然语言,编写函数. 在当今的AI技术领域,大模型和大型语言模型正变得越来越流行,因为它们能够处理更复杂的任务并生成更高质量的输出。Semantic Kernel是大语言模型开发框架的一个例子,它提供了一个强大的工具集,用于构建和部署高级语言处理应用程序。 Semantic Kernel框架的安装和使用相对简单,它支持多种编程语言和平台,包括Python、C#和JavaScript。这个框架的核心是Semantic Functions,这是一种特殊的函数,它允许开发人员使用自然语言来定义和处理逻辑。这意味着,你可以用简单的英语句子来编写代码,而不是传统的编程语言。 介绍了如何使用Semantic Functions来编写函数。这个资源包括了多个案例文件,这些案例文件展示了如何使用SK

2024-04-10

highgowriter-highgoreader-dataxcode.zip

highgowriter_highgoreader_dataxcode.zip 这个资源用来给datax扩展对瀚高数据库的支持能力,可以使用这个插件,实现数据从mysql/postgresql等其他数据库同步到瀚高数据库,或反向同步 这个资源是一个为DataX工具定制的插件,专门用于增强DataX与瀚高数据库之间的数据同步能力。通过这个插件,用户可以方便地将数据从MySQL、PostgreSQL等其他类型的数据库迁移或同步到瀚高数据库,同时也支持将数据从瀚高数据库同步到其他类型的数据库。 具体来说,这个插件扩展了DataX的数据同步功能,使得用户在执行数据迁移任务时,能够更加灵活地处理与瀚高数据库相关的需求。它能够帮助用户简化数据同步的流程,提高数据同步的效率,并且保证了数据的一致性和准确性。

2024-04-07

docker-compose-linux-x86-64-v2.26.0.zip

docker-compose-linux-x86_64.zip 好吧上周发布的v2.26.0的最新版,给大家准备好了已经,如果你下载不下来,从这里取了直接用吧. 为了确保您能够顺利使用Docker Compose的v2.26.0最新版本,我已经提前准备好了适用于Linux x86_64架构的最新版Docker Compose文件——`docker-compose-linux-x86_64.zip`。如果直接从官方GitHub仓库下载遇到困难,您可以随时使用我提供的这个文件。这样,您就可以跳过在线下载步骤,直接开始配置和使用Docker Compose了。希望这能为您带来便利!

2024-03-29

docker-compose离线版.zip

Ruoyi-Cloud-Plus_使用Docker部署分布式微服务系统---SpringCloud工作笔记200 这个资源可以配合这个博文使用,这里面用到的软件,如果不用这个,自己去下载,会很慢,所以直接放到这里了,希望对大家有帮助. Ruoyi-Cloud-Plus是一个基于SpringCloud的分布式微服务系统,它集成了多种实用的企业级开发功能,如权限管理、数据权限、工作流、三方登录等等。为了方便开发者更快地部署和使用这个系统,这里提供了一个包含所有必要软件的Docker镜像资源。通过使用这个镜像,可以避免由于网络问题导致软件下载缓慢或不稳定的情况,从而大大提高开发效率。 这个博文详细介绍了如何利用Docker来部署Ruoyi-Cloud-Plus分布式微服务系统。通过阅读这篇博文,您可以了解到如何快速搭建开发环境,以及如何使用SpringCloud的各种组件来构建一个高效、稳定的微服务架构。希望这个资源和博文能够为您的开发工作提供有力的支持,让您的项目进展更加顺利。

2024-03-29

ChatGLM-6b-int4基础模型文件.zip-这个是除了比较大的文件的其他文件-其他大的模型文件可以在清华云下载

ChatGLM-6b-int4基础模型文件.zip_这个是除了比较大的文件的其他文件_其他大的模型文件可以在清华云下载,在安装ChatGLM大模型的时候,发现,模型文件特别大,而小文件,又在国内下载特别慢就整理出来了. config.json configuration_chatglm.py gitattributes ice_text.model LICENSE MODEL_LICENSE modeling_chatglm.py quantization.py quantization_kernels.c quantization_kernels_parallel.c README.md tokenization_chatglm.py tokenizer_config.json 这些文件.

2024-02-29

nifi-p12-store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件

nifi_p12_store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件,我们下载最新的nifi-1.23.2这个版本的安装文件以后,解压以后,启动是启动不了的,原因是缺少,这个keystore.p12文件和truststore.p12文件,这两个文件放到conf下面以后,然后去配置nifi.properties文件,配置以后,指定了这两个p12文件的位置,然后去启动nifi就可以启动了,其实,比这个版本低的nifi也是这样的,弄好久才找到了这个问题所在啊...分享 2023-10-08 21:18:18这个时间亲测 可以的..下载去用吧

2023-10-08

瀚高DB企业版最新版连接操作工具2023.zip

瀚高DB企业版最新版连接操作工具2023 这个是在安装完了以后可以用这个工具像用Navicat操作mysql数据库一样来操作瀚高DB数据库. 这个可以结合对应的博文: Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 可以结合这个博文来看,这里面写了如何安装,以及如何用这个操作连接工具远程连接使用瀚高DB数据库.

2023-07-21

瀚高DB企业版最新6.0.4官方安装教程.zip

瀚高PG的安装本来以为很简单,装上就可以了,但是安装了两天,工作经验10年,安装了两天,很麻烦的还是...要注意,首先下载的时候要和对应的系统匹配下载,比如你是Centos,就要下载Centos版本的,我是安装在了openeuler华为的欧拉系统上了,出现了一堆的问题,就很麻烦, 解决了很久,...最后还是没有安装上.. 最后还是换成了centos7来安装的,安装后又找连接工具,这个时候发现连接工具在官网上也没有找到下载的地方,折腾了很久是找到了,可是连不上,又配置远程连接,最后总于弄好了. Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 https://credream.blog.csdn.net/article/details/131836438?spm=1001.2014.3001.5502 对应了我的这个博客可以参考,希望能帮助到你们把.

2023-07-21

NIFI-MySqlToMySql增量同步数据实时采集-实现了日期类型-以及空值处理-插入已存在变更新-更新未存在变插入.zip

NIFI_MySqlToMySql增量同步数据实时采集_实现了日期类型_以及空值处理_插入已存在变更新_更新未存在变插入.zip 使用了NIFI1.21.0最新版,2023-06-20作者在这个时间做好的,这个大数据处理流程,已经实现了,增量mysql的cdc数据读取以后,在插入到目标mysql数据库的时候,如果碰到主键一样的id,就自动变成更新数据,如果在更新的时候碰到主键没有的id就自动变成插入操作,这个是比较符合实际应用情况的.

2023-06-20

NIFI1.21.0-大数据同步处理模板-MysqlToMysql增量同步-单表-处理日期-空值数据.zip

NIFI1.21.0_大数据同步处理模板_MysqlToMysql增量同步_单表_处理日期_空值数据.zip 是作者自己实际项目中用到的,自己学习后制作的NIFI流程模板文件,导入后可以直接使用, 实现了Mysql到mysql数据库的增量CDC数据的实时同步,通过过程中,实现了sql的拼接,以及对日期类型,和空数据类型的处理.

2023-06-20

NIFI1.21.0-Mysql和Postgresql到MysqlHbase-全量指定库和表同步到Mysql和Hbase.zip

NIFI1.21.0_Mysql和Postgresql到MysqlHbase_全量指定库和表同步到Mysql和Hbase.zip 是一个nifi的模板,实现了从mysql以及postgresql中同时读取数据,读取的时候支持,指定数据库和数据表进行同步,数据全量同步,可以同时同步到mysql数据库以及hbase数据库中.

2023-06-20

NIFI大数据处理-PostgresqlToMySql指定表多表-CDC增量数据实时同步.zip

这个项目花费了我比较多的心血,NIFI还是挺好用的,主要是很灵活,可以自己定制,我感觉比一些做CDC的工具,会更灵活一些,但是学习门槛高,现在用的还不是那么的多,很多东西需要自己去查阅官网去自己学习,然后,很多代码需要不停的尝试,才能知道对应的处理器,最终是应该如何使用. 上面的资源我弄了一个星期,终于实现了,把数据从postgresql数据库可以动态的,实时,读取postgresql的cdc数据然后根据cdc的内容,进行数据增量的同步到mysql数据库中去,而且还添加了,cdc数据的分页功能,如果cdc数据内容特别多就不用担心了. 然后还添加了数据表过滤的功能,比如你只想同步一个数据库中的3张表,那么这里面我已经帮你实现了,然后如果你想同步一个数据库中的所有的表,我也已经帮你实现了,你下载以后,直接导入到nifi中,然后配置好自己的数据源就可以直接使用了.

2023-06-12

K线理论-付费课程-实战经验-总结学习手册-2023-05-29.zip

首先是见顶的单根K线的形态: 1、大阳线见顶 也就是开盘在相对低位,收盘在最高价附近,强势状态非常明显,但是如果出现在股价相对的高位或者是上涨行情的尾声阶段的大阳线,往往就是见顶信号,如图: 大阳线见顶技术分析有一定的难度,单纯的按照大阳线本身来判断行情,很难判断准确,往往要结合后市的走势来判断,也就说一只股票当天出现大阳线后,是没有办法判断的,要后面几天的走势才能基本判断,一般大阳线过后连续两根阴线就要开始小心了。 付费炒股课程,学习总结 2、大阴线见顶 开盘价就是最高价,收盘在最低位附近,当大阴线出现在股价运用的相对高位区域,意味着空头处于主导。要堤防股价已经见顶,仅作为短线见顶的信号,也就是讲股票运行到了相对高位区域,出现了大阴线,一般称为乌云盖顶,切记是真阴线,不是假阴线,也就是说收盘价是低于昨日收盘价的 3、十字星见顶 十字星就是开盘价和收盘价都在同一个位置附近,在当天盘中有上攻和下跌的动作,但是都有没有突破,局面平衡,显示即将有方向性的突破,同样也需要结合后面几天的走势来判断是否是顶部,

2023-05-29

NIFI大数据模板-MySqlToPostGresql数据分页实时采集-带分页.zip

NIFI大数据模板_MySqlToPostGresql数据分页实时采集-带分页.zip 使用NIFI将数据实时同步到PostGresql中. 下载以后配置自己的mysql数据库连接池,包括连接地址,用户名密码 配置postgresql的数据库连接池,包括连接地址,以及用户名密码 然后启动流程进行数据实时同步

2023-05-25

NIFI大数据模板-HbaseToMysqlByPhoenix-实时数据同步带分页.zip

NIFI大数据模板_HbaseToMysqlByPhoenix-实时数据同步带分页.zip 这里面编写了一个NIFI大数据传输流程,使用phoenix从hbase中去获取数据,带分页获取数据以后,然后把数据同步到指定的mysql数据库中去,实现数据的实时同步. 下载以后配置一下对应的数据库连接池,以及数据库的用户名密码,就可以使用,导入就可以用,非常方便

2023-05-25

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip NIFI大数据处理模板,导入以后可以直接将数据从postgresql从通过phoenix拉取到Hbase中去,注意这里,需要自己配置一下phoenix连接hbase的参数,包括集群的地址,指定用户名,密码,指定phoenix驱动的位置. 还要注意最好安装nifi1.21.0版本,这个版本笔者是测试过的可以用的

2023-05-25

NIFI大数据模板-PostgresqlToHbase数据实时采集-带分页.zip

如果你也需要利用NIFI进行数据同步,并且你用到了Postgresql数据库,想从Postgresql数据库中去获取数据然后,把数据同步到Hbase中去,这里我们使用的大数据存储工具,Hbase来存储原始数据. 我们需要把所有的关系型数据,以及文档数据等,存入到Hbase中,做为原始数据使用,所以这里 就利用NIFI做了一下. 这个模板导入到NIFI中去以后就可以直接使用,记得配置一下自己的Hbase集群的连接地址,以及Postgresql的连接地址.配置以后,直接启动,就可以进行数据同步了. 记得配置上对应的需要同步的表名以及字段.

2023-05-22

大数据Nifi处理-MySqlToSqlServer数据分页实时同步.zip

项目中需要的整理出来给需要的宝子们,实现了在大数据场景中,实时同步指定MySql数据源的数据,实时同步到SqlServer数据库中去. 下载以后使用的时候,需要配置一下自己的mysql数据源的用户名,密码,ip地址端口号信息,设置以后,在数据库连接池中,启动自己的数据库连接池. 然后再去配置一下sqlserver的数据库连接池,指定对应的IP地址,数据库名称,用户名,密码,然后去启动SqlServer数据库连接池. 最后启动所有流程,Nifi就会根据流程自动从mysql数据库中读取数据,读取数据有把数据同步到SqlServer中去

2023-05-19

MySqlToHbase数据分页导入到Hbase.zip

项目中自己用的,弄了很久,需要把数据从各种数据源导入到,我们的原始数据库,原始数据库采用hbase,来存储所有数据,那么这里就用的nifi,从其他数据源获取数据以后,然后导入到Hbase中去,这个是设计好的流程模板. 导入nifi中以后,直接启动,配置好自己的连接地址,就可以进行数据同步了.

2023-05-16

大数据处理NIFI模板-MySqlToMySql增量数据实时同步-利用Binlog实时同步数据.zip

花了作者好多时间,这个NIFI不得不说还是挺好用的,可以减少很多代码的编写,但是,由于资料太少了,应用案例也少,很多功能,网上都找不到,所以只能自己去研究,研究了很久... 终于攻克了,使用mysql的binlog功能,来实现,insert,update,delete数据的实时同步,增量同步,有了这个流程工具以后,同步数据就变得非常方便了. MySql的Binlog打开以后,然后直接把下载的模板导入到自己的nifi中去,然后配置好自己要同步的数据库和表,配置好数据库连接信息,就可以了启动实时同步了,太酷了...

2023-05-06

Nifi模板-PostGreSqlToMySql数据分页实时采集-带分页.zip

使用大数据处理工具NIFI,进行数据从Postgresql中导入到MySql中,实现数据的同步处理,处理的时候,是带有分页的,因为作者正在做相关的项目,而,用nifi同步数据好说,如何,进行数据的分页同步不好弄,这里,主要是,采用处理器,自动生成分页sql,来进行数据的分页. 弄了好久终于弄出来了,希望能帮到你,这个模板可以导入到nifi中直接使用.非常的方便.

2023-05-06

2023自己实操-验证过的-通达信公式-胜率很高-神技-趋势+底部钝化+底部结构+选股+风口-一整套-.zip

作者自用的一款胜率很高,自己根据经验积累调整,实现的几个指标,交了几年学费总结的. 导入到通达信中就可以用,手机电脑端都可以用,注意包含源码的哈,自己通过这一整套指标,已经有不错的营收,作者自身是程序员,公式是自己根据经验,调整,并且实战操作,胜率很高,分享出来着实有点舍不得,炒股者...往往都是赔钱...我也一样,前好几年都是赔了不少,教了很多学费...经过长时间摸索,才有了这个东西...珍惜吧... 包含了从选股指标 到 风口 到 趋势 到钝化 到结构 5大指标 同时共振使用,效果很好,胜率很高自己一直在用...多了不说了.

2023-04-28

整理了好久-2023最新Java面试题-如果你在找工作-希望能帮到你了

以前的面试题都太旧了,这两年技术发展太快了,找的面试题都是很多旧的,因此整理了一圈,整理出很多新的问题,包括,Redis,Java,Java系列的大数据等内容,很全面,今年工作并不好找,祝你早日找到心仪的好工作.加油~

2023-04-28

2023-04-28最新-自己封装整理-可直接使用-亲测可用-多模态AI合集-ChatGPT4-ChatGpt3.5.zip

2023-04-28最新_自己封装整理_可直接使用_亲测可用_多模态AI合集_ChatGPT4_ChatGpt3.5.zip 人工智能辅助可以帮助我们的工作,生活,提高更多的效率,上面是作者自己整理的,常用的,可用的,无需登录注册就可以使用,来提高我们的工作效率,包括写文档,各种文档,比如论文,产品方案,详细设计,概要设计,需求文档,以及写代码,遇到问题让他给出解决思路,个人用的非常爽...也许真的未来,我们和AI共存..

2023-04-28

大数据Nifi模板-Mysql数据分页同步-实现了分页功能-MySqlToMySql数据分页实时采集-带分页功能.zip

1.最近在用大数据处理工具nifi做大数据处理,纯界面化的操作很方便,但是资料少,就这个mysql分页弄了好久,分享出去了 2.如果你用到了点个赞吧,笔者自己弄了好几天,测试过了可以放心用 3.配置好自己需要同步的表,修改一下数据连接池记得修改成自己的. 4.下载以后配置一下直接启动就可以用了

2023-04-24

大数据nifi模板,用来实时从mysql数据中读取数据到另一个mysql的数据库中

1.最近在做大数据项目,使用了nifi,确实好用,但是不得不说,资料少,而且虽然可以进行自定义处理器开发,但是资料也少. 2.下载以后导入nifi,然后直接点击启动就可以实现数据的同步了,可以直接同步一整张表,数据库连接池已经配置好了,笔者自己测试过用了.. 3.可以配置需要同步的表,然后需要同步的目的地的表就可以了.

2023-04-24

文心一言解读-及应用方向解读2023-04-19PDF.zip

⽂⼼⼤模型强调产业级知识增强的特性,旨在降低B端应⽤场景的AI门槛,便于⼆次开发。和⾦融、电⼒、航天等⾏业的⽣态伙伴发布⼀系列⾏业⼤模型,帮助企业迅 速迭代出和业务模式相匹配的模型,截⾄22年底发布了11个⾏业⼤模型。 n2022年,百度世界⼤会和中国探⽉⼯程联合发布百度航天⽂⼼⼤模型,是⾸个航天领域⼤模型,把航天领域的知识图谱和客户积累的数据进⾏智能采集、分析和理 解,助⼒智能感知、深空探测的技术突破。 l⼤模型之上提供⼯具和平台层,以SDK、API接⼝调⽤的⽅式为AI开发者提供⼤模型的套件,⾯向零基础开发者的EasyDL可以做简单的AI开发,把AI中台封装在成型的 BML⼤模型向外做相应的输出。 ⽂⼼⼀⾔在百度2⽉到3⽉的优先级最⾼,⽐如百度阳泉超算中⼼主要为⽂⼼⼀⾔做训练推理。除了A100,还⽤了⼀些国产化的产品,⽐如寒武纪的思元590

2023-04-19

ChatGpt2023年研究框架-2023-04-19.zip

ChatGpt最新专题研究报告 ChatGPT市场反应热烈,国内外巨头纷纷入场 据统计,ChatGPT日活跃用户数的增速远超Instagram,国内外科技巨头都非常重视ChatGPT引发的科技浪潮,积极布局生成式AI,国内厂商(百度、腾讯等)也高度关注ChatGPT,积极探索前沿技术,相关深度应用也即将推出。 ChatGPT经历多类技术路线演化,逐步成熟与完善 ChatGPT所能实现的人类意图,来自于机器学习、神经网络以及Transformer模型的多种技术模型积累。Transformer建模方法成熟以后,使用一套统一的工具来开发各种模态的基础模型这种理念得以成熟,随后GPT-1、GPT-2、GPT-3模型持续演化升级,最终孵化出ChatGPT文本对话应用。 AIGC跨模态产业生态逐步成熟,商用落地未来可期 AIGC产业生态当前在文本、音频、视频等多模态交互功能上持续演化升级,奠定了多场景的商用基础。跨模态生成技术也有望成为真 正实现认知和决策智能的转折点。

2023-04-19

nacos-server-1.1.4 这个下载以后可以直接使用

nacos-server-1.1.4 这个下载以后可以直接使用,找到对一个的bin目录可以直接启动了,如果有对应的mysql,配置中心可以修改conf文件夹中的application.properties文件,配置,对应的配置中心的内容,具体是mysql的地址,用户名密码

2023-03-16

xsync 脚本将文件同步到大数据集群中的所有机器

xsync 脚本将文件同步到大数据集群中的所有机器,使用起来非常方便,自己封装的 使用的时候,记得修改,脚本中的,集群机器名称.

2023-02-23

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表,然后设计有定时任务,可以每个月月末的时候,去创建下一个分表程序

2022-08-22

idl编译jar包模板工程.zip

北向接口开发之idl打包成jar包用到工程的模板,直接把里面的java文件替换成自己的java文件, 首先把厂商提供的idl包编译成java文件,然后把编译后的java文件导入到工程里面去,然后保证项目没有错误,然后点击编译,编译成的jar包可以用来,开发北向接口,采集网管数据.

2022-08-04

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息,在大数据采集项目中用到的,已经测试过了

2022-07-25

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了,很好用,分享给大家

2022-06-28

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密.zip

2022-06-24

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除