自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

添柴程序猿的专栏

程序人生_困难下的坚持最珍贵.....

  • 博客(177)
  • 资源 (54)
  • 问答 (4)
  • 收藏
  • 关注

原创 大数据_Hbase-原理介绍& 安装---Hbase工作笔记0004

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后上面我大体说了一下,mysql存储的缺点,以及hbase怎么改进的,用什么结构存储的,然后我们接着说hbase具体的一些结构.上面是hbase的特点.然后我们可以看到上次说过,他存数据,mysql是按行来存储的,但是hbase可以按行按列,可以动态的给垂直按列拆分,水平按行拆分,动态的存表数据.可以看到hbase就是列式存储,列族存储,列族就是,几个列我拆成一个

2020-12-31 14:49:33 1365 4

原创 编程语言_java_面试题0002

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152记录一些面试时候可能会问道的问题,不记录,有时候现想,想出来的问题,没那么经典...可能就乱问了...不太好. 经常更新,工作中碰到觉得不错的技术要点,技术细节会记录在这里. ...1.描述一下什么是java的内存碎片?比如这里有1,2,3,4,4个内存,分别放了A,B,C,D这四个字母.b,c不用了,就会回收如果再来一个e可以放,再来一个数组长度是3,就没办法放了这个是内存碎片,只

2020-12-31 09:19:24 276

原创 大数据_Hbase_面试题0001

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152记录一些面试时候可能会问道的问题,不记录,有时候现想,想出来的问题,没那么经典...可能就乱问了...不太好.经常更新,工作中碰到觉得不错的技术要点,技术细节会记录在这里....

2020-12-31 09:13:23 307

原创 Hive大数据-Hive的优缺点---大数据之Hive工作笔记0002

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-12-30 17:36:29 325

原创 k8s集群部署项目_JAVA项目(部署镜像暴露应用)---K8S_Google工作笔记0062

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152上面我们已经给我们的java项目,制作了dockerfile的docker镜像,然后把这个镜像推送到了阿里云的镜像仓库中.然后我们开始去做控制器部署镜像,然后对外暴露应用,以及再去运维升级优化这个步骤首先我们先从我们的master节点上去创建我们的podkubectl create deployment javademo1 --image=registry.cn-beij.

2020-12-30 16:19:12 364

原创 k8s集群部署项目_JAVA项目(推送镜像到云镜像服务器_这里使用阿里云)---K8S_Google工作笔记0061

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们把我们做好的java项目的那个docker镜像上传到阿里云上去.推送镜像首先我们登陆阿里云账号,然后找到容器镜像服务ACR,点击管理控制台然后点击镜像仓库,然后我们点击命名空间,然后创建一个命名空间,填写一个名字就可以了然后自动创建仓库打开然后我们再点击回镜像仓库,然后点击创建镜像仓库选择命名空间,然后写一个仓库的名字java-project-01

2020-12-30 15:56:49 359

原创 k8s集群部署项目_JAVA项目(制作镜像)---K8S_Google工作笔记0060

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152注意这个k8s的部署,这个属于运维的范畴.好首先我们先去准备一个java项目,我们可以把java项目打成jar包,或者war包.这个过程是开发人员做的,但是对于运维人员也需要知道.然后这里我们就需要jdk的环境和maven环境,用maven打包.我们看一下 这个项目的properties文件可以看到这个项目的端口用的是8111然后这个是测试用的java项目

2020-12-30 15:14:52 408

原创 k8s集群部署项目_容器交付流程介绍---K8S_Google工作笔记0059

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-12-30 14:32:42 422

原创 k8s高可用集群_搭建高可用集群(部署master2和node节点)---K8S_Google工作笔记0058

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后上一节我们把master1节点,搭建完成了,接下来我们把下面的master2节点以及node节点部署完成首先我们查看一下上次部署的内容都部署好了kubectl get pods -n kube-system然后我们查看节点看看,已经是ready了kubectl get nodes然后我们去操作把master2节点加入到集群中去可以看到其实就是首先把master1

2020-12-30 13:58:26 289

原创 k8s高可用集群_搭建高可用集群(部署master1节点初始化)---K8S_Google工作笔记0057

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们去部署我们的master1节点.以及去初始化我们的master1节点.我们设置启动systemctl enable kubelet 设置开机启动kubelet然后注意这里:我们只在有虚拟ip的master节点上执行,这个初始化的操作.可以用命令ip a s ens33 注意这个ens33,可以通过ifconfig来查看为了好看这里我们创建一个文件夹,在文件中操.

2020-12-30 11:31:29 394

原创 k8s高可用集群_搭建高可用集群(部署haproxy和安装docker以及其他组件)---K8S_Google工作笔记0056

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们再去安装haproxy,实现负载均衡.然后yum install -y haproxy在master1和master2上安装haproxyyum install -y haproxy.然后这里,我们需要去配置一下haproxybalance roundrobin 我们先看一下这个配置文件,可以看到这里balance roundrobin 这个是个负.

2020-12-30 10:26:51 283

原创 k8s高可用集群_搭建高可用集群(初始化和部署keepalived)---K8S_Google工作笔记0055

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来部署keepalived,搭建高可用集群.然后我们这里需要master,155,master2,156这机器然后node1是157这个机器.然后还需要一个虚拟ip,192.168.44.158可以看到我们有个安装的文档按照这个文档安装就可以了,下面有文档的详细信息,但是下面我也安装一遍.有些需要copy的内容,可以在下面的文档中copy注意,在m.

2020-12-29 19:41:00 339

原创 k8s高可用集群_搭建高可用集群(实现方式介绍)---K8S_Google工作笔记0054

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来说搭建高可用集群,为什么要搭建高可用集群.因为,首先我们说master节点是用来管理其他的node节点的,如果master节点崩了怎么办?那么好,整个集群就不能用了,所以对于master节点我们至少用部署2个之前是上图的架构,是用的单master节点.然后对于高可用的架构,我们可以看看,这里至少我们要有2个master1节点,然后master节点有多个的话,那

2020-12-29 17:23:27 378

原创 k8s集群资源监控-搭建监控平台(prometheus和grafana)---K8S_Google工作笔记0053

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来,搭建一下监控平台,来监控我们的所有的节点,以及节点中pod的使用清空,网络,cpu等等的情况首先我们先去prometheus,来进行,监控数据的每隔多少时间去抓取可以看到prometheus的安装,有很多的方法,比如可以去下载二进制文件,解压安装,我这里使用配置文件yaml文件的方式安装.可以看到上面有用到这几个文件.首先我们来看一下这个rbac-setup.y

2020-12-29 17:07:01 314

原创 k8s集群资源监控-监控指标和方案---K8S_Google工作笔记0052

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152我们接下来要实现集群的监控,那么我们要监控什么?比如节点资源利用率,有多少节点在用,多少节点在空闲我们有多少节点,多少节点在运行pod然后对于pod我们,比如要监控容器的指标,比如cpu的使用率等等,应用程序的健康状态等.我们要用这个普罗米修斯和这个grafana来进行监控这prometheus支持,监控,报警,时间序列,以及可以做为一个数据库来使用,另外,这个是.

2020-12-29 15:45:44 555

原创 k8s核心技术-持久化存储(PV和PVC)---K8S_Google工作笔记0051

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们前面用nfs,进行持久化,可以做到把一些信息,持久的保存到一个nfs服务器中.网络存储中.但是,这里有个不好的地方,就是我们的nfs的服务器的地址192.168.44.134 我们是直接写到这个pod中的,这样,暴露了我们的nfs的地址,这样不安全,所以我们要用到PV和PVC什么是PV,PV实际上就相当于我们把资源抽象一下,出来一个东西就叫PV,通过PV我们可以把nfs的网

2020-12-29 15:27:57 229

原创 k8s核心技术-持久化存储(nfs网络存储)---K8S_Google工作笔记0050

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们再来看k8s中的,持久化存储之前我们说过数据卷,但是利用数据卷存东西,pod如果重启的话,存的东西就没有了那么怎么办呢>?我们可以用nfs来实现网络存储.比如我们要把nfs服务器,安装在新建会话这个服务器上.首先我们在找一台服务器来安装nfs,网络存储服务器,这里我们在新建会话 这个服务器上安装yum install -y nfs-utils 执行这个

2020-12-29 15:05:17 334

原创 k8s核心技术-Helm(chart模板的使用下)---K8S_Google工作笔记0049

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152我们接着上一节的开始弄,可以看到这里我们在values.yaml文件写入replicas: 1 副本的数量image:nginx 镜像tag:版本label:nginxport:80然后我们在templates的yaml文件中使用{{.Values.变量名称}}来引用values.yaml文件的内容.然后注意这里的Release.Name可以获取一个随机

2020-12-29 14:05:15 284

原创 k8s核心技术-Helm(chart模板的使用上)---K8S_Google工作笔记0048

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们说helm还可以实现,我们yaml文件的高效复用,接下来我们说这个点.可以看到其实我们的大部分的yaml文件的内容格式实际上都是差不多的,可能image不一样,然后name名字不一样,然后等等.这样我们就把这些全局变量,放到values.yaml中,这样yaml文件中只需要引用就可以了.然后我们先看看在templates中我们的这两个yaml文件打开看看

2020-12-29 12:00:54 492

原创 k8s核心技术-Helm(自定义chart部署)---K8S_Google工作笔记0047

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后上一节我们用helm来快速使用现成的chart部署了一个一个应用现在我们使用自己做的chart来快速的部署一个应用,咱们说chart是yaml文件的集合对吧.首先我们先去查看一下podkubectl get pods然后我们再去helm create mychart 创建一个chart创建以后我们可以看到有个mychart这个文件夹了然后我们进入这个文件夹c

2020-12-29 11:19:31 434

原创 k8s核心技术-Helm(快速部署应用)---K8S_Google工作笔记0046

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152使用helm安装应用,我们先体验一下这个多快.首先搜索在helm,搜索应用,然后直接安装就可以了首先我们去搜索这个应用weave 这个应用,这个是个ui的应用helm search repo weave 可以看到搜索到了搜索到了以后我们去安装helm install ui stable/weave-scope然后这样就是安装了.可以看到安装后,也显示出了对应的.

2020-12-29 09:11:55 279

原创 k8s核心技术-Helm(安装和配置仓库)---K8S_Google工作笔记0045

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来看看怎么来安装这个helm,注意安装v3的helm速度很快,但是安装v3之前的版本很慢,这里我们安装v3可以看到这里我们用v3.3.1这个版本去下载就可以了下载以后上传到服务器然后解压解压后可以看到有个linux_amd64这文件夹然后列表可以看到里面有个helm文件夹我们把这个helm文件夹,移动到usr/bin下mv helm /u

2020-12-28 20:31:49 304 1

原创 k8s核心技术-Helm(概述)---K8S_Google工作笔记0044

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来看一下什么是helm,可以看到helm可以理解成一个包管理工具可以方便的把打包好的yaml文件部署到k8s上.helm的组成部分可以看到,但是注意我们用的是v3版本helm是一个命令行工具,然后用来操作chart,chart是一个yaml文件的集合.然后release,可以把release理解成,chart部署的实体.是一个应用级别的版本管理工具可以看到v

2020-12-28 20:16:07 311

原创 k8s核心技术-Helm引入---K8S_Google工作笔记0043

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们再来说一下这个helm文件前面我们说了我们可以通过上面的命令导出一个yaml文件然后我可以通过上面的命令暴露端口.然后我们可以通过上面的命令查看pod,以及svc服务所以之前我们去部署一个过程的时候,实际上就是我们可以通过deployment控制器,部署一个pod然后启动pod的时候会启动一个service服务然后我们还配置了ingress功能,

2020-12-28 19:58:35 257

原创 k8s核心技术-Ingress(对外暴露应用实施)---K8S_Google工作笔记0042

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来实现一下这个ingress.首先我们创建一个nginx应用kubectl create deployment web --image=nginx然后我们查看一下刚刚部署的这个pod,注意这个pod的名字叫webkubectl get pods 可以看到有个web-5dcb957ccc-7qn82然后我们去看一下kubectl get deploy 去.

2020-12-28 17:29:05 329

原创 k8s核心技术-Ingress(概述)---K8S_Google工作笔记0041

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来看一下这个Ingress是什么东西之前我们说,我们对外暴露端口,是通过IP+端口来实现的.但是我们说那种NodePort暴露端口,暴露的端口是在所有的节点上都能访问的,也就是说这个端口,就占用了所有的节点的ip,所有的节点上,这个端口都不能用了,都只能给这个服务用.但是实际上我们实际中大部分都会用域名来访问,不同域名,会跳转到不同的端口中,不同的端口对应不同的服务..

2020-12-28 16:30:32 317

原创 k8s核心技术-集群安全机制(RBAC实现鉴权)---K8S_Google工作笔记0040

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来利用RBAC实现鉴权.首先我们先去创建一个命名空间kubectl create ns roledemo然后我们在命名空间下创建一个podkubectl run nginx --image=nginx -n roledemo 可以看到这里-n roledemo这个就是把这个pod,部署到指定的命名空间下然后我们查看一下kubectl get pods -n

2020-12-28 15:18:32 267

原创 k8s核心技术-集群安全机制(RBAC介绍)---K8S_Google工作笔记0039

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后咱们来说k8s中鉴权所用的rbac来看看他的工作过程,其实他就是基于角色的鉴权.可以看到首先我有个角色Role,然后比如我这里有个角色叫sale销售,然后我还有主体,这个主体我们可以理解成系统中的用户,然后,角色绑定的意思是我们让我们主体中的用户,比如lucy这个用户,属于sale销售这个角色.然后角色,就可以操作,比如pod,node...比如可以执行get ,create操

2020-12-28 14:27:14 303

原创 k8s核心技术-集群安全机制(概述)---K8S_Google工作笔记0038

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152接下来我们说k8s的安全机制:可以看到对于k8s来说,有上面三步需要做,在访问k8s集群的时候过程就是,首先来访问k8s,首先要先认证,认证的这个角色,就跟个门卫一样,然后再经过授权,这个请求才能访问,然后进来门了,只能授权进入财务部,比如,然后进入财务部,要想找财务部的某个人,这个时候就需要有个准入控制,有个表,看看这个人在不在在的这个表里面就让你进去找他.经过这3.

2020-12-28 14:09:10 262

原创 k8s核心技术-配置管理_ConfigMap---K8S_Google工作笔记0037

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们再来看这个configMap,也是k8s中用来做配置管理的.我们前面说的那个secret是存放加密数据的,而这个configMap是用来存放不加密的数据的这个ConfigMap可以让pod以变量或者Volume的方式,使用挂着到容器中的配置文件内容.首先我们先清理一下以前的配置pod.kubectl get podskubectl delete secret --all

2020-12-28 13:43:29 187

原创 k8s核心技术-配置管理_Secret_以变量形式使用Secret文件_以及以数据卷的形式使用Secret文件---K8S_Google工作笔记0036

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们再看k8s中的Secret这个控制器,用来创建加密文件的,然后怎么使用这个加密文件,有两种方式,一种是变量的方式引用,一种是用数据卷的方式挂载.首先咱们先看如何生成secret文件我们用base64编码,加密怎么把一个值加密用base64echo -n 'admin' | base64 就相当于把admin加密成base64了用于创建secret文件的yaml文

2020-12-28 09:41:25 327

原创 大数据_Hbase-原理说明_大数据存储_垂直拆表_水平拆表_动态列扩展---Hbase工作笔记0003

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来说一下Hbase的原理.咱们首先来看一张表比如这个时候我来登录,其实我只需要知道id,用户名就可以了,当然有可能会需要密码,但是对于年龄,邮箱我不需要知道,对吧,但是不需要知道,但是是不是如果我们用的是mysql的,他也给取出来了对吧.这样好嘛,反正就是效率慢了对吧.然后如果我们的列特别特别多呢?是不是查询出来的无用的数据就越多而且会浪费带宽等资源

2020-12-27 19:03:10 321

原创 大数据_Hbase-数据存储介绍---Hbase工作笔记0002

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152在说这个Hbase之前我们先说一下这个数据存储我们之前学过这个kafka和flume对吧,flume可以存数据么,不可以对吧,因为flume中,数据如果被消费了就会删除掉.所以flume主要是用来做数据的传输的,采集和传输,并不存储下面总结的这些技术,是要学大数据,需要学习的东西,很多的,做个插曲哈:flumeOozieSqoopazkabankyli.

2020-12-27 16:34:34 280

原创 大数据_Hbase-分布式介绍_分布式发展历程_去中心化_客户端负载均衡_服务器端负载均衡---Hbase工作笔记0001

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152刚开始的时候,我们就是一台服务器,然后好多用户来访问,但是,每个用户,我服务器需要开个线程来对应处理,然后,早期的时候tomcat,500个并发就受不了了.tomcat就可能崩掉了.但可以通过调整参数让tomcat并发成1000.但是再多也不行了.这个时候怎么弄,就搭建多个服务器,每个可以撑500,3个可以撑1500用户了如果在一台电脑上,有3个服务,那么这3个服务的内容还

2020-12-27 16:09:41 218

原创 k8s核心技术-Controller控制器_Controller(Job和Cronjob)_一次任务和定时任务---K8S_Google工作笔记0035

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们来说一下这个k8s支持的这样一个功能,就是k8s支持,job,也就是任务,也就是说我们有一些任务可以执行一次,然后就不执行了.比如一些批处理什么的,我们来试一下首先看看上面是我们之前部署的pod ds是守护进程,上一节部署的我们先看看job类型的pod怎么部署,先看看这个yaml文件可以看到,这个文件中kind是Job然后我部署了一个:Pi,就是部署了一个来计算圆周

2020-12-27 14:28:06 415

原创 Hive大数据-认识Hive知识结构_以及概念介绍---大数据之Hive工作笔记0001

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

2020-12-26 22:11:37 250

原创 k8s核心技术-Controller(DaemonSet)_部署守护进程---K8S_Google工作笔记0034

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152这个守护进程是什么意思,其实就是说,我们要保证,每个node上都要运行在同一个pod中,也就是说把所有的node节点,都归类到这个pod中,所有的节点都属于这个pod.新加入的node,也同样要运行在这个pod中,这样保证所有的node都属于这pod.其实就是相当于给所有的节点我们都安装一下这个程序,比如下面的这个例子,我们要给所有的节点安装一个数据采集工具来采集所有节点上的数据.

2020-12-26 19:15:03 358

原创 k8s核心技术-Controller(statefulSet)_部署有状态应用---K8S_Google工作笔记0033

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们说k8s的controller可以部署无状态的应用,也可以部署有状态的应用首先我们要明确什么是无状态,什么是有状态无状态的应用,1.认为所有的pod都是一样的,比如我们部署的nginx,可以认为所有的pod的实例都是一样的2.所有的nginx都可以使用,没有先后的区分3.也不用考虑哪个nginx在哪个node上运行,只要能用就行4.并且扩展伸缩也很简单,就相当于

2020-12-25 20:22:37 263

原创 k8s核心技术-Service概述_Service的三种类型_ClusterIP只能内部访问_NodePort可以外网访问_LoadBalancer公有云---K8S_Google工作笔记0032

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后我们再来说一下service类型关于暴露端口我们去看一下帮助文档,这里kubectl expose --help然后可以看到--type有3个ClusterIP,NodePort,LoadBalancer有这3个类型那么关于这个ClusterIP这个类型,是只能在内网中使用,也就是我们部署的pod,只能在内网中才能访问,一会咱们试一下.然后Nod

2020-12-25 17:07:09 469 1

原创 k8s核心技术-Service概述_Service如何实现负载均衡_提供虚拟IP_以及Po的IP注册和发现---K8S_Google工作笔记0031

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152然后咱们再来说下一个概念service概念.为什么需要service呢,因为咱们知道,k8s中的pod的ip地址,有可能会变的,是动态的,不固定的,因为,像是重启,创建等都会导致ip变化,那么如果我们,比如有个nginx,如果我们一直访问的好好,那么这个pod一重启,可能我们就不能访问了,因为ip地址变了.所以为了解决这个问题才有的service所以service存在的意义就是

2020-12-25 16:10:53 389

瀚高数据库连接开发工具-2024-hgdbdeveloper.zip

这个是用来连接瀚高数据库的工具,连接pg的工具是连接不了,瀚高数据库安全版的,所以还是需要使用,专门的工具来连接,使用方法非常简单,跟使用操作mysql的navicat差不多.

2024-06-29

datax插件-瀚高数据库支持插件-highgowriter.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了.

2024-06-29

datax插件-瀚高数据库同步支持插件-highgoreader.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了. 如果想自己开发其他的插件可以参考官网的解释.

2024-06-29

瀚高数据库迁移工具2024版.zip

瀚高数据库迁移工具2024版.zip 是一个旨在帮助用户高效、可靠地将数据从瀚高数据库从一个环境迁移到另一个环境的工具。这个工具特别适用于需要进行数据库升级、迁移或备份恢复操作的用户。通过使用这个工具,用户可以轻松地将数据从瀚高数据库的一个版本迁移到另一个版本,或者在不同的服务器、操作系统和硬件平台上迁移数据。 这个工具的主要特点和优势包括: 1. 支持多种迁移场景:无论是同一版本之间的迁移,还是跨版本的迁移,这个工具都能够提供支持。同时,它还支持在不同的服务器、操作系统和硬件平台之间的迁移。 2. 高效的性能:这个工具采用了高效的数据迁移算法,可以快速地将大量的数据从一个环境迁移到另一个环境,同时保证数据的完整性和一致性。 3. 用户友好的界面:这个工具提供了一个直观、易用的界面,用户可以通过简单的点击和选择,完成复杂的迁移操作。 4. 安全可靠:这个工具在迁移过程中采用了多种安全机制,如数据加密、数据验证等,确保数据的安全和可靠。 5. 完善的文档支持:这个工具附带了详细的使用说明和操作指南,用户可以通过阅读这些文档,了解工具的使用方法和操作步骤。

2024-06-12

MSVCR120.dll缺失-瀚高数据迁移工具修复DLL.zip

这是一个专业的修复工具,旨在解决瀚高数据库迁移过程中可能出现的问题。在使用此工具时,用户首先需要启动程序,随后选择需要迁移的数据库,指定数据迁移的源端和目标端。然而,有用户反映在这一过程中遇到了报错提示,显示某个动态链接库(DLL)找不到。为了帮助用户顺利解决这个问题,我们提供了这个工具的详细使用说明,包含在压缩包中。用户可以参考这些说明来排除故障,确保数据库迁移工作的顺利进行。我们建议用户仔细阅读使用说明,遵循指示步骤操作,以充分发挥修复工具的作用,保障数据库迁移的成功实施。

2024-06-12

Semantic-Kernel-MyPlugins.zip

以上是人工智能_大模型028_大语言模型开发框架_Semantic Kernel详细介绍_框架安装_Semantic Functions脚本编写---人工智能工作笔记0163 这个博文中的案例文件,是包括了,如何使用Semantic Function进行,利用自然语言,编写函数. 在当今的AI技术领域,大模型和大型语言模型正变得越来越流行,因为它们能够处理更复杂的任务并生成更高质量的输出。Semantic Kernel是大语言模型开发框架的一个例子,它提供了一个强大的工具集,用于构建和部署高级语言处理应用程序。 Semantic Kernel框架的安装和使用相对简单,它支持多种编程语言和平台,包括Python、C#和JavaScript。这个框架的核心是Semantic Functions,这是一种特殊的函数,它允许开发人员使用自然语言来定义和处理逻辑。这意味着,你可以用简单的英语句子来编写代码,而不是传统的编程语言。 介绍了如何使用Semantic Functions来编写函数。这个资源包括了多个案例文件,这些案例文件展示了如何使用SK

2024-04-10

highgowriter-highgoreader-dataxcode.zip

highgowriter_highgoreader_dataxcode.zip 这个资源用来给datax扩展对瀚高数据库的支持能力,可以使用这个插件,实现数据从mysql/postgresql等其他数据库同步到瀚高数据库,或反向同步 这个资源是一个为DataX工具定制的插件,专门用于增强DataX与瀚高数据库之间的数据同步能力。通过这个插件,用户可以方便地将数据从MySQL、PostgreSQL等其他类型的数据库迁移或同步到瀚高数据库,同时也支持将数据从瀚高数据库同步到其他类型的数据库。 具体来说,这个插件扩展了DataX的数据同步功能,使得用户在执行数据迁移任务时,能够更加灵活地处理与瀚高数据库相关的需求。它能够帮助用户简化数据同步的流程,提高数据同步的效率,并且保证了数据的一致性和准确性。

2024-04-07

docker-compose-linux-x86-64-v2.26.0.zip

docker-compose-linux-x86_64.zip 好吧上周发布的v2.26.0的最新版,给大家准备好了已经,如果你下载不下来,从这里取了直接用吧. 为了确保您能够顺利使用Docker Compose的v2.26.0最新版本,我已经提前准备好了适用于Linux x86_64架构的最新版Docker Compose文件——`docker-compose-linux-x86_64.zip`。如果直接从官方GitHub仓库下载遇到困难,您可以随时使用我提供的这个文件。这样,您就可以跳过在线下载步骤,直接开始配置和使用Docker Compose了。希望这能为您带来便利!

2024-03-29

docker-compose离线版.zip

Ruoyi-Cloud-Plus_使用Docker部署分布式微服务系统---SpringCloud工作笔记200 这个资源可以配合这个博文使用,这里面用到的软件,如果不用这个,自己去下载,会很慢,所以直接放到这里了,希望对大家有帮助. Ruoyi-Cloud-Plus是一个基于SpringCloud的分布式微服务系统,它集成了多种实用的企业级开发功能,如权限管理、数据权限、工作流、三方登录等等。为了方便开发者更快地部署和使用这个系统,这里提供了一个包含所有必要软件的Docker镜像资源。通过使用这个镜像,可以避免由于网络问题导致软件下载缓慢或不稳定的情况,从而大大提高开发效率。 这个博文详细介绍了如何利用Docker来部署Ruoyi-Cloud-Plus分布式微服务系统。通过阅读这篇博文,您可以了解到如何快速搭建开发环境,以及如何使用SpringCloud的各种组件来构建一个高效、稳定的微服务架构。希望这个资源和博文能够为您的开发工作提供有力的支持,让您的项目进展更加顺利。

2024-03-29

ChatGLM-6b-int4基础模型文件.zip-这个是除了比较大的文件的其他文件-其他大的模型文件可以在清华云下载

ChatGLM-6b-int4基础模型文件.zip_这个是除了比较大的文件的其他文件_其他大的模型文件可以在清华云下载,在安装ChatGLM大模型的时候,发现,模型文件特别大,而小文件,又在国内下载特别慢就整理出来了. config.json configuration_chatglm.py gitattributes ice_text.model LICENSE MODEL_LICENSE modeling_chatglm.py quantization.py quantization_kernels.c quantization_kernels_parallel.c README.md tokenization_chatglm.py tokenizer_config.json 这些文件.

2024-02-29

nifi-p12-store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件

nifi_p12_store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件,我们下载最新的nifi-1.23.2这个版本的安装文件以后,解压以后,启动是启动不了的,原因是缺少,这个keystore.p12文件和truststore.p12文件,这两个文件放到conf下面以后,然后去配置nifi.properties文件,配置以后,指定了这两个p12文件的位置,然后去启动nifi就可以启动了,其实,比这个版本低的nifi也是这样的,弄好久才找到了这个问题所在啊...分享 2023-10-08 21:18:18这个时间亲测 可以的..下载去用吧

2023-10-08

瀚高DB企业版最新版连接操作工具2023.zip

瀚高DB企业版最新版连接操作工具2023 这个是在安装完了以后可以用这个工具像用Navicat操作mysql数据库一样来操作瀚高DB数据库. 这个可以结合对应的博文: Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 可以结合这个博文来看,这里面写了如何安装,以及如何用这个操作连接工具远程连接使用瀚高DB数据库.

2023-07-21

瀚高DB企业版最新6.0.4官方安装教程.zip

瀚高PG的安装本来以为很简单,装上就可以了,但是安装了两天,工作经验10年,安装了两天,很麻烦的还是...要注意,首先下载的时候要和对应的系统匹配下载,比如你是Centos,就要下载Centos版本的,我是安装在了openeuler华为的欧拉系统上了,出现了一堆的问题,就很麻烦, 解决了很久,...最后还是没有安装上.. 最后还是换成了centos7来安装的,安装后又找连接工具,这个时候发现连接工具在官网上也没有找到下载的地方,折腾了很久是找到了,可是连不上,又配置远程连接,最后总于弄好了. Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 https://credream.blog.csdn.net/article/details/131836438?spm=1001.2014.3001.5502 对应了我的这个博客可以参考,希望能帮助到你们把.

2023-07-21

NIFI-MySqlToMySql增量同步数据实时采集-实现了日期类型-以及空值处理-插入已存在变更新-更新未存在变插入.zip

NIFI_MySqlToMySql增量同步数据实时采集_实现了日期类型_以及空值处理_插入已存在变更新_更新未存在变插入.zip 使用了NIFI1.21.0最新版,2023-06-20作者在这个时间做好的,这个大数据处理流程,已经实现了,增量mysql的cdc数据读取以后,在插入到目标mysql数据库的时候,如果碰到主键一样的id,就自动变成更新数据,如果在更新的时候碰到主键没有的id就自动变成插入操作,这个是比较符合实际应用情况的.

2023-06-20

NIFI1.21.0-大数据同步处理模板-MysqlToMysql增量同步-单表-处理日期-空值数据.zip

NIFI1.21.0_大数据同步处理模板_MysqlToMysql增量同步_单表_处理日期_空值数据.zip 是作者自己实际项目中用到的,自己学习后制作的NIFI流程模板文件,导入后可以直接使用, 实现了Mysql到mysql数据库的增量CDC数据的实时同步,通过过程中,实现了sql的拼接,以及对日期类型,和空数据类型的处理.

2023-06-20

NIFI1.21.0-Mysql和Postgresql到MysqlHbase-全量指定库和表同步到Mysql和Hbase.zip

NIFI1.21.0_Mysql和Postgresql到MysqlHbase_全量指定库和表同步到Mysql和Hbase.zip 是一个nifi的模板,实现了从mysql以及postgresql中同时读取数据,读取的时候支持,指定数据库和数据表进行同步,数据全量同步,可以同时同步到mysql数据库以及hbase数据库中.

2023-06-20

NIFI大数据处理-PostgresqlToMySql指定表多表-CDC增量数据实时同步.zip

这个项目花费了我比较多的心血,NIFI还是挺好用的,主要是很灵活,可以自己定制,我感觉比一些做CDC的工具,会更灵活一些,但是学习门槛高,现在用的还不是那么的多,很多东西需要自己去查阅官网去自己学习,然后,很多代码需要不停的尝试,才能知道对应的处理器,最终是应该如何使用. 上面的资源我弄了一个星期,终于实现了,把数据从postgresql数据库可以动态的,实时,读取postgresql的cdc数据然后根据cdc的内容,进行数据增量的同步到mysql数据库中去,而且还添加了,cdc数据的分页功能,如果cdc数据内容特别多就不用担心了. 然后还添加了数据表过滤的功能,比如你只想同步一个数据库中的3张表,那么这里面我已经帮你实现了,然后如果你想同步一个数据库中的所有的表,我也已经帮你实现了,你下载以后,直接导入到nifi中,然后配置好自己的数据源就可以直接使用了.

2023-06-12

K线理论-付费课程-实战经验-总结学习手册-2023-05-29.zip

首先是见顶的单根K线的形态: 1、大阳线见顶 也就是开盘在相对低位,收盘在最高价附近,强势状态非常明显,但是如果出现在股价相对的高位或者是上涨行情的尾声阶段的大阳线,往往就是见顶信号,如图: 大阳线见顶技术分析有一定的难度,单纯的按照大阳线本身来判断行情,很难判断准确,往往要结合后市的走势来判断,也就说一只股票当天出现大阳线后,是没有办法判断的,要后面几天的走势才能基本判断,一般大阳线过后连续两根阴线就要开始小心了。 付费炒股课程,学习总结 2、大阴线见顶 开盘价就是最高价,收盘在最低位附近,当大阴线出现在股价运用的相对高位区域,意味着空头处于主导。要堤防股价已经见顶,仅作为短线见顶的信号,也就是讲股票运行到了相对高位区域,出现了大阴线,一般称为乌云盖顶,切记是真阴线,不是假阴线,也就是说收盘价是低于昨日收盘价的 3、十字星见顶 十字星就是开盘价和收盘价都在同一个位置附近,在当天盘中有上攻和下跌的动作,但是都有没有突破,局面平衡,显示即将有方向性的突破,同样也需要结合后面几天的走势来判断是否是顶部,

2023-05-29

NIFI大数据模板-MySqlToPostGresql数据分页实时采集-带分页.zip

NIFI大数据模板_MySqlToPostGresql数据分页实时采集-带分页.zip 使用NIFI将数据实时同步到PostGresql中. 下载以后配置自己的mysql数据库连接池,包括连接地址,用户名密码 配置postgresql的数据库连接池,包括连接地址,以及用户名密码 然后启动流程进行数据实时同步

2023-05-25

NIFI大数据模板-HbaseToMysqlByPhoenix-实时数据同步带分页.zip

NIFI大数据模板_HbaseToMysqlByPhoenix-实时数据同步带分页.zip 这里面编写了一个NIFI大数据传输流程,使用phoenix从hbase中去获取数据,带分页获取数据以后,然后把数据同步到指定的mysql数据库中去,实现数据的实时同步. 下载以后配置一下对应的数据库连接池,以及数据库的用户名密码,就可以使用,导入就可以用,非常方便

2023-05-25

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip NIFI大数据处理模板,导入以后可以直接将数据从postgresql从通过phoenix拉取到Hbase中去,注意这里,需要自己配置一下phoenix连接hbase的参数,包括集群的地址,指定用户名,密码,指定phoenix驱动的位置. 还要注意最好安装nifi1.21.0版本,这个版本笔者是测试过的可以用的

2023-05-25

NIFI大数据模板-PostgresqlToHbase数据实时采集-带分页.zip

如果你也需要利用NIFI进行数据同步,并且你用到了Postgresql数据库,想从Postgresql数据库中去获取数据然后,把数据同步到Hbase中去,这里我们使用的大数据存储工具,Hbase来存储原始数据. 我们需要把所有的关系型数据,以及文档数据等,存入到Hbase中,做为原始数据使用,所以这里 就利用NIFI做了一下. 这个模板导入到NIFI中去以后就可以直接使用,记得配置一下自己的Hbase集群的连接地址,以及Postgresql的连接地址.配置以后,直接启动,就可以进行数据同步了. 记得配置上对应的需要同步的表名以及字段.

2023-05-22

大数据Nifi处理-MySqlToSqlServer数据分页实时同步.zip

项目中需要的整理出来给需要的宝子们,实现了在大数据场景中,实时同步指定MySql数据源的数据,实时同步到SqlServer数据库中去. 下载以后使用的时候,需要配置一下自己的mysql数据源的用户名,密码,ip地址端口号信息,设置以后,在数据库连接池中,启动自己的数据库连接池. 然后再去配置一下sqlserver的数据库连接池,指定对应的IP地址,数据库名称,用户名,密码,然后去启动SqlServer数据库连接池. 最后启动所有流程,Nifi就会根据流程自动从mysql数据库中读取数据,读取数据有把数据同步到SqlServer中去

2023-05-19

MySqlToHbase数据分页导入到Hbase.zip

项目中自己用的,弄了很久,需要把数据从各种数据源导入到,我们的原始数据库,原始数据库采用hbase,来存储所有数据,那么这里就用的nifi,从其他数据源获取数据以后,然后导入到Hbase中去,这个是设计好的流程模板. 导入nifi中以后,直接启动,配置好自己的连接地址,就可以进行数据同步了.

2023-05-16

大数据处理NIFI模板-MySqlToMySql增量数据实时同步-利用Binlog实时同步数据.zip

花了作者好多时间,这个NIFI不得不说还是挺好用的,可以减少很多代码的编写,但是,由于资料太少了,应用案例也少,很多功能,网上都找不到,所以只能自己去研究,研究了很久... 终于攻克了,使用mysql的binlog功能,来实现,insert,update,delete数据的实时同步,增量同步,有了这个流程工具以后,同步数据就变得非常方便了. MySql的Binlog打开以后,然后直接把下载的模板导入到自己的nifi中去,然后配置好自己要同步的数据库和表,配置好数据库连接信息,就可以了启动实时同步了,太酷了...

2023-05-06

Nifi模板-PostGreSqlToMySql数据分页实时采集-带分页.zip

使用大数据处理工具NIFI,进行数据从Postgresql中导入到MySql中,实现数据的同步处理,处理的时候,是带有分页的,因为作者正在做相关的项目,而,用nifi同步数据好说,如何,进行数据的分页同步不好弄,这里,主要是,采用处理器,自动生成分页sql,来进行数据的分页. 弄了好久终于弄出来了,希望能帮到你,这个模板可以导入到nifi中直接使用.非常的方便.

2023-05-06

2023自己实操-验证过的-通达信公式-胜率很高-神技-趋势+底部钝化+底部结构+选股+风口-一整套-.zip

作者自用的一款胜率很高,自己根据经验积累调整,实现的几个指标,交了几年学费总结的. 导入到通达信中就可以用,手机电脑端都可以用,注意包含源码的哈,自己通过这一整套指标,已经有不错的营收,作者自身是程序员,公式是自己根据经验,调整,并且实战操作,胜率很高,分享出来着实有点舍不得,炒股者...往往都是赔钱...我也一样,前好几年都是赔了不少,教了很多学费...经过长时间摸索,才有了这个东西...珍惜吧... 包含了从选股指标 到 风口 到 趋势 到钝化 到结构 5大指标 同时共振使用,效果很好,胜率很高自己一直在用...多了不说了.

2023-04-28

整理了好久-2023最新Java面试题-如果你在找工作-希望能帮到你了

以前的面试题都太旧了,这两年技术发展太快了,找的面试题都是很多旧的,因此整理了一圈,整理出很多新的问题,包括,Redis,Java,Java系列的大数据等内容,很全面,今年工作并不好找,祝你早日找到心仪的好工作.加油~

2023-04-28

2023-04-28最新-自己封装整理-可直接使用-亲测可用-多模态AI合集-ChatGPT4-ChatGpt3.5.zip

2023-04-28最新_自己封装整理_可直接使用_亲测可用_多模态AI合集_ChatGPT4_ChatGpt3.5.zip 人工智能辅助可以帮助我们的工作,生活,提高更多的效率,上面是作者自己整理的,常用的,可用的,无需登录注册就可以使用,来提高我们的工作效率,包括写文档,各种文档,比如论文,产品方案,详细设计,概要设计,需求文档,以及写代码,遇到问题让他给出解决思路,个人用的非常爽...也许真的未来,我们和AI共存..

2023-04-28

大数据Nifi模板-Mysql数据分页同步-实现了分页功能-MySqlToMySql数据分页实时采集-带分页功能.zip

1.最近在用大数据处理工具nifi做大数据处理,纯界面化的操作很方便,但是资料少,就这个mysql分页弄了好久,分享出去了 2.如果你用到了点个赞吧,笔者自己弄了好几天,测试过了可以放心用 3.配置好自己需要同步的表,修改一下数据连接池记得修改成自己的. 4.下载以后配置一下直接启动就可以用了

2023-04-24

大数据nifi模板,用来实时从mysql数据中读取数据到另一个mysql的数据库中

1.最近在做大数据项目,使用了nifi,确实好用,但是不得不说,资料少,而且虽然可以进行自定义处理器开发,但是资料也少. 2.下载以后导入nifi,然后直接点击启动就可以实现数据的同步了,可以直接同步一整张表,数据库连接池已经配置好了,笔者自己测试过用了.. 3.可以配置需要同步的表,然后需要同步的目的地的表就可以了.

2023-04-24

文心一言解读-及应用方向解读2023-04-19PDF.zip

⽂⼼⼤模型强调产业级知识增强的特性,旨在降低B端应⽤场景的AI门槛,便于⼆次开发。和⾦融、电⼒、航天等⾏业的⽣态伙伴发布⼀系列⾏业⼤模型,帮助企业迅 速迭代出和业务模式相匹配的模型,截⾄22年底发布了11个⾏业⼤模型。 n2022年,百度世界⼤会和中国探⽉⼯程联合发布百度航天⽂⼼⼤模型,是⾸个航天领域⼤模型,把航天领域的知识图谱和客户积累的数据进⾏智能采集、分析和理 解,助⼒智能感知、深空探测的技术突破。 l⼤模型之上提供⼯具和平台层,以SDK、API接⼝调⽤的⽅式为AI开发者提供⼤模型的套件,⾯向零基础开发者的EasyDL可以做简单的AI开发,把AI中台封装在成型的 BML⼤模型向外做相应的输出。 ⽂⼼⼀⾔在百度2⽉到3⽉的优先级最⾼,⽐如百度阳泉超算中⼼主要为⽂⼼⼀⾔做训练推理。除了A100,还⽤了⼀些国产化的产品,⽐如寒武纪的思元590

2023-04-19

ChatGpt2023年研究框架-2023-04-19.zip

ChatGpt最新专题研究报告 ChatGPT市场反应热烈,国内外巨头纷纷入场 据统计,ChatGPT日活跃用户数的增速远超Instagram,国内外科技巨头都非常重视ChatGPT引发的科技浪潮,积极布局生成式AI,国内厂商(百度、腾讯等)也高度关注ChatGPT,积极探索前沿技术,相关深度应用也即将推出。 ChatGPT经历多类技术路线演化,逐步成熟与完善 ChatGPT所能实现的人类意图,来自于机器学习、神经网络以及Transformer模型的多种技术模型积累。Transformer建模方法成熟以后,使用一套统一的工具来开发各种模态的基础模型这种理念得以成熟,随后GPT-1、GPT-2、GPT-3模型持续演化升级,最终孵化出ChatGPT文本对话应用。 AIGC跨模态产业生态逐步成熟,商用落地未来可期 AIGC产业生态当前在文本、音频、视频等多模态交互功能上持续演化升级,奠定了多场景的商用基础。跨模态生成技术也有望成为真 正实现认知和决策智能的转折点。

2023-04-19

nacos-server-1.1.4 这个下载以后可以直接使用

nacos-server-1.1.4 这个下载以后可以直接使用,找到对一个的bin目录可以直接启动了,如果有对应的mysql,配置中心可以修改conf文件夹中的application.properties文件,配置,对应的配置中心的内容,具体是mysql的地址,用户名密码

2023-03-16

xsync 脚本将文件同步到大数据集群中的所有机器

xsync 脚本将文件同步到大数据集群中的所有机器,使用起来非常方便,自己封装的 使用的时候,记得修改,脚本中的,集群机器名称.

2023-02-23

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表,然后设计有定时任务,可以每个月月末的时候,去创建下一个分表程序

2022-08-22

idl编译jar包模板工程.zip

北向接口开发之idl打包成jar包用到工程的模板,直接把里面的java文件替换成自己的java文件, 首先把厂商提供的idl包编译成java文件,然后把编译后的java文件导入到工程里面去,然后保证项目没有错误,然后点击编译,编译成的jar包可以用来,开发北向接口,采集网管数据.

2022-08-04

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息,在大数据采集项目中用到的,已经测试过了

2022-07-25

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了,很好用,分享给大家

2022-06-28

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密.zip

2022-06-24

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除