自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

添柴程序猿的专栏

程序人生_困难下的坚持最珍贵.....

  • 博客(2833)
  • 资源 (54)
  • 问答 (4)
  • 收藏
  • 关注

原创 k8s核心操作_使用k8s在一个pod中部署两个以上的容器_以及部署两个nginx尝试---分布式云原生部署架构搭建020

端口已经被占用,因为我们部署了两个nginx对吧,所以这两个nginx都是80端口重复了。然后在pods中dashboard中,可以看到,对应的pod启动的过程,可以看到。然后从dashboard中也可以进行,操作,pod中 nginx tomcat。然后这里要知道,在pod中的,容器之间是可以共享网络空间,以及共享存储的。可以看到事件这里有个back-off对吧,这个是出现问题了,报错了。我们来部署两个试试,可以看到,我们在一个pod中部署。这里分析一下,可以看到, nginx 默认是80端口。

2024-07-08 16:33:43 4389

原创 麒麟arm架构系统_安装nginx-1.27.0_访问500 internal server error nginx解决_13: Permission denied---Linux工作笔记072

配置configure --prefix 代表安装的路径,--with-http_ssl_module 安装ssl,--with-http_stub_status_module查看nginx的客户端状态。可以看到这里可以指定安装目录,我这里指定的是data/module目录,如果不指定,直接执行。然后再去/data/module/nginx-1.27.0/configure。然后再去执行/data/module/nginx-1.27.0。注意这里--user=root可以加上,也可以不加,没影响.

2024-07-05 13:12:59 471

原创 k8s核心操作_使用yaml文件创建nginx的Pod_在dashboard中创建pod_并且使用k8s分配的地址访问nginx pod---分布式云原生部署架构搭建019

原因是因为没有指定命名空间,因为,我们的yaml,文件,产生的pod是要放到某个。然后如果想看访问这个nginx,我们刚刚在k8s部署的,怎么弄呢?我们看一下左侧带有N的标志的功能,表示,这些是与命名空间有关的,pod,可以看到文件中指定了版本,指定了名称mynginx然后。直接把yaml的内容,直接复制进去就可以了,点击上传就可以了。然后我们再去看,如果我们在命令行不方便,也可以直接在界面上。k8s集群中,使用k8s分配的ip地址是可以访问的,但是。然后cd /usr/share/nginx/html/

2024-07-04 10:29:16 1902

原创 k8s核心操作_namespace的作用_创建_删除_理解k8s中的最小单位Pod_命令行创建nginx的pod---分布式云原生部署架构搭建018

这个就是pod的功能要强大一些,可以包含多个容器,比如一个pod中,你可以安装redis 还可以再安装其他的比如mysql等。那么现在k8s中,一个pod中可以包含多个容器,多个容器共通组成一个pod,当然也可以一个容器。这里的1/2 表示,pod中有两个应用,其中,1个应用在正常工作,另一个异常了.两个容器,共同被封装在了一个pod中,完成了一个,文件的推送和展示的功能.因为这个样的话,获取的是默认的default命名空间中的pods。之前我们在docker中,启动一个,容器,比如redis的容器,

2024-07-04 10:28:54 203

原创 k8s_集群搭建_k8s管理前端_dashboard安装部署---分布式云原生部署架构搭建017

添加了安全组还是不行,因为,发现,这几个机器,每个机器绑定了不同的安全组,我们修改成同一个,就是我们要访问的端口,我们就可以使用公网IP+ 30753端口访问一下,网页端的。然后再去安装一下一个dashboard,有了这个以后,操作k8s集群就不用。然后再去执行 这个命令,等上面的,状态变成了running以后。然后如果执行慢,可以直接先去下载,使用wget,然后再去。修改的时候,直接,去修改我们之前创建的VPC网络就可以了。其实就是,我们给我们之前的vpc网络,去设置的这个安全组。

2024-07-03 14:33:57 306

原创 k8s_集群搭建_在主节点中加入node节点_k8s集群自恢复能力演示_token过期重新生成令牌---分布式云原生部署架构搭建016

其实我们是可以正常关机之类的,不用担心,重新开机以后不能使用,要记得如果在青云上关机,记得公网IP不要释放掉啊。然后我们再来说一下,如果把node,加入到master的时候,如果令牌过期了怎么办,可以看到,在上面。24小时有效的,这个命令是,安装master节点以后,命令行中给出的,复制去执行就可以了。可以看到,以上执行的命令,这个命令,要在,所有的node节点都执行一下,这个命令是。再去执行,这个命令可以,控制,让他一秒钟刷新一次,去查看状态。可以看到,可以得到一个新的命令,然后复制过去使用就可以了。

2024-07-03 14:31:42 8251 1

原创 使用瀚高数据库开发管理工具进行数据的备份与恢复---国产瀚高数据库工作笔记008

对应的包中有个dbclient 这个目录,选中这个目录以后,就可以了,然后。某个模式,比如bigdata_huiju 然后右键进行,点击。其实就是hgdbdeveloper,瀚高的数据库开发管理工具。但是只要报错中没有语法错误,sql执行错误就可以,恢复,然后进行恢复就可以了,但是要注意。data_middle 中,选中。使用瀚高数据库,备份 恢复数据。就正常用就行,不用管了就.在对应的数据库,比如。恢复以后会是报错的.

2024-07-02 17:30:38 278

原创 瀚高数据库2024最新版_6.0.4_Windows版安装使用---国产瀚高数据库工作笔记007

cmd中pg_ctl.exe -D D:\2024\highgo\data start 能启动后,然后再去执行 pg_ctl -D D:\2024\highgo\data stop ,然后去服务中其中再看下。D:\2024\highgo\data中postgresql.auto.conf和 postgresql.conf看下maintenance_work_mem。可以启动以后,然后修改一下,允许远程连接的配置;就可以了,然后再去用桌面上的工具去连接查看。手动启动无法启动,这个时候,首先去。

2024-07-02 13:55:48 433

原创 基于Datax开发支持瀚高数据库的插件_插件开发_以及部署---国产瀚高数据库工作笔记006

可以看到,使用的时候,可以直接先去安装最新版的datax,然后再把,这个编译好的,highgoreader,去放到。6.复制一个插件中的pom.xml文件,然后,到我们新建的插件中。如果想直接使用,开发好的插件,那么可以去下载笔者上传的,打包好的插件,直接放入到。8.然后在最外层的package.xml中,加上,我们自己的插件。10.打包,将最外层的pom.xml其他模块注释,留下自己的。12.然后把插件放到安装好的,服务器上的datax中,比如。7.将其他插件的这个文件夹,复制一份到我们自己的插件中。

2024-06-29 12:05:10 547

原创 k8s_集群搭建_容器环境安装_预备环境安装_ 安装k8s集群三大件_kubeadm_kubectl_下载k8s组件镜像_初始化master主节点---分布式云原生部署架构搭建015

你可以,将其他对机器,加入到master,里面,可以让机器有多个master,做均衡来用,高可用 可以看到 control-plane nodes,命令都给出来了。执行以后,然后再去,验证一下,三台机器,都ping 一下 cluster-endpoint。然后也可以将其他机器,通过执行下面的命令,以worker node的方式,加入到集群中去.然后再去关闭swap,一个是临时关闭一个是永久关闭,都执行一下,所有机器执行一下。然后再去,允许iptables 检查桥接流量,这些复制以后,在三台机器执行,然后。

2024-06-28 10:27:02 181

原创 k8s_组件架构_组件交互逻辑剖析_k8s集群安装逻辑_k8s集群安装流程梳理_开通三台青云服务器_集群规划_搭建基础集群---分布式云原生部署架构搭建014

再通过api server去通知,workernode,然后每个节点都有一个kubelet的角色,就是,从apiserver收到指令以后,然后去,在worker node上去。信息,存入etcd数据库,然后,controller manager做了决策以后,然后由scheduler去看看适合,要部署在哪个worker node上,得到了结果以后,然后,通知秘书部,api server, 然后调度者, scheduler是通过秘书部,来对所有几点进行统计,查询,看看哪个节点适合去做什么,

2024-06-28 10:25:28 246

原创 kubernetes的概念介绍_服务发现负载均衡_存储编排_自动部署和回滚_自动完成装箱计算_自我修复_集群的方式_架构原理---分布式云原生部署架构搭建013

如果领导只有一个,可能会挂掉,那么master有多个,就可以做成高可用,master挂了会,以少数服从多数原则,选举新的master.如果有一个机器down机了,那么,kubernetes会自动把这个应用再部署到,另一个机器,这样。这里容器编排系统,就是先把容器进行编,就是哪些容器,是一个分组,哪些是一个分组,然后再排。然后还有存储编排,就是等,容器删除以后,k8s会自动回收,对应容器的存储,然后自动完成装箱,指的是,可以对容器进行封装,封装他的cpu和内存,然后先看他的功能,负载均衡和服务发现,

2024-06-27 18:26:04 55

原创 使用容器配置文件构建任意应用镜像_并将应用镜像推送到公共仓库共享_应用分享与启动---分布式云原生部署架构搭建012

ENTRYPOINT ["java","-jar","java-demo-0.0.1-SHAPSHOT.jar"] 这个是入口,就是执行java -jar 后面加上jar包的名称,当然,因为我们这里。COPY target/*.jar /app.jar 将target目录下的所有jar包,都复制,成app.jar名字,然后。ENTRYPOINT ["java","-jar","app.jar"] 就可以了。以前是这样做的,不方便,因为需要在服务器上,安装jdk什么的,现在有了。

2024-06-27 18:25:28 344

原创 使用容器部署redis_设置配置文件映射到本地_设置存储数据映射到本地_并开发java应用_连接redis---分布式云原生部署架构搭建011

可以看到java应用的部署过程,首先我们要准备一个java应用,并且我们,用docker,安装一个redis。然后对于端口可以看到,我们要让本地的6379,映射到镜像中的6379。可以看到对应的目录,我们要把镜像中的,映射到本地,方便我们修改。最后那一行可以看到,表示redis的启动命令,所以。然后我们用的是青云服务器,去配置一下安全组放开。然后我们用redis工具连接一下看看,可以了。然后我们再去配置一下redis的密码。放在这里,然后我们去安装redis。对应的路径也映射好了,然后去执行。

2024-06-25 13:24:13 323

原创 从公共仓库拉取推送的镜像并启动_将镜像内部目录挂载到外部目录使用_从镜像中复制文件到本机目录_从本机目录复制文件到镜像中---分布式云原生部署架构搭建010

usr/share/nginx/html 映射到本地的/data/html目录,并且,设置了,镜像中的这个文件是可读可写的 rw 的。可以看到,上面这个命令,我们把本机的/data/html 和 镜像中的/usr/share/nginx/html 进行映射。把容器中的/etc/nginx/nginx.conf 这个文件,复制到本机的/data/conf/nginx.conf这里。/data/conf/nginx.conf:/etc/nginx/nginx.conf 进行映射。

2024-06-25 13:23:54 206

原创 进入容器修改内容_提交改变后的镜像_镜像保存成tar压缩包离线传输_镜像传输_镜像推送到公共仓库---分布式云原生部署架构搭建009

docker commit -a "-a表示作者" -m "提交的内容" 容器id 给新镜像起名字:版本。推送给别的机器,或者,放到远程仓库中去,这样所有人直接,去拉取就可以了。如果我们运行了一个镜像,然后我们进入到镜像中,修改了镜像的内容,那么。比如停机了,只要有保留的这个镜像,就可以恢复到跟原来一模一样。还有问题就是,如何把我们打好的,保存的镜像tar文件包,就直接提交镜像,就可以把修改后的镜像提交成一个新的镜像。而且关于,镜像的,内部放到什么地方了,都可以找到比如。

2024-06-21 17:23:54 1237

原创 镜像操作_容器操作_镜像拉取_镜像开机启动_镜像删除等常用操作---分布式云原生部署架构搭建008

p 88:80 就是让,本机的88端口,映射到docker镜像的80端口。如果希望,镜像自动启动,那么需要加上--restart=always。可以看到设置以后,对于,青云需要,进行点击一下,应用修改才会生效.这里的--name是给镜像起个名字,然后-d 表示后台运行。然后启动了nginx,我们去青云拿到,公网ip去访问看看。然后docker ps -a 可以看到,已经停止的镜像。然后注意这里有个tags,就是标签,镜像的标签。我们去删除运行中的mynginx镜像,然后再来看容器的常用命令,快速过一遍。

2024-06-21 17:23:22 75

原创 容器基本概念_从虚拟化技术_到容器化技术_开通青云服务器_并远程连接_容器安装---分布式云原生部署架构搭建007

就是registry.hub.docker.com 可以看到,在这里直接搜索需要的镜像。拉取镜像就是去 Registry 这个docker 仓库中去拉取,然后。docker执行 首先去docker build打镜像,然后。对于容器用的,统一存放容器镜像的地方是docker hub。这一部分,属于以前都会用到的,会快速过一遍,对于关键。目的就是,让你做的所有的软件,都可以一键部署启动。然后接下来我们在青云上,去进行,演示使用.然后我们去看一下,这个docker的仓库。然后去看一下这个docker操作的过程.

2024-06-20 10:36:06 6560

原创 阿里云上构建_VPC专有网络_子网划分_原理说明_创建_释放---分布式云原生部署架构搭建006

192.168.0.0 后面2位,可以动的话,那么我们就可以的,在这个192.168.0.0/16的子网下,再去划分子网了。有了我们创建好的专有网络以后,然后我们再去,创建几个机器去,然后这次我们把创建的机器。然后可以看到,选择专有网络以后,后面还有,可以选择,这个网络的下的哪个子网对吧.可以看,可以看到我们在,我们默认的那个专有网络中去ping。有了子网,我们去看,可以看到在阿里云的管理后台,就有个。然后这个时候要注意,就是,我们创建的专有网络之间,然后,我们再看,可以看到工具很方便,可以显示出,

2024-06-20 10:35:50 296

原创 公有云_私有云_云平台_服务器安全组_按量付费_vpc私有网络/专有网络原理---分布式云原生部署架构搭建005

然后选择操作系统centos,然后选择.40g硬盘,可以看到就一毛钱一个小时,可以用来做实验肯定没问题.停机收费很便宜.然后如果平时不用,按量付费的时候,就可以关闭机器,内容磁盘不消失,但是价格很便宜.来看一个如何开通阿里云的ecs服务器,非常简单,没什么可说的.继续就可以了,可以看到,一定要分配公网ip,因为需要远程连接.混合云,一部分业务放到公有云上,一部分放到私有云上.然后去充钱,最少从100,然后就可以用了.配置以后就开通好了实例,机器,然后。开通好了,就可以直接去连接了.

2024-06-19 09:12:40 354

原创 Harbor本地仓库搭建004_Harbor配置管理功能_分布式分发功能_仓库管理_用户管理_垃圾清理_审查服务_项目定额---分布式云原生部署架构搭建00

此外,通过标签和权限管理功能,Harbor还可以限制对特定镜像的访问和操作,确保镜像的安全性和完整性。Harbor的审查服务是其企业级特性的重要组成部分,通过提供详细的日志记录和审计功能,增强了系统的安全性和可管理性。同时,标签还可以用于过滤镜像,以便更快地找到所需的镜像。记录操作日志:Harbor可以记录用户对仓库的操作和活动日志,这些日志详细记录了用户的操作行为,如镜像的上传、下载、删除等。综上所述,Harbor的标签功能为Docker镜像管理提供了强大的支持,使得镜像的管理更加高效、安全和可追溯。

2024-06-19 09:12:21 282

原创 Harbor本地仓库搭建003_Harbor常见错误解决_以及各功能使用介绍_镜像推送和拉取---分布式云原生部署架构搭建003

然后点开这个镜像,可以看到对应的artifacts还有,他的tags,我们设站点1.15.12对吧。可以看到添加上,忽略的域名就可以了,让docker,对我们的地址,忽略https检测。首先我们去登录一下harbor,但是可以看到,用户名密码没有错,但是登录不上去。是因为,我们用了负债均衡,nginx会把,负载均衡进行,随机分配,访问的。的business这个项目,可以看到在镜像仓库中,就有了。登录以后,可以看到项目中,我们可以创建一个项目,比如。可以看到我们给,负载均衡,分发的时候,添加上。

2024-06-18 09:52:39 2834

原创 Harbor本地仓库搭建002_Harbor负载均衡节点搭建_nginx安装配置_harbor安装---分布式云原生部署架构搭建002

Docker:Docker是一个开源的应用容器引擎,它允许开发者将他们的应用及其依赖打包到一个可移植的容器中,然后发布到任何流行的Linux或Windows操作系统的机器上。mv /opt/docker-compose-linux-x86_64 /usr/local/bin/docker-compose 将安装包解压以后,移动到对应目录。就需要在对应的system32/etc/driver ...找一下吧,忘记了,找到对应的hosts,修改一下就可以了。

2024-06-18 09:39:11 4163

原创 Harbor本地Docker镜像库001_Harbor介绍_高可用架构部署_机器配置说明_redis_nfs-utils_postgresql---分布式云原生部署架构搭建001

两个harbor的镜像文件,资源文件,可以存放在ceph中,nfs中,或者gluesterfs中。harbor,用来做一个本地的Docker镜像库,可以存放私有的镜像这样下载比较快,另外。然后,添加完数据库以后,然后执行/l可以查看一下数据库,使用exit可以退出,然后。然后这两个harbor使用负载均衡,,负载均衡用nginx做,做高可用,然后。这样我们的redis,postgresql,nfs就构建好了.然后我们再来看。然后再去,initdb,先去初始化postgresql 然后再去。

2024-06-17 16:56:03 71

原创 纯手动搭建大数据集群架构_记录024_集群共享大数据盘挂载挂盘_三台机器共享大数据盘的不同文件夹_麒麟v10_arm架构_开启系统联网---大数据之Hadoop3.x工作笔记0184

我们是在dashujupan04目录下,创建了hadoop目录,然后下面又创建了hadoop158目录,我们把这个目录挂载到本机的/data目录上。上节说了,大数据部署的时候,对方提供了三台机器,但是三台机器自身的系统盘都非常小,没办法在上面安装,我们的软件和中间件.这样就可以了,这样就相当于,我们三台机器,每台机器中都有个data目录,然后这个data目录,其实是对应着,同一块硬盘.然后我们再来看看,如果我们的机器,不能联网的话,有可能是本身系统是可以联网的。可以看到,这样就可以了。所以我们去配置一下.

2024-06-13 16:39:32 45

原创 纯手动搭建大数据集群架构_记录023_麒麟系统v10_ARM架构集群搭建02_ARM架构hadoop-3.3.6安装_安装Hbase_zookeeper---大数据之Hadoop3.x工作笔记0183

而zookeeper是用java编写的,所以只要java,安装了arm架构的,那么,zookeeper是不区分平台架构的.由于,上面搭建完以后,我们用的是之前x86架构的hadoop所以,一直报错namenode 起不来,报错。打开以后然后去搜索apache,然后找到hadoop,然后找到aarch64架构的hadoop,然后下载。下载以后,然后上传到服务器,去解压,然后跟之前安装hadoop一样的.再去,按照上面的配置,然后再去看hbase的安装,hbase的安装,需要先安装zookeeper。

2024-06-13 09:21:45 221

原创 纯手动搭建大数据集群架构_记录022_麒麟系统v10_ARM架构集群搭建01_ARM架构jdk安装_集群架构_NameNode is stilling---大数据之Hadoop3.x工作笔记0182

最近客户给了个集群,三台机器,但是,却是ARM架构的,第一次安装arm架构的机器,对于软件,有一定的要求,这个过程中,主要是.我打算把,hadoop,每个机器,安装到对应的文件夹中去.那么这个时候,配置hadoop的etc/hadoop文件夹中的。这个位置,其实就是安装的openjdk. 这里要注意openjdk是有问题的, 他默认安装上了,但是没有清晰的指定。并且要指出的是,这三台机器,自身的硬盘都很小,只有一块9.8T的盘,但是这三台机器都挂到这个盘上面去了。

2024-06-12 16:47:48 183

原创 瀚高数据库迁移工具_报错_migration-4.1.4-2023-11-23.zip_MSVCR120.dll缺失_用DirectXRepair39.zip修复---国产瀚高数据库工作笔记005

打开以后找到工具选项,然后找到,实验室,这里有个C++强力修复,打钩。这里解压以后有个win8,win10的修复,直接修复就可以了.mysql 以及oracle 等 迁移到瀚高中去.dll修复工具,以及 数据迁移工具会放到资源中。不能从瀚高把数据迁移到mysql等中去。注意这个时候使用这个修复软件就可以了.使用瀚高数据库迁移工具,目前支持,从。20240612_143928补充。就可以进行修复了等待执行完成。这个文件我上传到资源中去.再去使用就可以正常使用了.可以看到缺少这个dll。然后点击确定就可以了。

2024-06-12 15:18:26 152 2

原创 人工智能_机器学习097_PCA数据降维算法_基于特征值特征向量提取主成分_数据去中心化_特征值_特征向量_EVD特征值分解原理和代码实现---人工智能工作笔记0222

在协方差矩阵的分析中,这些向量代表了数据中方差较大的轴,通常用于主成分分析(PCA)中的数据降维,其中数据可以沿着这些特征向量(主成分)进行投影以减少数据的维数[^1^][^3^]。随着你沿着主成分的顺序移动,每个后续的主成分解释的方差通常会减少,因为它们捕捉的是数据中剩余的变化。PCA找到的主成分(PCs)是这些子空间的正交基向量。3. `(eigen/eigen.sum())` 是将数组 `eigen` 中的每个元素除以数组元素的总和,得到一个新的数组,其中每个元素都是原数组对应元素与总和的比值。

2024-06-06 14:00:39 213

原创 人工智能_机器学习096_PCA主成分分析降维算法_PCA降维原理_介绍和使用_模式识别_EVD特征值分解_SVD奇异值分解---人工智能工作笔记0221

这个对角矩阵就是奇异值矩阵,它的对角线上的数字就是奇异值。- **协方差的计算方法**:协方差的计算公式为 $Cov(X,Y) = E E其中 $X$ 和 $Y$ 是两个随机变量,$E $E分别是它们的期望值。- **协方差的应用场景**:协方差则用于分析两个变量之间的关系,例如,在金融领域,协方差可以帮助投资者了解不同股票之间的相关性,从而做出投资决策。总结一下,特征值分解和奇异值分解都是矩阵分解的方法,它们可以帮助我们找出矩阵的主要特征或者将矩阵压缩到更小的规模,同时尽可能地保留原矩阵的信息。

2024-06-05 11:56:35 189

原创 纯手动搭建大数据集群架构_记录021_麒麟系统v10版_x86/64架构安装hadoop集群_修改SSH端口号_调整脚本端口---大数据之Hadoop3.x工作笔记0181

如果是arm架构的系统,就需要安装arm架构的java,jdk,对应的hadoop应该也需要arm架构的,这个。hadoop集群,那么这时候,还是有些地方需要修改的,大部分,跟之前使用centos,去安装。hadoop集群没有区别,直接参考以前的博文就可以了,并且,有区别的地方,已经在。但是这一次,安装的时候,ssh端口不是默认的22,给改成了22022了,这个时候。首先,如果想要修改ssh的端口,可以看到按照上面这样修改就可以了,然后。还没有尝试,尝试以后,给大家说.对应的博文中,记录了.

2024-05-31 11:50:05 192

原创 人工智能_大模型085_AI产品设计02_MASTERGO_传统原型工具_DRAW_FIGMA_MOTIFF_极简UI设计原则_快速Demo_开发_迭代_KANO模型---人工智能工作笔记0220

思考:懂代码的我们,可以用 [Gradio](Gradio),快速搭出一个主流程 demo,供用户/客户体验,验证需求。如果对视觉要求高,还需要特别做视觉设计。否则套模板就差不多。对全栈来说,三件事不分先后,而是彼此交错。

2024-05-30 09:03:57 101

原创 Centos系统_Java进程_file:/dev/./urandom -jar /app/app.jar_CPU占用100%_kill -9 无法杀掉_docker关闭---Linux工作笔记072

最近发现机器中cpu占用百分之百,系统启动的时候,会自动启动,一堆的。最后发现是docker的原因,只需要把docker关闭就可以了,原来。app.jar文件,并且,使用kill -9 无法杀掉进程.使用以上的命令来关闭docker。系统残留的docker.

2024-05-29 15:17:33 76

原创 人工智能_大模型084_AI产品设计01_设计原则_Copilot_原型设计_收集反馈_避免欺骗_UE/UX的设计AI设计工具_USEGALILEO_V0---人工智能工作笔记0219

向导 - 提供线索,帮助用户理解 AI 的工作原理以及如何与之协作。支持 Text to UI 和 Image to UI,设计精美。色彩模式 - 提供视觉提示,帮助用户识别内容中的 AI 特性。否则套模板就差不多。模版 - 向用户提供结构化的模版,并且可以用 AI 预填写。当已经定义好产品的方向和商业模式,接下来就可以设计产品了。最受欢迎的专业原型设计工具,非常非常强大,学习成本稍高。在设计产品的过程中,时不时检查,是否这些原则全部符合。这个是一个人做的一个基于RAG的专有知识库的模型.

2024-05-29 09:40:08 72

原创 ​​人工智能_大模型083_大模型时代机遇02_提示词优化开发工具_立项_计量模式_真实需求_5why法---人工智能工作笔记0218

上一节我们提供了一个非常好用的提示词,优化开发的,调试工具vellum 接到一个需求,问为什么有这需求。得到答案后,再问为什么会有这样的答案,以此类推,直至找到根本性的核心需求。

2024-05-29 09:39:47 460

原创 人工智能_大模型082_大模型时代机遇01_机会在哪里_大模型落地现状_懂业务&懂AI&懂编程最有竞争力_面临问题和挑战_AI下的编程变化---人工智能工作笔记0217

2. 基础大模型卷不起:基础大模型的竞争瞬间白热化,技术壁垒迅速下降,且用户客户迁移成本极低,最后会变成被包养的战略常备资源,而不是直接盈利点。1. AI 原生应用没机会:大模型没有创造新的使用场景,只是旧场景的增强,创业者几乎不可能撼动旧霸主的地位,更难阻挡大模型升级带来的反噬。2024 的 AI 应用爆发,值得期待。2. 有研发能力的民企,要么已经找到自己的方向,要么已决策必须动手,都开始内部升级/招兵买马。3. 没研发能力的民企,意识先进者已经用大模型赚钱了,和外包合作实现更好的自动化,甚至产品化。

2024-05-28 08:53:23 277

原创 人工智能_大模型081_AI产品部署和交付11_大模型安全管控方法_大模型内置提示词使用_Prompt破坏提问_互联网信息服务算法_大模型备案法规---人工智能工作笔记0216

可以去看一下.可以看到内置提示词,内置了,大模型自己可以使用的,比如定义了tools工具,还有指定了知识更新时间等待.另外大模型一般还会内置了一些提示词,比如,你问他的知识更新到了几号,他本身是不知道的,这个需要内置提示词,以及对每个类别的说明.,这个是接口返回的,对输入内容的,价值倾向的判断,是否合规的判断.然后使用openai的Moderation的接口,把输入内容给他,可以看到。可以看到还是给出了答案,但是仅限于这个答案还是合理的,但是,有些gpt可以,比如,正常文字不行,但是。

2024-05-28 08:52:37 202

原创 人工智能_大模型080_AI产品部署和交付10_基于本地weaviate向量数据库搭建Verba项目_Verba源码分析_pdf内容提取_向量化检索_接口封装---人工智能工作笔记0215

然后:tiktokenchunker.py是用来所token统计的,然后manager.py是来做管理的,然后。然后这里reader,有对pdfreader.py对pdf进行处理的,里面有对pdf中的图片等进行处理的。拿到以后我们把刚刚申请的在线的向量数据库的地址,和key拿到,填写到这里。然后下载代码以后,我们也可以看一下他的代码,可以看到左侧打开,可以看到。可以看到启动以后,再去上传一个文件,再去发起提问.可以看到也是可以的.这个地址,默认是没有的,其实没有,我们可以用它提供的一个.

2024-05-27 09:12:27 233

原创 人工智能_大模型079_AI产品部署和交付09_基于云端部署大模型_部署开源LLM项目Dify_安装本地向量数据库weaviate---人工智能工作笔记0214

比如这里我们创建一个text generator生成的,应用,我们随便起个名字,然后点击create。然后docker中有个nginx,然后直接点开,启动,打开浏览器,然后。这个就是构建好的,本地的dify,然后这个,可以注册一下,然后登录。可以看到可以去创建应用,做agent智能体,聊天机器人,工作流等.选择一下gpu,然后直接就可以部署了,点击deploy就可以了.注意最后是...,最前面是---,就是这样的,这两个部分带着.可以看到部署以后,就有了demo,案例,还有api接口等等.

2024-05-27 09:11:44 241

原创 人工智能_大模型078_AI产品部署和交付08_基于VLLM部署大模型_FastAPI搭建API服务_VLLM分布式多卡推理_使用PostMan请求_VLLM源码部署---人工智能工作笔记0213

可以看到openai,这里很多接口调用都是,v1/chat/completions这个接口,那么其他的模型,几乎都提供这个接口,因为。这个token-abc123,就是我们指定的一个令牌,这个是需要在,authorzation中去指定的,然后对于vllm的源码安装,可以看到,可以直接使用git clone去克隆一份vllm的源码,然后去执行。然后关于vllm相关的论文,可以在vllm官网有个paper,论文,这个可以看,写的很细致.执行,下面这个命令,这里运行的是之前我们下载的YI-6B-Chat模型,

2024-05-24 15:05:01 254

瀚高数据库连接开发工具-2024-hgdbdeveloper.zip

这个是用来连接瀚高数据库的工具,连接pg的工具是连接不了,瀚高数据库安全版的,所以还是需要使用,专门的工具来连接,使用方法非常简单,跟使用操作mysql的navicat差不多.

2024-06-29

datax插件-瀚高数据库支持插件-highgowriter.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了.

2024-06-29

datax插件-瀚高数据库同步支持插件-highgoreader.zip

datax插件_瀚高数据库同步支持插件_highgoreader.zip 这个是自己工作中用到了,但是原生的datax是不支持瀚高数据库的,但是开发也不是特别难,自己就开发了一个,这个是reader,使用方法也非常简单,就先安装好datax以后,然后把这个reader压缩包,进行解压,然后放到,安装好的datax的,对应的、/datax/plugin/writer 或者是 /datax/plugin/reader 中就可以了. 如果想自己开发其他的插件可以参考官网的解释.

2024-06-29

瀚高数据库迁移工具2024版.zip

瀚高数据库迁移工具2024版.zip 是一个旨在帮助用户高效、可靠地将数据从瀚高数据库从一个环境迁移到另一个环境的工具。这个工具特别适用于需要进行数据库升级、迁移或备份恢复操作的用户。通过使用这个工具,用户可以轻松地将数据从瀚高数据库的一个版本迁移到另一个版本,或者在不同的服务器、操作系统和硬件平台上迁移数据。 这个工具的主要特点和优势包括: 1. 支持多种迁移场景:无论是同一版本之间的迁移,还是跨版本的迁移,这个工具都能够提供支持。同时,它还支持在不同的服务器、操作系统和硬件平台之间的迁移。 2. 高效的性能:这个工具采用了高效的数据迁移算法,可以快速地将大量的数据从一个环境迁移到另一个环境,同时保证数据的完整性和一致性。 3. 用户友好的界面:这个工具提供了一个直观、易用的界面,用户可以通过简单的点击和选择,完成复杂的迁移操作。 4. 安全可靠:这个工具在迁移过程中采用了多种安全机制,如数据加密、数据验证等,确保数据的安全和可靠。 5. 完善的文档支持:这个工具附带了详细的使用说明和操作指南,用户可以通过阅读这些文档,了解工具的使用方法和操作步骤。

2024-06-12

MSVCR120.dll缺失-瀚高数据迁移工具修复DLL.zip

这是一个专业的修复工具,旨在解决瀚高数据库迁移过程中可能出现的问题。在使用此工具时,用户首先需要启动程序,随后选择需要迁移的数据库,指定数据迁移的源端和目标端。然而,有用户反映在这一过程中遇到了报错提示,显示某个动态链接库(DLL)找不到。为了帮助用户顺利解决这个问题,我们提供了这个工具的详细使用说明,包含在压缩包中。用户可以参考这些说明来排除故障,确保数据库迁移工作的顺利进行。我们建议用户仔细阅读使用说明,遵循指示步骤操作,以充分发挥修复工具的作用,保障数据库迁移的成功实施。

2024-06-12

Semantic-Kernel-MyPlugins.zip

以上是人工智能_大模型028_大语言模型开发框架_Semantic Kernel详细介绍_框架安装_Semantic Functions脚本编写---人工智能工作笔记0163 这个博文中的案例文件,是包括了,如何使用Semantic Function进行,利用自然语言,编写函数. 在当今的AI技术领域,大模型和大型语言模型正变得越来越流行,因为它们能够处理更复杂的任务并生成更高质量的输出。Semantic Kernel是大语言模型开发框架的一个例子,它提供了一个强大的工具集,用于构建和部署高级语言处理应用程序。 Semantic Kernel框架的安装和使用相对简单,它支持多种编程语言和平台,包括Python、C#和JavaScript。这个框架的核心是Semantic Functions,这是一种特殊的函数,它允许开发人员使用自然语言来定义和处理逻辑。这意味着,你可以用简单的英语句子来编写代码,而不是传统的编程语言。 介绍了如何使用Semantic Functions来编写函数。这个资源包括了多个案例文件,这些案例文件展示了如何使用SK

2024-04-10

highgowriter-highgoreader-dataxcode.zip

highgowriter_highgoreader_dataxcode.zip 这个资源用来给datax扩展对瀚高数据库的支持能力,可以使用这个插件,实现数据从mysql/postgresql等其他数据库同步到瀚高数据库,或反向同步 这个资源是一个为DataX工具定制的插件,专门用于增强DataX与瀚高数据库之间的数据同步能力。通过这个插件,用户可以方便地将数据从MySQL、PostgreSQL等其他类型的数据库迁移或同步到瀚高数据库,同时也支持将数据从瀚高数据库同步到其他类型的数据库。 具体来说,这个插件扩展了DataX的数据同步功能,使得用户在执行数据迁移任务时,能够更加灵活地处理与瀚高数据库相关的需求。它能够帮助用户简化数据同步的流程,提高数据同步的效率,并且保证了数据的一致性和准确性。

2024-04-07

docker-compose-linux-x86-64-v2.26.0.zip

docker-compose-linux-x86_64.zip 好吧上周发布的v2.26.0的最新版,给大家准备好了已经,如果你下载不下来,从这里取了直接用吧. 为了确保您能够顺利使用Docker Compose的v2.26.0最新版本,我已经提前准备好了适用于Linux x86_64架构的最新版Docker Compose文件——`docker-compose-linux-x86_64.zip`。如果直接从官方GitHub仓库下载遇到困难,您可以随时使用我提供的这个文件。这样,您就可以跳过在线下载步骤,直接开始配置和使用Docker Compose了。希望这能为您带来便利!

2024-03-29

docker-compose离线版.zip

Ruoyi-Cloud-Plus_使用Docker部署分布式微服务系统---SpringCloud工作笔记200 这个资源可以配合这个博文使用,这里面用到的软件,如果不用这个,自己去下载,会很慢,所以直接放到这里了,希望对大家有帮助. Ruoyi-Cloud-Plus是一个基于SpringCloud的分布式微服务系统,它集成了多种实用的企业级开发功能,如权限管理、数据权限、工作流、三方登录等等。为了方便开发者更快地部署和使用这个系统,这里提供了一个包含所有必要软件的Docker镜像资源。通过使用这个镜像,可以避免由于网络问题导致软件下载缓慢或不稳定的情况,从而大大提高开发效率。 这个博文详细介绍了如何利用Docker来部署Ruoyi-Cloud-Plus分布式微服务系统。通过阅读这篇博文,您可以了解到如何快速搭建开发环境,以及如何使用SpringCloud的各种组件来构建一个高效、稳定的微服务架构。希望这个资源和博文能够为您的开发工作提供有力的支持,让您的项目进展更加顺利。

2024-03-29

ChatGLM-6b-int4基础模型文件.zip-这个是除了比较大的文件的其他文件-其他大的模型文件可以在清华云下载

ChatGLM-6b-int4基础模型文件.zip_这个是除了比较大的文件的其他文件_其他大的模型文件可以在清华云下载,在安装ChatGLM大模型的时候,发现,模型文件特别大,而小文件,又在国内下载特别慢就整理出来了. config.json configuration_chatglm.py gitattributes ice_text.model LICENSE MODEL_LICENSE modeling_chatglm.py quantization.py quantization_kernels.c quantization_kernels_parallel.c README.md tokenization_chatglm.py tokenizer_config.json 这些文件.

2024-02-29

nifi-p12-store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件

nifi_p12_store.zip 这个文件就是nifi-1.23.2今年最新8月份出的最新版需要的加密文件,我们下载最新的nifi-1.23.2这个版本的安装文件以后,解压以后,启动是启动不了的,原因是缺少,这个keystore.p12文件和truststore.p12文件,这两个文件放到conf下面以后,然后去配置nifi.properties文件,配置以后,指定了这两个p12文件的位置,然后去启动nifi就可以启动了,其实,比这个版本低的nifi也是这样的,弄好久才找到了这个问题所在啊...分享 2023-10-08 21:18:18这个时间亲测 可以的..下载去用吧

2023-10-08

瀚高DB企业版最新版连接操作工具2023.zip

瀚高DB企业版最新版连接操作工具2023 这个是在安装完了以后可以用这个工具像用Navicat操作mysql数据库一样来操作瀚高DB数据库. 这个可以结合对应的博文: Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 可以结合这个博文来看,这里面写了如何安装,以及如何用这个操作连接工具远程连接使用瀚高DB数据库.

2023-07-21

瀚高DB企业版最新6.0.4官方安装教程.zip

瀚高PG的安装本来以为很简单,装上就可以了,但是安装了两天,工作经验10年,安装了两天,很麻烦的还是...要注意,首先下载的时候要和对应的系统匹配下载,比如你是Centos,就要下载Centos版本的,我是安装在了openeuler华为的欧拉系统上了,出现了一堆的问题,就很麻烦, 解决了很久,...最后还是没有安装上.. 最后还是换成了centos7来安装的,安装后又找连接工具,这个时候发现连接工具在官网上也没有找到下载的地方,折腾了很久是找到了,可是连不上,又配置远程连接,最后总于弄好了. Centos7.9安装瀚高数据库企业版6.0.4_并开启远程连接_使用瀚高连接工具操作_亲测成功---国产瀚高数据库工作笔记003 https://credream.blog.csdn.net/article/details/131836438?spm=1001.2014.3001.5502 对应了我的这个博客可以参考,希望能帮助到你们把.

2023-07-21

NIFI-MySqlToMySql增量同步数据实时采集-实现了日期类型-以及空值处理-插入已存在变更新-更新未存在变插入.zip

NIFI_MySqlToMySql增量同步数据实时采集_实现了日期类型_以及空值处理_插入已存在变更新_更新未存在变插入.zip 使用了NIFI1.21.0最新版,2023-06-20作者在这个时间做好的,这个大数据处理流程,已经实现了,增量mysql的cdc数据读取以后,在插入到目标mysql数据库的时候,如果碰到主键一样的id,就自动变成更新数据,如果在更新的时候碰到主键没有的id就自动变成插入操作,这个是比较符合实际应用情况的.

2023-06-20

NIFI1.21.0-大数据同步处理模板-MysqlToMysql增量同步-单表-处理日期-空值数据.zip

NIFI1.21.0_大数据同步处理模板_MysqlToMysql增量同步_单表_处理日期_空值数据.zip 是作者自己实际项目中用到的,自己学习后制作的NIFI流程模板文件,导入后可以直接使用, 实现了Mysql到mysql数据库的增量CDC数据的实时同步,通过过程中,实现了sql的拼接,以及对日期类型,和空数据类型的处理.

2023-06-20

NIFI1.21.0-Mysql和Postgresql到MysqlHbase-全量指定库和表同步到Mysql和Hbase.zip

NIFI1.21.0_Mysql和Postgresql到MysqlHbase_全量指定库和表同步到Mysql和Hbase.zip 是一个nifi的模板,实现了从mysql以及postgresql中同时读取数据,读取的时候支持,指定数据库和数据表进行同步,数据全量同步,可以同时同步到mysql数据库以及hbase数据库中.

2023-06-20

NIFI大数据处理-PostgresqlToMySql指定表多表-CDC增量数据实时同步.zip

这个项目花费了我比较多的心血,NIFI还是挺好用的,主要是很灵活,可以自己定制,我感觉比一些做CDC的工具,会更灵活一些,但是学习门槛高,现在用的还不是那么的多,很多东西需要自己去查阅官网去自己学习,然后,很多代码需要不停的尝试,才能知道对应的处理器,最终是应该如何使用. 上面的资源我弄了一个星期,终于实现了,把数据从postgresql数据库可以动态的,实时,读取postgresql的cdc数据然后根据cdc的内容,进行数据增量的同步到mysql数据库中去,而且还添加了,cdc数据的分页功能,如果cdc数据内容特别多就不用担心了. 然后还添加了数据表过滤的功能,比如你只想同步一个数据库中的3张表,那么这里面我已经帮你实现了,然后如果你想同步一个数据库中的所有的表,我也已经帮你实现了,你下载以后,直接导入到nifi中,然后配置好自己的数据源就可以直接使用了.

2023-06-12

K线理论-付费课程-实战经验-总结学习手册-2023-05-29.zip

首先是见顶的单根K线的形态: 1、大阳线见顶 也就是开盘在相对低位,收盘在最高价附近,强势状态非常明显,但是如果出现在股价相对的高位或者是上涨行情的尾声阶段的大阳线,往往就是见顶信号,如图: 大阳线见顶技术分析有一定的难度,单纯的按照大阳线本身来判断行情,很难判断准确,往往要结合后市的走势来判断,也就说一只股票当天出现大阳线后,是没有办法判断的,要后面几天的走势才能基本判断,一般大阳线过后连续两根阴线就要开始小心了。 付费炒股课程,学习总结 2、大阴线见顶 开盘价就是最高价,收盘在最低位附近,当大阴线出现在股价运用的相对高位区域,意味着空头处于主导。要堤防股价已经见顶,仅作为短线见顶的信号,也就是讲股票运行到了相对高位区域,出现了大阴线,一般称为乌云盖顶,切记是真阴线,不是假阴线,也就是说收盘价是低于昨日收盘价的 3、十字星见顶 十字星就是开盘价和收盘价都在同一个位置附近,在当天盘中有上攻和下跌的动作,但是都有没有突破,局面平衡,显示即将有方向性的突破,同样也需要结合后面几天的走势来判断是否是顶部,

2023-05-29

NIFI大数据模板-MySqlToPostGresql数据分页实时采集-带分页.zip

NIFI大数据模板_MySqlToPostGresql数据分页实时采集-带分页.zip 使用NIFI将数据实时同步到PostGresql中. 下载以后配置自己的mysql数据库连接池,包括连接地址,用户名密码 配置postgresql的数据库连接池,包括连接地址,以及用户名密码 然后启动流程进行数据实时同步

2023-05-25

NIFI大数据模板-HbaseToMysqlByPhoenix-实时数据同步带分页.zip

NIFI大数据模板_HbaseToMysqlByPhoenix-实时数据同步带分页.zip 这里面编写了一个NIFI大数据传输流程,使用phoenix从hbase中去获取数据,带分页获取数据以后,然后把数据同步到指定的mysql数据库中去,实现数据的实时同步. 下载以后配置一下对应的数据库连接池,以及数据库的用户名密码,就可以使用,导入就可以用,非常方便

2023-05-25

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip

NIFI模板PostGreSqlToHbaseByPhoenix-数据从PostGresql实时同步到Hbase-带分页.zip NIFI大数据处理模板,导入以后可以直接将数据从postgresql从通过phoenix拉取到Hbase中去,注意这里,需要自己配置一下phoenix连接hbase的参数,包括集群的地址,指定用户名,密码,指定phoenix驱动的位置. 还要注意最好安装nifi1.21.0版本,这个版本笔者是测试过的可以用的

2023-05-25

NIFI大数据模板-PostgresqlToHbase数据实时采集-带分页.zip

如果你也需要利用NIFI进行数据同步,并且你用到了Postgresql数据库,想从Postgresql数据库中去获取数据然后,把数据同步到Hbase中去,这里我们使用的大数据存储工具,Hbase来存储原始数据. 我们需要把所有的关系型数据,以及文档数据等,存入到Hbase中,做为原始数据使用,所以这里 就利用NIFI做了一下. 这个模板导入到NIFI中去以后就可以直接使用,记得配置一下自己的Hbase集群的连接地址,以及Postgresql的连接地址.配置以后,直接启动,就可以进行数据同步了. 记得配置上对应的需要同步的表名以及字段.

2023-05-22

大数据Nifi处理-MySqlToSqlServer数据分页实时同步.zip

项目中需要的整理出来给需要的宝子们,实现了在大数据场景中,实时同步指定MySql数据源的数据,实时同步到SqlServer数据库中去. 下载以后使用的时候,需要配置一下自己的mysql数据源的用户名,密码,ip地址端口号信息,设置以后,在数据库连接池中,启动自己的数据库连接池. 然后再去配置一下sqlserver的数据库连接池,指定对应的IP地址,数据库名称,用户名,密码,然后去启动SqlServer数据库连接池. 最后启动所有流程,Nifi就会根据流程自动从mysql数据库中读取数据,读取数据有把数据同步到SqlServer中去

2023-05-19

MySqlToHbase数据分页导入到Hbase.zip

项目中自己用的,弄了很久,需要把数据从各种数据源导入到,我们的原始数据库,原始数据库采用hbase,来存储所有数据,那么这里就用的nifi,从其他数据源获取数据以后,然后导入到Hbase中去,这个是设计好的流程模板. 导入nifi中以后,直接启动,配置好自己的连接地址,就可以进行数据同步了.

2023-05-16

大数据处理NIFI模板-MySqlToMySql增量数据实时同步-利用Binlog实时同步数据.zip

花了作者好多时间,这个NIFI不得不说还是挺好用的,可以减少很多代码的编写,但是,由于资料太少了,应用案例也少,很多功能,网上都找不到,所以只能自己去研究,研究了很久... 终于攻克了,使用mysql的binlog功能,来实现,insert,update,delete数据的实时同步,增量同步,有了这个流程工具以后,同步数据就变得非常方便了. MySql的Binlog打开以后,然后直接把下载的模板导入到自己的nifi中去,然后配置好自己要同步的数据库和表,配置好数据库连接信息,就可以了启动实时同步了,太酷了...

2023-05-06

Nifi模板-PostGreSqlToMySql数据分页实时采集-带分页.zip

使用大数据处理工具NIFI,进行数据从Postgresql中导入到MySql中,实现数据的同步处理,处理的时候,是带有分页的,因为作者正在做相关的项目,而,用nifi同步数据好说,如何,进行数据的分页同步不好弄,这里,主要是,采用处理器,自动生成分页sql,来进行数据的分页. 弄了好久终于弄出来了,希望能帮到你,这个模板可以导入到nifi中直接使用.非常的方便.

2023-05-06

2023自己实操-验证过的-通达信公式-胜率很高-神技-趋势+底部钝化+底部结构+选股+风口-一整套-.zip

作者自用的一款胜率很高,自己根据经验积累调整,实现的几个指标,交了几年学费总结的. 导入到通达信中就可以用,手机电脑端都可以用,注意包含源码的哈,自己通过这一整套指标,已经有不错的营收,作者自身是程序员,公式是自己根据经验,调整,并且实战操作,胜率很高,分享出来着实有点舍不得,炒股者...往往都是赔钱...我也一样,前好几年都是赔了不少,教了很多学费...经过长时间摸索,才有了这个东西...珍惜吧... 包含了从选股指标 到 风口 到 趋势 到钝化 到结构 5大指标 同时共振使用,效果很好,胜率很高自己一直在用...多了不说了.

2023-04-28

整理了好久-2023最新Java面试题-如果你在找工作-希望能帮到你了

以前的面试题都太旧了,这两年技术发展太快了,找的面试题都是很多旧的,因此整理了一圈,整理出很多新的问题,包括,Redis,Java,Java系列的大数据等内容,很全面,今年工作并不好找,祝你早日找到心仪的好工作.加油~

2023-04-28

2023-04-28最新-自己封装整理-可直接使用-亲测可用-多模态AI合集-ChatGPT4-ChatGpt3.5.zip

2023-04-28最新_自己封装整理_可直接使用_亲测可用_多模态AI合集_ChatGPT4_ChatGpt3.5.zip 人工智能辅助可以帮助我们的工作,生活,提高更多的效率,上面是作者自己整理的,常用的,可用的,无需登录注册就可以使用,来提高我们的工作效率,包括写文档,各种文档,比如论文,产品方案,详细设计,概要设计,需求文档,以及写代码,遇到问题让他给出解决思路,个人用的非常爽...也许真的未来,我们和AI共存..

2023-04-28

大数据Nifi模板-Mysql数据分页同步-实现了分页功能-MySqlToMySql数据分页实时采集-带分页功能.zip

1.最近在用大数据处理工具nifi做大数据处理,纯界面化的操作很方便,但是资料少,就这个mysql分页弄了好久,分享出去了 2.如果你用到了点个赞吧,笔者自己弄了好几天,测试过了可以放心用 3.配置好自己需要同步的表,修改一下数据连接池记得修改成自己的. 4.下载以后配置一下直接启动就可以用了

2023-04-24

大数据nifi模板,用来实时从mysql数据中读取数据到另一个mysql的数据库中

1.最近在做大数据项目,使用了nifi,确实好用,但是不得不说,资料少,而且虽然可以进行自定义处理器开发,但是资料也少. 2.下载以后导入nifi,然后直接点击启动就可以实现数据的同步了,可以直接同步一整张表,数据库连接池已经配置好了,笔者自己测试过用了.. 3.可以配置需要同步的表,然后需要同步的目的地的表就可以了.

2023-04-24

文心一言解读-及应用方向解读2023-04-19PDF.zip

⽂⼼⼤模型强调产业级知识增强的特性,旨在降低B端应⽤场景的AI门槛,便于⼆次开发。和⾦融、电⼒、航天等⾏业的⽣态伙伴发布⼀系列⾏业⼤模型,帮助企业迅 速迭代出和业务模式相匹配的模型,截⾄22年底发布了11个⾏业⼤模型。 n2022年,百度世界⼤会和中国探⽉⼯程联合发布百度航天⽂⼼⼤模型,是⾸个航天领域⼤模型,把航天领域的知识图谱和客户积累的数据进⾏智能采集、分析和理 解,助⼒智能感知、深空探测的技术突破。 l⼤模型之上提供⼯具和平台层,以SDK、API接⼝调⽤的⽅式为AI开发者提供⼤模型的套件,⾯向零基础开发者的EasyDL可以做简单的AI开发,把AI中台封装在成型的 BML⼤模型向外做相应的输出。 ⽂⼼⼀⾔在百度2⽉到3⽉的优先级最⾼,⽐如百度阳泉超算中⼼主要为⽂⼼⼀⾔做训练推理。除了A100,还⽤了⼀些国产化的产品,⽐如寒武纪的思元590

2023-04-19

ChatGpt2023年研究框架-2023-04-19.zip

ChatGpt最新专题研究报告 ChatGPT市场反应热烈,国内外巨头纷纷入场 据统计,ChatGPT日活跃用户数的增速远超Instagram,国内外科技巨头都非常重视ChatGPT引发的科技浪潮,积极布局生成式AI,国内厂商(百度、腾讯等)也高度关注ChatGPT,积极探索前沿技术,相关深度应用也即将推出。 ChatGPT经历多类技术路线演化,逐步成熟与完善 ChatGPT所能实现的人类意图,来自于机器学习、神经网络以及Transformer模型的多种技术模型积累。Transformer建模方法成熟以后,使用一套统一的工具来开发各种模态的基础模型这种理念得以成熟,随后GPT-1、GPT-2、GPT-3模型持续演化升级,最终孵化出ChatGPT文本对话应用。 AIGC跨模态产业生态逐步成熟,商用落地未来可期 AIGC产业生态当前在文本、音频、视频等多模态交互功能上持续演化升级,奠定了多场景的商用基础。跨模态生成技术也有望成为真 正实现认知和决策智能的转折点。

2023-04-19

nacos-server-1.1.4 这个下载以后可以直接使用

nacos-server-1.1.4 这个下载以后可以直接使用,找到对一个的bin目录可以直接启动了,如果有对应的mysql,配置中心可以修改conf文件夹中的application.properties文件,配置,对应的配置中心的内容,具体是mysql的地址,用户名密码

2023-03-16

xsync 脚本将文件同步到大数据集群中的所有机器

xsync 脚本将文件同步到大数据集群中的所有机器,使用起来非常方便,自己封装的 使用的时候,记得修改,脚本中的,集群机器名称.

2023-02-23

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表

利用MybatisPlus来实现对表的水平分表,全自动,可以首先判断表是否存在,不存在创建表,然后设计有定时任务,可以每个月月末的时候,去创建下一个分表程序

2022-08-22

idl编译jar包模板工程.zip

北向接口开发之idl打包成jar包用到工程的模板,直接把里面的java文件替换成自己的java文件, 首先把厂商提供的idl包编译成java文件,然后把编译后的java文件导入到工程里面去,然后保证项目没有错误,然后点击编译,编译成的jar包可以用来,开发北向接口,采集网管数据.

2022-08-04

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息

在非spring注解类中使用spring容器中的bean_普通类中使用yml配置文件中的配置信息,在大数据采集项目中用到的,已经测试过了

2022-07-25

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了

Quartz如何实现判断某个任务是否正在运行,在项目中用到的,已经测试过了,很好用,分享给大家

2022-06-28

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密

SpringBoot中_JAVA利用国密算法_实现内容的加密_解密.zip

2022-06-24

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除