ubuntu24 安装postgresql16 2.接下来,编辑 pg hba.conf 文件的 IPv4 本地连接部分,以允许来自所有客户端的 IPv4 连接。1.使用编辑器打开 /etc/postgresql/16/main/postgresql.conf 配置文件。在上面的输出中,postgres=# 提示符表示与 PostgreSQL 服务器的活动连接。3.如果开启了防火墙,那么使用下面的命令允许 PostgreSQL 5432 端口。6. 让我们验证一下密码是否设置成功,使用 \q 命令终止与服务器的当前会话。输入秘密:zhenghu。
通过 ProxySQL 均衡负载 StarRocks, doris mysql -udev_user -pdev_pswd99 -h172.00.01.03 -P6032 // 通用用户登录。#(StarRocks 启动命令异常) ./usr/bin/proxysql -c ./etc/proxysql.cnf --no-monitor。mysql -u admin -padmin -h 127.0.0.1 -P6032 -- 这里是管理方式的登录。备注:这里登录的是ProxySQL(如果使用 StarRocks 账户是无法登录的)
获取星座自定义函数,oracle 数据库 09月23日─10月22日 天秤座 空气 淡红。05月21日─06月21日 双子座 空气 黄。11月22日─12月21日 射手座 火 紫红。03月21日─04月20日 白羊座 火 红。04月21日─05月20日 金牛座 土 绿。06月22日─07月22日 巨蟹座 水 白。07月23日─08月22日 狮子座 火 橙。08月23日─09月22日 处女座 土 灰。
分割枚举值函数,oracle 数据库 -++处理字符串例如--员,(THEN RE_STR := RE_STR || FIRST_STR1 || ';--处理有分隔符,空格,括号的。--创建日期:2014-12-31。
CDH6.2 增加节点 rpm -ivh cloudera-manager-agent-6.2.0-968826.el7.x86_64.rpm -- 节点(新增加节点 需要删除/opt/cloudera/cm-agent 在安装)scp -r /opt/cloudera root@IP(01,02,03 多个新增节点一样的操作):/opt/cloudera -- 复制新节点后删除 cm-agent。8: 安装cloudera-scm-agent依赖服务。10: 把其他节点上的 文件复制新节点上。上述文件中的值都修改为0。
CDH6.2 版本安装过程 update user set authentication_string = password('密码'), password_expired = 'N',update mysql.user set authentication_string=password('密码') where user='root';update mysql.user set authentication_string=password('密码') where user='root';11、安装配置mysql。
impala使用;kudu 的安装,python 链接 kudu - 创建临时表(直接加载HIVE 的。hdfs dfs -put /home/table_name.csv /input/data/pujh -- 把加载推送上去(权限问题要注意)# --------------------(CDH6.2) HUE 权限设置 ------------------------------ 把user1_role 用户的权限给 user1。-- sed -i "s/\t/,/g" table_name.tmp -- 文件中 tab键替换成逗号 HIVE 加载 ----
HDFS 数据迁移分区表(hive,hadoop) 考虑从/source/first和 /source/second/ 拷贝文件到/target/# -------------- 跨集群数据同步(先建立表 文件在复制对应的 表文件下) ------------# ---------- 先提前创建分区内容(会记录到源数据里面,负责没数据的) -------------------------- scp 远程复制脚本 ----------------------# ---------------- HIVE 导入本地文件 -------------------
HDFS 跨集群数据同步(hive,hadoop) echo "${db_name}.${table_name} ${part_date} 迁移开始"echo "${db_name}.${table_name} ${part_date} 迁移完成"两个不同的HDFS 集群数据迁移( A集群的数据 -> B 集群) 采用的是 SHELL 脚本。#计算两个时间戳的差值除于每天86400s即为天数差。#迁移 网络限制300M 增量形式迁移。echo "${days} 天数据"#创建日期: 2020-04。#将日期转为的时间戳格式。