shijiazhenghu
码龄17年
关注
提问 私信
  • 博客:18,291
    18,291
    总访问量
  • 33
    原创
  • 56,072
    排名
  • 217
    粉丝
  • 0
    铁粉
  • 学习成就
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2007-12-15
博客简介:

DZH的博客

博客描述:
数据库类交流
查看详细资料
  • 原力等级
    成就
    当前等级
    1
    当前总分
    90
    当月
    2
个人成就
  • 获得314次点赞
  • 内容获得19次评论
  • 获得256次收藏
创作历程
  • 33篇
    2024年
成就勋章
TA的专栏
  • 数据库类
    1篇
兴趣领域 设置
  • 大数据
    oracledatabasemysqlhadoophivekafkapostgresql数据仓库etl数据库架构
创作活动更多

AI大模型如何赋能电商行业,引领变革?

如何使用AI技术实现购物推荐、会员分类、商品定价等方面的创新应用?如何运用AI技术提高电商平台的销售效率和用户体验呢?欢迎分享您的看法

175人参与 去创作
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

mysql数据同步StarRocks_datax模板 datax

mysql数据同步StarRocks 下。
原创
发布博客 2024.09.17 ·
109 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

MySQL 数据导出到 CSV 文件_datax模板 datax

mysql 数据导入CSV,使用datax
原创
发布博客 2024.09.15 ·
270 阅读 ·
3 点赞 ·
1 评论 ·
1 收藏

PG数据库数据同步到StarRocks_Datax模板

postgresql 数据推送 StarRocks 使用datax
原创
发布博客 2024.09.15 ·
237 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

mysql数据同步StarRocks_datax模板2 DATAX

mysql数据同步StarRocks_datax模板2 DATAX
原创
发布博客 2024.09.15 ·
324 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

datax_for_循环对数据进行操作_sqlsv_strks2

datax_for_循环对数据进行操作_sqlsv_strks2
原创
发布博客 2024.09.15 ·
193 阅读 ·
2 点赞 ·
0 评论 ·
0 收藏

sql server 数据同步到 文本中_datax模板

sql server 数据同步到 文本中_datax模板
原创
发布博客 2024.09.15 ·
190 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

SQL SERVER 数据同步到StarRocks sqlsv_strks2.json

dataX 抽取数据案例(sql server)
原创
发布博客 2024.09.15 ·
436 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

DataX使用-常用命令,参数

数据抽取dataX使用
原创
发布博客 2024.09.15 ·
747 阅读 ·
3 点赞 ·
0 评论 ·
7 收藏

ubuntu24 安装postgresql16

2.接下来,编辑 pg hba.conf 文件的 IPv4 本地连接部分,以允许来自所有客户端的 IPv4 连接。1.使用编辑器打开 /etc/postgresql/16/main/postgresql.conf 配置文件。在上面的输出中,postgres=# 提示符表示与 PostgreSQL 服务器的活动连接。3.如果开启了防火墙,那么使用下面的命令允许 PostgreSQL 5432 端口。6. 让我们验证一下密码是否设置成功,使用 \q 命令终止与服务器的当前会话。输入秘密:zhenghu。
原创
发布博客 2024.05.26 ·
598 阅读 ·
5 点赞 ·
0 评论 ·
7 收藏

mongDB4.X版本 安装

数据库
原创
发布博客 2024.05.26 ·
375 阅读 ·
5 点赞 ·
0 评论 ·
7 收藏

Star_export.sh 数据从StarRocks到处落地CSV 文件中

【代码】Star_export.sh 数据从StarRocks到处落地CSV 文件中。
原创
发布博客 2024.04.21 ·
250 阅读 ·
1 点赞 ·
1 评论 ·
0 收藏

Star_loaddata.sh 数据文件加载到 StarRocks

【代码】Star_loaddata.sh 数据文件加载到 StarRocks。
原创
发布博客 2024.04.21 ·
111 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

通过 ProxySQL 均衡负载 StarRocks, doris

mysql -udev_user -pdev_pswd99 -h172.00.01.03 -P6032 // 通用用户登录。#(StarRocks 启动命令异常) ./usr/bin/proxysql -c ./etc/proxysql.cnf --no-monitor。mysql -u admin -padmin -h 127.0.0.1 -P6032 -- 这里是管理方式的登录。备注:这里登录的是ProxySQL(如果使用 StarRocks 账户是无法登录的)
原创
发布博客 2024.04.21 ·
578 阅读 ·
19 点赞 ·
0 评论 ·
18 收藏

获取星座自定义函数,oracle 数据库

09月23日─10月22日 天秤座 空气 淡红。05月21日─06月21日 双子座 空气 黄。11月22日─12月21日 射手座 火 紫红。03月21日─04月20日 白羊座 火 红。04月21日─05月20日 金牛座 土 绿。06月22日─07月22日 巨蟹座 水 白。07月23日─08月22日 狮子座 火 橙。08月23日─09月22日 处女座 土 灰。
原创
发布博客 2024.04.21 ·
390 阅读 ·
5 点赞 ·
1 评论 ·
5 收藏

分割枚举值函数,oracle 数据库

-++处理字符串例如--员,(THEN RE_STR := RE_STR || FIRST_STR1 || ';--处理有分隔符,空格,括号的。--创建日期:2014-12-31。
原创
发布博客 2024.04.21 ·
556 阅读 ·
24 点赞 ·
1 评论 ·
6 收藏

CDH6.2 增加节点

rpm -ivh cloudera-manager-agent-6.2.0-968826.el7.x86_64.rpm -- 节点(新增加节点 需要删除/opt/cloudera/cm-agent 在安装)scp -r /opt/cloudera root@IP(01,02,03 多个新增节点一样的操作):/opt/cloudera -- 复制新节点后删除 cm-agent。8: 安装cloudera-scm-agent依赖服务。10: 把其他节点上的 文件复制新节点上。上述文件中的值都修改为0。
原创
发布博客 2024.04.14 ·
691 阅读 ·
24 点赞 ·
2 评论 ·
7 收藏

CDH6.2 版本安装过程

update user set authentication_string = password('密码'), password_expired = 'N',update mysql.user set authentication_string=password('密码') where user='root';update mysql.user set authentication_string=password('密码') where user='root';11、安装配置mysql。
原创
发布博客 2024.04.14 ·
277 阅读 ·
5 点赞 ·
1 评论 ·
8 收藏

impala使用;kudu 的安装,python 链接 kudu

- 创建临时表(直接加载HIVE 的。hdfs dfs -put /home/table_name.csv /input/data/pujh -- 把加载推送上去(权限问题要注意)# --------------------(CDH6.2) HUE 权限设置 ------------------------------ 把user1_role 用户的权限给 user1。-- sed -i "s/\t/,/g" table_name.tmp -- 文件中 tab键替换成逗号 HIVE 加载 ----
原创
发布博客 2024.04.14 ·
702 阅读 ·
7 点赞 ·
1 评论 ·
8 收藏

HDFS 数据迁移分区表(hive,hadoop)

考虑从/source/first和 /source/second/ 拷贝文件到/target/# -------------- 跨集群数据同步(先建立表 文件在复制对应的 表文件下) ------------# ---------- 先提前创建分区内容(会记录到源数据里面,负责没数据的) -------------------------- scp 远程复制脚本 ----------------------# ---------------- HIVE 导入本地文件 -------------------
原创
发布博客 2024.04.14 ·
790 阅读 ·
18 点赞 ·
1 评论 ·
20 收藏

HDFS 跨集群数据同步(hive,hadoop)

echo "${db_name}.${table_name} ${part_date} 迁移开始"echo "${db_name}.${table_name} ${part_date} 迁移完成"两个不同的HDFS 集群数据迁移( A集群的数据 -> B 集群) 采用的是 SHELL 脚本。#计算两个时间戳的差值除于每天86400s即为天数差。#迁移 网络限制300M 增量形式迁移。echo "${days} 天数据"#创建日期: 2020-04。#将日期转为的时间戳格式。
原创
发布博客 2024.04.14 ·
1746 阅读 ·
34 点赞 ·
1 评论 ·
22 收藏
加载更多