bug解答
西安人走哪都要吃泡馍
这个作者很懒,什么都没留下…
展开
-
shell脚本执行mysql命令
#!/bin/bashfor i in 0 $(seq 1 127)do sql_str="ALTER TABLE $'i'_user_dw MODIFY COLUMN 字段名TEXT NOT NULL;" mysql -u root -h 168.192.000.000 -P 3306-D 数据库 -p 密码 -e "${sql_str}"done原创 2021-05-10 18:06:38 · 572 阅读 · 0 评论 -
spark存mysql多线程插入oom问题优化---采用HikariCP链接
all_data.repartition(10) .foreachPartition(tmp => { //获取数据库连接池 val dsPool = DataSourceSingleton.getDataSourceInstance //获取数据库连接池 val connection = dsPool.getConnection while (tmp.hasNext) { val row.原创 2021-04-26 21:31:15 · 478 阅读 · 0 评论 -
JAVA中MessageDigest加密算法----MD5
package json_class;import org.apache.commons.lang.StringUtils;import java.nio.charset.StandardCharsets;import java.security.MessageDigest;public class test_md { public static int classForTable(String key) { if (StringUtils.isEmpty(key))原创 2021-04-22 20:10:23 · 188 阅读 · 0 评论 -
kaggle注册时人机验证插件安装包----免费资源
免费提取码:链接:https://pan.baidu.com/s/11jNsagGTYgDotzM2eVU0vA 提取码:j7dr 复制这段内容后打开百度网盘手机App,操作更方便哦--来自百度网盘超级会员V3的分享解压后,打开谷歌刷新即可,原创 2021-01-13 19:05:29 · 2292 阅读 · 2 评论 -
ERROR: Could not find a version that satisfies the requirement pythonds (from versions: none)
再pycharm中导包报着中错误,建议更换镜像链接,我原来用阿里云镜像报错然后更换清华镜像就成功了清华:https://pypi.tuna.tsinghua.edu.cn/simple阿里云:http://mirrors.aliyun.com/pypi/simple/中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/华中理工大学:http://pypi.hustunique.com/山东理工大学:http://pypi.sdutlinux.org/豆原创 2020-12-31 12:44:54 · 266 阅读 · 0 评论 -
You are using pip version 9.0.1, however version 20.3.3 is available解答方法
准备加载workbook包,提醒如下:输入命令:python -m pip install -U pip 即可原创 2020-12-16 15:48:37 · 1815 阅读 · 0 评论 -
MetaException(message:Error(s) were found while auto-creating/validating the datastore for classes.
点击我的另一篇文章: https://blog.csdn.net/data_curd/article/details/110490387原创 2020-12-02 17:20:31 · 416 阅读 · 0 评论 -
Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask.
点击我的另一篇文章: https://blog.csdn.net/data_curd/article/details/110490387原创 2020-12-02 17:18:54 · 196 阅读 · 0 评论 -
com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Specified key was too long......767 bytes
hive建表出现这个错误: Error while processing statement: FAILED: ExecutionError, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:Error(s) were found whileauto-creating/validating the datastore for classes. The errors areprinted.原创 2020-12-02 17:16:47 · 616 阅读 · 0 评论 -
You are using pip version 20.2.1; however, version 20.2.4 is available. You should consider upgradin
这是提醒你当前的匹配版本低,要升级才行。升级命令:python -m pip install --upgrade pip -ihttps://pypi.douban.com/simple原创 2020-11-28 20:20:13 · 229 阅读 · 0 评论 -
PyCharm安装第三方包requests报错:Try to run this command from the system terminal. Make sure that you use the
如果你也是同类报错信息,请你先收藏以下链接:清华:https://pypi.tuna.tsinghua.edu.cn/simple阿里云:http://mirrors.aliyun.com/pypi/simple/中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/华中理工大学:http://pypi.hustunique.com/山东理工大学:http://pypi.sdutlinux.org/ 豆瓣:http://pypi.douban.com/si原创 2020-11-27 11:17:04 · 1758 阅读 · 0 评论 -
虚拟机提示:无法打开内核设备“\\.\Global\vmx86“:系统找不到指定文件,是否在安装VMware Workstation 后重新引导
在c:\windows\system32\cmd.exe 用管理员身份运行,打开黑窗口后连输三条命令后,再次打开虚拟机即可,net start vmcinet start vmx86net start VMnetuserif启动成功,原创 2020-11-26 10:06:03 · 236 阅读 · 0 评论 -
spark中合并多个不同行不同列的DataFrame在创建定制化数据结构
// 第一步:先将df设置临时表://只要是关于df中的sql执行,都要创建临时表 df.createTempView("time01")val rdd12: DataFrame = rdd03.map(_.split(" ")) //按照分隔符把一行分为两个子段 .map(x => (x(0).toString, x(1))) .toDF("time", "Logistics_status")rdd12.show(false)+----------------+-------原创 2020-09-29 20:43:10 · 948 阅读 · 0 评论 -
spark中DF创建数据结构里面增加array字段(直接上干货)
root |-- trackNo: string (nullable = true) |-- shipClassType: string (nullable = true) |-- labelId: long (nullable = true) |-- Latest_status_time: timestamp (nullable = true) |-- Billing_start_time: timestamp (nullable = true) |-- days: integer (null原创 2020-09-29 20:09:53 · 926 阅读 · 0 评论 -
saprk中把英文时间格式:12:05 pm on September 12, 2020/September 12, 2020, 2:58 am/09/12/2020, 7:10 am转换为标准格式
import java.util.Localeimport org.joda.time.format.DateTimeFormatobject Time_test {// 09/12/2020, 7:10 am def time01(str:String): String = { val str01: String = DateTimeFormat.forPattern("MM/dd/yyyy, h:m aa") .withLocale(Locale.ENGLISH)原创 2020-09-29 20:01:22 · 270 阅读 · 0 评论 -
集群间ssh免密登录设置
先检验是否安装openSSH[root@node01 ~]# ssh node02-bash:ssh:command not found如果提醒报错,则说明没有安装openSSH需要yum在线安装yum -y install openssh-clients使用命令ssh-keygen生成公钥和私钥ssh-keygen 连续按四下回车完毕后,在/root/.ssh目录下查看是否有这两个文件id_rsa 私钥id_rsa.pud 公钥在把生成的公钥拷贝给原创 2020-09-16 21:01:16 · 245 阅读 · 0 评论 -
用java写数据存入HDFS中,采用追加模式
代码如下:::::package com.postpony.bulkprint.BigData;import com.cloudera.org.codehaus.jackson.map.ObjectMapper;import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataOutputStream;import org.apache.hadoop.fs.FileSystem;import org.ap原创 2020-09-14 16:29:18 · 1346 阅读 · 0 评论 -
Detected both log4j-over-slf4j.jar AND bound slf4j-log4j12.jar on the class path, preempting报错解答
出现这种错误,**Detected both log4j-over-slf4j.jar AND bound slf4j-log4j12.jar on the class path, preempting StackOverflowError.See also http://www.slf4j.org/codes.html#log4jDelegationLoop for more details.**应该在maven配置在c盘中.m文件下的两个jar随便删一个即可,因为报错的原因是,两个jar有冲突,必须原创 2020-09-14 13:46:06 · 332 阅读 · 0 评论 -
用java代码编写本地文件或者数据输出到HDFS中----解答详解
本人实验过,代码跑通才来分享的,欢迎大佬们指导,能做一些代码优化。本人实验过,代码跑通才来分享的,欢迎大佬们指导,能做一些代码优化。本人实验过,代码跑通才来分享的,欢迎大佬们指导,能做一些代码优化。本地文件---->HDFSimport org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import java.io.I原创 2020-09-10 22:51:22 · 674 阅读 · 1 评论 -
linux中修改mysql密码----解答详情
在/etc/my.cny中;在[mysqld]下面添加一条命令:skip-grant-tables在到linux上进入mysql界面:mysql -u root -p在进入mysql数据库中:现在输入这条sql,update user set password=password(“填入新密码”) where user=‘root’;如有报错:ERROR 1054 (42S22): Unknown column 'password' in 'field list'原因:是从mysql原创 2020-09-10 22:28:24 · 110 阅读 · 0 评论 -
azkaban中提醒“azkaban.jobExecutor.utils.process.ProcessFailureException”报错解答
09-09-2020 15:54:24 CST test01 INFO - Starting job test01 at 159963806479509-09-2020 15:54:24 CST test01 INFO - job JVM args: -Dazkaban.flowid=test01 -Dazkaban.execid=22 -Dazkaban.jobid=test0109-09-2020 15:54:24 CST test01 INFO - user.to.proxy property w原创 2020-09-09 20:58:36 · 4366 阅读 · 0 评论 -
执行spark-submit时,一直在Application report for application_1599648117906_0005 (state: ACCEPTED)刷新,解决方案
执行任务时,卡在(state:ACCEPTED)这一直不动,20/09/09 11:15:16 INFO yarn.Client: Application report for application_1599648117906_0004 (state: ACCEPTED)20/09/09 11:15:17 INFO yarn.Client: Application report for application_1599648117906_0004 (state: ACCEPTED)20/09/09原创 2020-09-09 20:04:31 · 7342 阅读 · 2 评论