大数据
.
ypp91zr
善于分享,提升自我!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Spark读取mysql数据
public void getStudentName() throws IOException { Properties properties = new Properties(); properties.put("driver", ApplicationYmlUtils.getDataSourceDriverClassName()); properties.put("user", ApplicationYmlUtils.getDataSourceUsern.原创 2020-08-31 17:47:02 · 1449 阅读 · 0 评论 -
JAVA 上传本地文件到HDFS
文件内容上传文件上传的时候加个一个文件夹路径ypp读取文件步入正题(代码)本地安装的hadoop版本为3.1.3pom.xml<properties> <java.version>1.8</java.version> <spark.version>3.0.0</spark.version> <scala.version>2.12.10<.原创 2020-08-28 15:57:53 · 4170 阅读 · 0 评论 -
hadoop启动报错 Incompatible clusterIDs in E:\java\hadoop-3.1.3\data\datanode: namenode clusterID = CID-f
完整错误截图,由于开发阶段用的本地的,以下是windows的截图,linux同理datanode没有启动成功大多数的解决办法都说是格式化,但如果是生产环境肯定是不可取的我复现错误的方式修改了core-site.xml文件的hadoop.tmp.dir配置,然后重新格式化(hdfs namenode -format),再启动hadoop就出现了datanode的这种错误还有其他的说法删除tmp下所有文件,再hdfs namenode -format格式化我采用的方式是找到datanod原创 2020-08-28 14:52:36 · 571 阅读 · 0 评论 -
Hadoop启动报错org.apache.hadoop.io.nativeio.NativeIO$POSIX.stat(Ljava/lang/String;)Lorg/apache/hadoop/io
先贴下完整错误信息datanode的错误,原因是hadoop.dll文件的问题,由于是本地windows安装启动的hadoop,故需要hadoop.dll文件,但版本对应不上,hadoop是3.1.3的,但是hadoop.dll文件是3.0.0的,换了hadoop.dll文件就好了不排除其他问题,配置环境变量,bin 里是否有hadoop.dll 和winutils.exe 这两个文件,C: windows\System32 里是否有hadoop.dll 文件。记得重启电脑Hadoop...原创 2020-08-27 16:55:49 · 4472 阅读 · 1 评论 -
本地安装HDFS(Hadoop)
开发阶段本地远程请求服务器有点慢,于是自己本地安装一个HDFS下载地址https://hadoop.apache.org/releases.html 本人安装的3.1.3下载解压放到自己指定位置,Hadoop安装必须要安装JDK1.8以上,配置系统环境变量path中添加%HADOOP_HOME%\bin,和JAVA_HOME方式一致,自行安装JAVA_HOME安装目录不能有空格,不然启动hadoop会报错:Error: JAVA_HOME is incorrectly set.Please ..原创 2020-08-27 17:43:41 · 1872 阅读 · 0 评论
分享