- 博客(3)
- 收藏
- 关注
原创 Anaconda虚拟环境下安装pyspark
python=3.6.81.conda install pyspark2.安装spark低版本(spark-2.4.8-bin-hadoop2.7)3.配置spark环境(SPARK_HOME/bin)4.安装java8(环境配置JAVA_HOME/bin)5.官网安装hadoop(hadoop-3.2.3)6.github下载对应hadoop版本的winutils.exe黏贴到hadoop的bin目录(3.2.1)7.打开anaconda虚拟环境,直接输入pyspark命令检查
2022-04-23 20:45:19
5308
原创 Apache国内镜像下载
地址1:http://mirror.bit.edu.cn/apache/地址2:https://mirrors.tuna.tsinghua.edu.cn/apache
2022-04-23 19:03:45
2031
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人